Dlaczego to ma znaczenie
Zmniejszenie liczby filmów spiskowych, które są automatycznie promowane i zarabiane wśród stałych użytkowników YouTube, może tylko pomóc w walce z fałszywymi informacjami i ekstremistycznymi ideologiami.
Nowe badanie pokazuje, że plan YouTube, aby przestać polecać filmy zawierające konspiracje w swoim zwykłym kanale wideo, działa.
Niektóre tło: Z powodu krytyki dotyczącej promocji filmów o konspiracji (cudowne lekarstwa, ziemia jest płaska itp.), YouTube ogłosił, że rozprawi się z takimi „ granica treści” w styczniu 2019 r.
Gdzie jesteśmy teraz: Naukowcy z Uniwersytetu Kalifornijskiego w Berkeley i Mozilla Foundation opracowali system klasyfikacji, czy wideo jest „konspiracyjne”, a następnie emulował algorytm Watch-Next YouTube, aby przefiltrować roczne wartości tego, co algorytm aktywnie promował. Marc Faddoula, Guillaume Chaslotb i Hany Farida stwierdzili, że w rzeczywistości liczba aktywnie polecanych filmów wideo oznaczonych jako spiskowe zmniejsza się.
Całkowite zmniejszenie liczby zaleceń konspiracyjnych jest zachęcającym trendem.
To nie jest rozwiązane: Chociaż badacze są ostrożni i optymistyczni, zdają sobie sprawę, że problem radykalizacji poprzez takie filmy jest większym problemem. „Osoby z historią oglądania treści konspiracyjnych z pewnością nadal mogą postrzegać YouTube jako bańkę filtrującą”, napisali, „wzmocnioną spersonalizowanymi rekomendacjami i subskrypcjami kanałów.„
Konkluzja: Naukowcy zauważają również, że projekt algorytmu YouTube ma jeszcze większy wpływ na przepływ informacji niż, powiedzmy, redakcja w bardziej tradycyjnych mediach wylot. Tak potężne narzędzie, jak przekonują autorzy tego badania, powinno podlegać większej przejrzystości i publicznemu testowaniu teraz i w przyszłości.