Algorytm YouTube'a nie rekomenduje prawicowych treści. Zamiast tego je ukrywa

Algorytm, którego zadaniem jest rekomendowanie treści użytkownikom, faworyzuje lewicowe i neutralne kanały – donosi amerykański serwis CNBC. Tym samym materiały tworzone przez pro-radykalnych i prawicowych twórców mają niższe zasięgi.

Algorytm YouTube'a nie rekomenduje prawicowych treści. Zamiast tego je ukrywa
Arkadiusz Stando

31.12.2019 13:17

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Dwoje niezależnych naukowców, analityk danych Mark Ledwich i Anna Zaitsev z Uniwersytetu Kalifornijskiego przez 2 lata analizowali ponad 23 miliony rekomendacji prezentowanych im przez algorytm YouTube'a. Aby to zrobić, najpierw posegregowali 800 kanałów zawierających treści polityczne. Opis ich badania znajdziecie tutaj.

Każdemu przyznawali jedną z poniższych kategorii: teorie spiskowe, libertarianizm, przeciwne SJW (społecznej równości), identytaryzm, polityczno-edukacyjne, talk showy, stronnicze lewicy, stronnicze prawicy, antyreligijne, konserwatywno-religijne, socjalistyczne, rewolucyjne, prowokacyjne(czerpiące radość z obrażania i wszelkiej uwagi), nie mainstreamowe media, finansowane przez rząd oraz anty-białoskóre.

Algorytm YouTube'a miał być niezależny politycznie, a promuje lewicęWedle wniosków badaczy, algorytm nie tylko nie proponuje prawicowych/radykalnych kanałów i treści, ale wręcz praktycznie zeruje ich zasięgi. System faworyzuje treści lewicowe lub neutralne. Częściej proponuje też materiały opracowane przez wielkie korporacje medialne czy sieci telewizyjne. Mniejsi twórcy polityczni mają znacznie utrudnione zadanie. Badacze zaobserwowali, że pomimo sporej ilości dostępnych filmów o tematyce radykalnie-prawicowej YouTube nie proponuje ich swoim użytkownikom.

Statystyki były zbierane na urządzeniach z przeglądarkami niezalogowanymi do kont YouTube. Tym samym rekomendacje nie były oparte na wcześniej oglądanych filmach. Algorytm nie miał możliwości wywnioskować, jakich materiałów chce poszukiwać odbiorca, a mimo to, stało się.

Badanie dwójki naukowców było odpowiedzią na serię artykułów w New York Times. Kevin Roose, dziennikarz renomowanego serwisu, informował wówczas o radykalizacji YouTube'a, czyli miał totalnie przeciwne wnioski. W jednym z nich przytaczał historię 26-latka, który po rezygnacji ze studiów miał stać się ofiarą radykalnej prawicy, która wyprała mu mózgu swoimi materiałami.

Programy

Zobacz więcej
Źródło artykułu:www.dobreprogramy.pl
Komentarze (244)