Sztuczna inteligencja nie radzi sobie na YouTube. Wracają moderatorzy
YouTube ostatnio coraz mocniej inwestował w algorytmy sztucznej inteligencji, które wydawałoby się, są idealnym narzędziem do moderacji. Tak dotąd sądzili włodarze Google'a. Eksperyment okazuje się jednak niewypałem.
22.09.2020 16:38
W marcu tego roku YouTube wszedł na nowy poziom walki z dezinformacją i mową nienawiści. Jednym z efektów było wprowadzenie nowego algorytmu. Jego zadaniem było flagowanie tego typu treści, a w niektórych przypadkach nawet podejmowanie decyzji o ich usunięciu. Szybko się okazało, że algorytm nie jest w stanie skutecznie rozpoznawać niezgodnej z regulaminem treści.
Wraz z wprowadzeniem nowego narzędzia, rosła liczba odwołań od usunięcia treści z serwisu. Na przełomie kwietnia i czerwca usunięto 11 milionów filmów, czyli ponad dwa razy więcej, niż zwykle w tym samym czasie. W 320 tysiącach przypadków doszło do odwołania, a połowa z filmów została przywrócona. To również dwa razy więcej niż zwykle, a tym samym znak, że algorytm pracował zbyt nadgorliwie.
YouTube stwierdza, że moderacja z użyciem AI to porażka
W rozmowie z serwisem Finnacial Times, przedstawiciel YouTube'a przyznał, że wprowadzenie algorytmu do wykrywania treści niezgodnych z regulaminem było błędem. Stwierdził, że tego typu narzędzia nie mogą być tak precyzyjne jak człowiek. Tym samym, zapowiedziano powrót do wcześniejszych praktyk, czyli przywrócenie zespołu ludzkich moderatorów.
Niekiedy treści zawarte na YouTube mogą być trudne do oceny nawet dla człowieka. Stwierdzenie, czy film zaledwie wspominający o teorii spiskowej, czy zawierający krótkie sceny rasizmu, ale nie skupiający się na nim, jest niezgodny z regulaminem, może zależeć od wielu czynników. Tego typu kwestie po prostu nie są zero-jedynkowe.