Internetowi potentaci razem przeciw mowie nienawiści. Facebookowi pomoże w tym sztuczna inteligencja
W świetle wczoraj ujawnionego porozumienia amerykańskichwielkich firm internetowych z Komisją Europejską o zwalczaniu tzw.„mowy nienawiści” w Sieci, najnowsze posunięcie Facebookawydaje się całkiem zrozumiałe. Największy serwis społecznościowyświata sięgnie po sztuczną inteligencję w walce z wizerunkami,które mogłyby zaszkodzić wrażliwej psychice ludzkich cenzorów.
01.06.2016 20:52
Przypomnijmy: najważniejsi operatorzy usług w chmurze, serwisówspołecznościowych i wyszukiwarek poinformowali wczoraj, żeporozumieli się z Komisją Europejską w sprawie przyjęcia unijnegokodeksu postępowania w Internecie. Znalazły się w tym gronieMicrosoft, Facebook, Twittter i YouTube (co ciekawe, na razie nie mamowy o innych usługach Google'a). Sygnatariusze porozumieniazapewnią, że wszelka „mowa nienawiści” – nielegalnenawoływanie do nienawiści w Internecie – publikowana na ichserwisach zostanie w ciągu 24 godzin usunięta.
Nie należy sądzić, że amerykańskie firmy zdecydowały się nato z pobudek ideologicznych – powód był bardziej prozaiczny.Chodziło o pieniądze, a właściwie o uniknięcie kar finansowychwobec operatorów, którzy nie usunęliby zakazanych treści.Podpisując porozumienie, firmy mogą zadeklarować, żeprzestrzegają unijnych wytycznych – zachowują tzw. compliance,zgodność z wymogami prawa.
Co tu jeszczezakazać?
Problemem oczywiście pozostajeto, czym jest „mowa nienawiści” i jak się to ma do wolnościsłowa. I tu wkraczamy na prawdziwe pole minowe, gdyż w różnychkrajach Unii kwestia ta jest różnie definiowana. Z oficjalnegokomunikatuKomisji można jednak wyczytać tematy, które zostały uznane zamogące osłabić demokratyczny dyskurs na platformachinternetowych. Mowa jest więc oprzekazie rasistowskim, ksenofobicznym, podżegającym do przemocy,nietolerancji, w szczególności na tle antysemickim iantymuzułmańskim, treściami, które obrażają, szokują lubzakłócają państwo lub jakąkolwiek część społeczeństwa.
Zarazem jednak skala tej cenzurybędzie globalna – nawet jeśli ktoś spoza UE opublikuje naglobalnych platformach treść uznaną za „mowę nienawiści” wEuropie, operatorzy usług będą musieli ją usunąć, by nieobraziła czasem kogoś na Starym Kontynencie. Firmy-sygnatariusze,chcąc zjeść ciastko i je mieć, stwierdziły zarazem, że niepopierają cenzury i chcą, by użytkownicy mogli wyrażać swojeautentyczne przekonania. Oczywiście, o ile nie są dla kogośobraźliwe lub nienawistne.
Nie tylko o usuwanieniewłaściwych treści chodzi, ale też o promowanie właściwych. Ztreści porozumienia możemy się dowiedzieć, że przedsiębiorstwaz branży IT i Komisja Europejska mają również na celu kontynuacjęprac w zakresie określania i promocji niezależnych treścialternatywnych, nowych pomysłów i inicjatyw oraz wspieraniaprogramów edukacyjnych, które zachęcają do krytycznego myślenia.
Ludzie zbytdelikatni na nieocenzurowany Internet
Chyba jednak nie byłoby dobrze,by moderatorzy serwisów społecznościowych musieli być samiwystawieni na niekończący się strumień przesyconych nienawiściątreści, szczególnie tych w postaci obrazów czy filmów. Jakwiadomo, co zostało zobaczone, nie może już zostać odzobaczone.Dlatego też Facebook ogłosił, że osiągnął ważny kamieńmilowy w pracach nad Sztuczną Inteligencją. Jego systemy potrafiąteraz samodzielnie wykrywać i usuwać treści naruszające regulaminserwisu. Mowa nienawiści, pornografia, nagość, czy przemoc –zanim ktoś oznaczy to jako naruszające regulamin, zobaczą tosetki, a nawet tysiące ludzi, szkoda zostanie poczyniona.
Facebook poszedł więc w stronęaktywnej moderacji, przeprowadzanej przez AI i jego algorytmy jużteraz wykrywają więcej naruszających regulamin treści, niżludzcy moderatorzy – przyznał szef pionu maszynowego uczenia wFacebooku, Joaquin Candela. Zautomatyzowana policja myśli jest wstanie przejrzeć setki tysięcy nowych wpisów, jakie pojawiają sięco minutę w serwisie, rozpoznając nie tylko ich treść, ale ikontekst. W ten sposób serwis staje się nie tylko bezpieczniejszydla społeczności, ale teżchroni moderatorów, którzy wcześniej zmuszeni byli patrzeć na to,co najgorsze w człowieku i szybko się wypalali, zdradzającsymptomy zbliżone do zespołu stresu pourazowego.
W tym samym kierunku chce podążaćTwitter. Choć nie dysponuje zasobami swojego wielkiego konkurenta,robi co może – tylko po to, by walczyć z naruszającymi regulaminobrazami, zakupił specjalizujące się w maszynowym przetwarzaniuobrazu startupy Madbits i Whetlab. Zbudowane przez nich AI myli siępodobno nie częściej niż w 7% przypadków i już teraz pozwoliłoznacznie ograniczyć liczbę ludzkich moderatorów (choć wciążzawieszanie kont na Twitterze odbywa się „ręcznie”).