Turski pisze do Zuckerberga. Ofiara Auschwitz: "Facebook nie może negować Holokaustu"
Facebook znalazł się ostatnio w ogniu krytyki. Dostaje się mu od każdego - zarówno wielkich marek, takich jak Disney, Coca-Cola, Sony PlayStation, czy Microsoft, jak i swoich własnych pracowników.
[frame]Czytaj też: Mark Zuckerberg: wyciekły nagrania. Kryzys Facebooka, pracownicy tracą zaufanie[/frame]
Wszystkim z nich nie podoba się, że firma zarabia miliardy z reklam, które napędzane są treściami siejącymi dezinformację i podżegającymi do nienawiści.
Co więcej, Facebookowi nieustannie wypomina się to, że politycy mogą na nim bezkarnie przekazywać dowolne treści – nawet te, które nawołują do przemocy i strzelanin lub propagują teorie o tym, że do przeciwdziałania koronawirusowi używa się DNA kosmitów. Te dwie sytuacje miały ostatnio miejsce z Donaldem Trumpem.
Teraz do rozsądku szefa Facebooka apeluje ofiara Holokaustu i wiceprzewodniczący Międzynarodowego Komitetu Oświęcimskiego Marian Turski. Napisał on do Zuckerberga list otwarty w języku niemieckim, który opublikował dziennik "Frankfurter Allgemeine Zeitung".
Przeżył Holokaust. Boli go, że Facebook pozwala na negowanie tego wydarzenia
Polski historyk żydowskiego pochodzenia uświadamia założyciela Facebooka, że Holokaust był procesem stopniowym i "nie spadł z nieba".
"Auschwitz wkradał się krok po kroku, od drobnych dyskryminacyjnych przepisów do masowego ludobójstwa. Auschwitz mógł się zdarzyć w świecie, w którym ludzie są przyzwyczajeni do kłamstwa, zalewani mową nienawiści" - pisze Turski. "Pod koniec tego szerzenia się kłamstw i mowy nienawiści pojawiło się podżeganie do morderstw" – dodaje i ostrzega.
Turski oczekuje od szefa Facebooka, aby był "szczególnie czujny i wrażliwy" jako osoba sprawująca czwartą władzę - a więc kontrolująca media.
Co ciekawe, Zuckerberg, który sam jest z pochodzenia Żydem uważa, że "najlepszym sposobem walki z obraźliwą złą mową jest dobra mowa". Niestety liczne badania naukowe wykazały, że dezinformacja w internecie rozchodzi się znacznie szybciej niż prawda. Mówił też o tym ostatnio Bill Gates.
Turski jest zdania, że negacjonistów Holokaustu nie powinno się dopuszczać na Facebooka w ogóle. Były więzień Auschwitz pisze wprost: "Ludzie, którzy dziś zaprzeczają Holokaustowi, wyznają ideologię, która spowodowała śmierć sześciu milionów Marianów Turskich i przekazują ją dzisiejszemu młodemu pokoleniu. Dlatego apeluję - nie przeciwko demokracji, ale w imię demokracji - abyście nie pozwalali negacjonistom Holokaustu pojawiać się na Facebooku".
Jak reaguje Facebook na oskarżenia o słabą decyzyjność?
– Usuwamy każdy post, który gloryfikuje, broni lub próbuje usprawiedliwić Holokaust - powiedział rzecznik Facebooka agencji Associated Press.
Z kolei w kwestii moderowania tego, co podają dalej politycy na Facebooku, to nawet jeśli są to treści szkodliwe lub dezinformujące, firma stara się ich jako takie nie oznaczać. – Jestem zdania, że mowa polityczna jest jedną z najbardziej newralgicznych w systemie demokratycznym i ludzie powinni widzieć to, co politycy mają do powiedzenia - mówił Zuckerberg w wywiadzie z czerwca 2020 na łamach CNBC.
Jeśli chodzi o mowę nienawiści, szef komunikacji Facebooka, Nick Clegg, wyjawił w liście otwartym w lipcu 2020, że "Facebook nie czerpie korzyści z hejtu" - odnosząc się do zarobków z reklam oraz zwiększonego ruchu z racji skrajnych tematów, który mógłby przekładać się na większą liczbę reklam. Clegg miał również na myśli tutaj, że propagowanie hejtu nie jest korzystne dla Facebooka wizerunkowo.
Facebook rozmawia z organizacjami i moderuje treści, ale dla wielu to za mało
W czerwcu 2020 prestiżowy Uniwersytet Nowojorski opublikował opracowanie na temat skuteczności moderacji (czyli oznaczania i usuwania m.in. szkodliwych treści) Facebooka.
Wnioski były druzgocące. Platforma nie radzi sobie z napływem zmanipulowanych i nieprawdziwych informacji. A to zdaniem autora opracowania, Paula Barretta, bardzo niedobrze. Uważa on, że moderacja treści jest wręcz fundamentem do tego, aby Facebook jako platforma mogła być użyteczna.
Jednym z powodów małej efektywności jest zatrudnianie małej, bo 15-tysięcznej grupy podwykonawców, często z różnych krajów (często rozwijających się) na świecie pracujących zdalnie i przy niskich zarobkach.
Co gorsza, brakuje im również opieki psychologicznej, a w tym zawodzie są często narażeni na najbardziej drastyczne z treści (także w formie nagrań i zdjęć).
Oprócz kadry złożonej z ludzi, Facebook wykorzystuje również sztuczną inteligencję, która oznacza aż 3 miliony różnego rodzaju "obiektów" na stronie dziennie. Sama firma podaje, że istnieje 10-procentowy margines błędu moderacji, a więc oznacza to 300 000 pomyłek każdego dnia.
Twórcy opracowania wskazują również na to, że zdalny charakter pracy przekłada się na brak zrozumienia powagi sytuacji w wielu przypadkach, szczególnie dotyczących drażliwych tematów politycznych. Przykładem są autorytarne rządy rozsyłające propagandę, która pomogła np. w zapoczątkowaniu ludobójstwa w Mjanmie (Birma).
Badacze Uniwersytetu Nowojorskiego nie mają złudzeń - chodzi o zaoszczędzenie pieniędzy. Autor opracowania, Paul Barrett, uważa, że obecne działania Facebooka są w ogromnym stopniu niewystarczające. Wicedyrektor Instytutu Biznesu i Praw Człowieka na Uniwersytecie Nowojorskim twierdzi, że firma może być teraz zmuszona do bardziej drastycznych działań i poważnych zmian w moderacji.
Brakiem twardej ręki w kwestii mowy nienawiści i pozwalania na jej propagowanie są zniesmaczone także różnego organizacje działające na rzecz równości społecznych.
Prezes Krajowego Stowarzyszenia na Rzecz Popierania Ludności Kolorowej, Derrick Johnson, boryka się z podobnymi problemami w kwestii mowy nienawiści skierowanej przeciw czarnym.
Na łamach New York Times wyjawił, że wielokrotnie spotykał się z członkami zarządu Facebooka i odbywał z nimi miłe rozmowy. Nie pociągały jednak one za sobą żadnych czynów. - Temu facetowi po prostu nigdy nie przemówisz do rozsądku - powiedział Johnson.