SI Facebooka nie pozwoli udostępniać nagich zdjęć byłych w ramach zemsty
Udostępnienie rozbieranych zdjęć to jeden z popularniejszych sposobów na zemstę na byłym partnerze lub partnerce. Problem jest na tyle poważny, że Facebok postanowił wytrenować model maszynowego uczenia, by temu zapobiegać.
Udostępnianie rozbieranych zdjęć bez czyjejś zgody lub przy zdecydowanym sprzeciwie, czyli revenge porn (można przetłumaczyć to jako pornozemsta), to bardzo skuteczny sposób, by poniżyć inną osobę. Metoda jest szczególnie skuteczna, gdy ofiarami mają być kobiety.
W 2017 Facebook zbierał nagie zdjęcia
Facebook pracuje nad tym modelem przynajmniej od 2017 roku, kiedy to prosił o nagie zdjęcia użytkowników, by wytrenować swoją SI. Program jest dodatkowym elementem większego programu, w ramach którego pracują moderatorzy z krwi i kości. SI pozwoli działać proaktywnie i wykryć intymne zdjęcia i filmy jeszcze zanim ofiara je znajdzie i zgłosi moderatorom. Facebook prowadzi także inicjatywę Not Without My Consent, pomagającą ofiarom pornozemsty.
Zdjęcia i filmy oznaczone przez SI będą poddawane dodatkowej kontroli przez odpowiedzialną za to osobę. Jeśli materiał będzie krzywdzący, zostanie usunięty, a być może konto osoby udostępniającej go zostanie zablokowane.
SI kontra SI
Facebook prawdopodobnie uczył swoją SI na zdjęciach realnych użytkowników, ale to nie jedyny front pornozemsty. Warto przypomnieć tu historię Australijki, która od 7 już lat walczy z tego typu atakami. W jej przypadku jednak pornografia była tworzona przez SI – jej twarz była dodawana do filmów z pomocą programu FakeApp. Z nimi Facebook może sobie nie poradzić.
A co z filmami, gdzie ciało należy do byłej, a twarz została wygenerowana przez SI? Ocena takiego materiału będzie wyzwaniem nawet dla żywych moderatorów.