Czy walka z fałszywym porno ma sens? Kobieta z Australii toczy bój szósty rok

Fałszywe materiały erotyczne okazały się potężną bronią, z którą nie bardzo wiadomo jak walczyć. Wcześniej taka pornografia przygotowana była z pomocą edytora grafiki, ale teraz możemy zlecić to zdanie modelowi SI. Metody Deepfake wciąż są ulepszane i coraz trudniej odróżnić wynik ich pracy od autentycznych nagrań, a tworzenie ich nie jest szczególnie trudne. To idealne narzędzie zemsty, dezinformacji bądź dręczenia w cyfrowym świecie.

Czy walka z fałszywym porno ma sens? Kobieta z Australii toczy bój szósty rok

05.10.2018 | aktual.: 06.10.2018 16:28

By stworzyć deepfake wystarczy w zasadzie program FakeApp i komputer z kartą graficzną, obsługującą NVIDIA CUDA 8.0 i mająca 2 GB VRAM-u. Co ciekawe, póki co nie zauważyliśmy zastosowania tej techniki w polityce wysokiego szczebla, czego najbardziej obawiają się naukowcy pracujący z SI. Z początkiem roku zobaczyliśmy sporo materiałów erotycznych, do których „doklejone” zostały twarze kobiet, zarówno sławnych, jak i zupełnie przeciętnych. Wbrew pozorom, te drugie są w gorszej sytuacji.

Już 6 lat temu ofiarą takiego ataku była 24-letnia obecnie Noelle Martin z Australii. Nieznani sprawcy ściągnęli zdjęcia z jej profili w mediach społecznościowych i przenieśli jej twarz na zdjęcia pornograficzne. Fotografie zdobyli zaprzyjaźniając się z jej znajomymi i meldując się w tych samych miejscach. Na forach, do zmontowanych fotografii, dodawali także dosłowne komentarze i opisy jej ciała. Nie cofnęli się także przed publikacją zdjęć z jej młodszą siostrą. Sytuacja wymknęła się spod kontroli do tego stopnia, że twarz Noelle znalazła się nawet na okładce DVD z filmem, w którym Noelle nigdy nie występowała. Od władz dowiedziała się, że jedynym wyjściem jest kontakt ze wszystkimi stronami i wnioskowanie o usunięcie materiałów. Niektórzy administratorzy się na to zgadzali, inni obiecywali to zrobić jeśli dostaną jej nagie zdjęcia.

Rozwój SI umożliwił napastnikom tworzenie także krótkich filmów, gdzie jej twarz trafiała do dużo bardziej odważnych scen erotycznych. W ciągu minionych 6 lat autorzy tych materiałów kilka razy udostępnili także jej imię, nazwisko i lokalizację. Nietrudno policzyć, że gdy ataki się zaczęły, miała 17 lat, więc w niektórych krajach jej przerobione zdjęcia można próbować traktować jako dziecięcą pornografię. Ponadto tworzenie deepfake'ów narusza prawa autorskie do materiałów i wizerunek aktorek, które naprawdę tam występują.

Ataki na Noelle trwają nadal, a sprawcy pozostają nieznani. Nie wiadomo dlaczego autorzy filmów wybrali jej twarz – była jedną z wielu kobiet, której zdjęcia znalazły się na forum poświęconym tworzeniu fałszywej pornografii. Jej losem pokierował czysty przypadek. Niewykluczone, że nigdy nie spotkała napastników, ale oni mogli ją śledzić. Kobieta jednak postanowiła nie milczeć i w ubiegłym roku powiedziała mediom o swoim przypadku. To z kolei pchnęło atakujących do kolejnych prób zdominowania jej i uciszenia, ale Noelle nie uległa. Działania Noelle mają dobre skutki i dzięki niej w Australii udało się zwiększyć świadomość społeczną w sprawie udostępniania pornografii jako zemsty (revenge porn), co z kolei zwiększyło szanse ofiar w konfliktach prawnych. Swoją historię opowiedziała wiosną podczas konferencji TEDx.

Zdjęcia i GIF-y można bez problemu znaleźć w internecie szukając po prostu nazwiska Noelle Martin. Trudno powiedzieć, jak na tę sytuację zareagują jej przyszli pracodawcy, jeśli nie będą znali szczegółów tej sytuacji. Ponieważ Noelle Martin nie jest gwiazdą pokroju Kim Kardashian-West, widząc scenę z filmu z jej udziałem nikt nie pomyśli, że to musi być podróbka, bo przecież sławna osoba nie wystąpi w filmie dla dorosych.

Walka trwa w wielu miejscach, na czele z Redditem, Twitterem i PornHubem. Pomaga w niej SI stworzona do znajdowania filmów stworzonych przez SI – Projekt Angora. Jego zadaniem jest porównywanie GIF-ów w różnych miejscach i różnej jakości, by znaleźć „oryginał”. Jego skuteczność jest wątpliwa, ale pomógł usunąć trochę sfabrykowanych GIF-ów z serwisu Gfycat. W innych miejscach działa Projekt Maru, rozpoznający i oznaczający twarze w materiałach pornograficznych. Maru ma już na koncie przynajmniej jeden sukces – znalazł GIF z osobą, która wyglądała jak Emma Watson, ale nią nie była. Tu znów wchodzimy na teren pornografii dziecięcej – wykorzystano zdjęcia Emmy Watson w wieku 10 lat, pochodzących z filmu Harry Potter.

W miarę jak deepfake'i są coraz bardziej realistyczne, walczące z nimi SI są coraz mniej skuteczne i nie ma sensu na nich polegać. W zasadzie nie ma też powodu, by zaufać ludziom. Jeśli myślicie, że umiecie poznawać filmy generowane przez SI, spróbujcie swoich sił w tym teście.

Obraz

Choć większe serwisy nie zezwalają na publikację podrabianych materiałów, nie brak też takich, których administratorzy się tym nie przejmują albo wręcz na tym korzystają. Technika tego problemu nie rozwiąże. Nie można liczyć na prawo w internecie z założenia pozbawionym granic, nawet jeśli produkcję podrabianej pornografii zrównamy z napaścią na tle seksualnym. Niewątpliwie jest to forma takiej napaści w przestrzeni cyfrowej i zasługuje na własny zapis prawny, nad czym pracuje już rząd Australii, ale egzekwowanie go będzie bardzo trudne. Warto też szerzej informować o tym problemie, by osoby postronne traktowały z pewną dozą dystansu materiały pornograficzne ze znajomymi twarzami, dzięki czemu podróbki będą mniej szkodliwe. Całkowicie problem może rozwiązać tylko zmiana obyczajowa, która może nigdy nie nadejść.

Programy

Zobacz więcej
Wybrane dla Ciebie
Komentarze (160)