Jak rozpoznać, czy nasz rozmówca to deepfake? Prosty sposób na oszustów
Wideorozmowa do niedawna wydawała się skutecznym sposobem na weryfikację naszego rozmówcy. Deepfake sprawił, że to, co widzimy na własne oczy, wcale nie musi być prawdą. Stwarza to wiele możliwości do nadużyć, jednak – na razie – istnieje prosty sposób na zdemaskowanie ewentualnych oszustów.
Czy nasz rozmówca jest tym, za kogo się podaje? Jeszcze kilkanaście miesięcy temu wrażenie robiły spreparowane, przygotowane wcześniej materiały wideo, na których np. angielska królowa składała poddanym nietypowe życzenia.
Rozwój deepfake sprawia, że przekonująca podmiana wizerunku dotyczy także materiałów, przekształcanych w czasie zbliżonym do rzeczywistego – np. wideorozmów. Gdy dla jednych to okazja do zastosowania zabawnych filtrów, dla innych deepfake użyty w złej wierze stanowi potężne narzędzie, służące do oszustw i wyłudzeń.
Jak wykryć deepfake?
Prostą metodę na weryfikację naszego rozmówcy przedstawił Martin Anderson ze studia Metaphysic, specjalizującego się w treściach generowanych przez algorytmy, określane mianem sztucznej inteligencji. Anderson wskazuje, że algorytmy (na razie!) nie zapewniają skutecznej podmiany obrazu w pełnym zakresie kątów.
O ile twarz rozmówcy widziana en face czy pod niewielkim kątem wygląda wiarygodnie, w celu wykrycia oszustwa należy poprosić go o odwrócenie głowy o pełne 90 stopni. Jeśli podczas wideorozmowy został wykorzystany wizerunek innej osoby, na twarzy widzianej z profilu powinny pojawić się różnego rodzaju artefakty i niedoskonałości.
Rosyjska prowokacja
O tym, jak poważnym problemem jest fałszowanie wideorozmów przekonali się m.in. uczestnicy wideokonferencji z udziałem polityków z Litwy, Łotwy, Estonii, Wielkiej Brytanii i Holandii. Byli oni przekonani, że rozmawiają z Leonidem Wołkowem – bliskim współpracownikiem rosyjskiego opozycjonisty, Aleksieja Nawalnego.
W rzeczywistości uczestnikiem rozmów była podstawiona osoba, na której twarz nałożono wizerunek opozycjonisty. Cała mistyfikacja została uznana za prowokację Kremla, której zadaniem było zdyskredytowanie antyputinowskiej opozycji.
Ofiarą podobnej prowokacji padł także niedawno prezydent Warszawy Rafał Trzaskowski. "Rozmowa przebiegała w sposób "nietypowy" i wzbudziła podejrzenia. Okazało się, że Kliczko nie prowadził w tym czasie żadnej rozmowy" - podaje Wirtualna Polska.
Ludzie, których nie ma
W kontekście deepfake’u warto przytoczyć kontrowersje, związane z ludzkimi twarzami generowanymi przez algorytmy, jak choćby w przypadku strony This Person Does Not Exist. Sposoby na weryfikację takich wizerunków opisywał Marcin Watemborski z Fotoblogii. Niedoskonałości algorytmu pozwalały w niektórych przypadkach rozpoznać oszustwo m.in. za sprawą nietypowo wyglądających zębów czy płatków uszu.
- Jak to mówią: "Diabeł tkwi w szczegółach". I właśnie o nie się rozchodzi. Na twarzach generowanych przez sztuczną inteligencję występują detale, które w rzeczywistości by nie wystąpiły, jak niepasujące do siebie kolczyki u eleganckiej kobiety, lub ich dziwne wariacje - wyjaśnia Marcin Watemborski. Algorytmy deepfake miewają również problemy z wiarygodnym odwzorowaniem okolic oczu.
Trzeba jednak pamiętać, że technologia deepfake jest nieustannie rozwijana i – choć daleka od doskonałości – z czasem staje się coraz trudniejsza do wykrycia. Bez wielkiego ryzyka możemy założyć, że wskazane metody wykrywania deepfake’ów z czasem staną się nieskuteczne.
Łukasz Michalik, dziennikarz dobreprogramy.pl