Zdalna rozmowa o pracę: skąd pewność, że kandydat istnieje?
Popularność pracy zdalnej i powiązanych z nią zdalnych rozmów kwalifikacyjnych, to nowy obszar eksploatowany przez oszustów. FBI ostrzega, że w ostatnim czasie coraz częściej można trafić na rozmowę z "kandydatem", który tak naprawdę nie istnieje - a jest to możliwe dzięki technologii deepfake.
W stosunkowo krótkim ogłoszeniu FBI ostrzega pracodawców przed sztuczkami ze strony aplikujących. Okazuje się, że coraz częściej można trafić na oszustwa, w ramach których odnotowuje się jednocześnie kradzież tożsamości oraz wykorzystanie technologii deepfake do preparowania nagrań lub manipulacji rozmową w czasie rzeczywistym. W konsekwencji przez nieuwagę można dać pracę komuś, kto tak naprawdę nie istnieje, a przynajmniej nie ma pojęcia o danej rozmowie.
FBI deklaruje, że próby oszustwa z wykorzystaniem technologii deepfake można stosunkowo łatwo wykryć. Mówi się o braku synchronizacji obrazu z dźwiękiem i nienaturalnej realizacji chrząknięć czy kaszlnięć. Technicznie deepfake to obraz generowany z wykorzystaniem sztucznej inteligencji na podstawie innych, którymi wcześniej "nauczono" system. W wielu przypadkach nie jest to rozwiązanie idealne i niedoskonałości da się zauważyć - szczególnie, jeśli świadomie się ich poszukuje.
Oszustwa z deepfake'ami w tle są większym zagrożeniem, niż wielu osobom może się wydawać. Niedawno atakujący upodobali sobie nawet wykorzystywanie tej technologii do poprawienia skuteczności oszustw typu sextortion. Zamiast, jak dotychczas, straszyć rzekomym pozyskaniem jednoznacznych zdjęć z komputera ofiary, kompromitujące materiały da się wygenerować z użyciem sztucznej inteligencji i realnie zagrozić wybranej ofierze.
Oskar Ziomek, redaktor prowadzący dobreprogramy.pl