FBI ostrzega przed oszustwami. Apel dotyczy każdego

FBI ostrzega przed niebezpiecznym użyciem sztucznej inteligencji. AI jest wykorzystywana nie tylko do ułatwiania pracy, ale także dla oszustw. Pozwala ona małym nakładem sił przygotować narzędzia niezbędne do realizacji oszustwa.

FBI ostrzega przed AI
FBI ostrzega przed AI
Źródło zdjęć: © Getty Images

FBI ostrzega przed rosnącym zagrożeniem oszustwami, które wykorzystują technologię sztucznej inteligencji. Jak podaje Bitdefender, cyberprzestępcy coraz częściej sięgają po generatywną AI, aby tworzyć bardziej wiarygodne i trudniejsze do wykrycia oszustwa.

Generatywna sztuczna inteligencja, jak GPT OpenAI, umożliwia przestępcom szybkie tworzenie treści, które mogą być używane do oszustw. FBI podkreśla, że AI zmniejsza czas i wysiłek potrzebny do oszukania ofiar, co czyni te działania bardziej skutecznymi.

Dalsza część artykułu pod materiałem wideo

Korzystanie z generatywnej sztucznej inteligencji pozwala na wykorzystanie opracowanych przez człowieka narzędzi i stworzenie na ich podstawie czegoś całkowicie nowego. Potencjał generatywnej AI pozwala też na wprowadzanie poprawek i usuwanie błędów ludzkich, które często pozwalają na rozpoznanie oszustwa.

FBI ostrzega przed oszustami

"Ponieważ trudno jest zidentyfikować, czy treść została wygenerowana przez sztuczną inteligencję, FBI podaje następujące przykłady, w jaki sposób przestępcy mogą wykorzystywać generatywną sztuczną inteligencję w swoich schematach oszustw, aby zwiększyć rozpoznawalność i kontrolę społeczną" – czytamy w zawiadomieniu FBI.

Przestępcy wykorzystują AI do tworzenia realistycznych zdjęć profilowych, dokumentów tożsamości oraz dźwięków, które mogą być używane do podszywania się pod osoby publiczne. To wzbudza zaufanie potencjalnych ofiar i utrudnia wykrycie cyberprzestępców.

Jak chronić się przed oszustami?

Aby rozpoznać treści, wygenerowane przez cyberprzestępców, należy dokonywać ich dokładnej analizy. Szukać drobnych pomyłek językowych czy kalk językowych. W przypadku grafik, możemy szukać artefaktów, pokroju rozmytych części obrazu, brakujących lub zbyt licznych palców, np. "dziwnych" kształtów uszu.

Bitdefender zaleca, by wprowadzić tajne słowo, które będzie stanowiło hasło podczas komunikacji z najbliższymi. Pozwoli ono na weryfikację, czy po drugiej stronie faktycznie jest członek naszej rodziny, czy też podszywający się pod niego oszust. Firma poleca też korzystanie z narzędzi do wykrywania oszustw, takich jak Bitdefender Scamio.

FBI podkreśla, że choć treści generowane przez AI nie są z natury nielegalne, mogą być wykorzystywane do przestępstw takich jak oszustwa i wymuszenia. Dlatego ważne jest, aby być świadomym zagrożeń i stosować odpowiednie środki ostrożności.

Programy

Zobacz więcej

Wybrane dla Ciebie

Komentarze (24)