Sztuczna inteligencja a bezpieczeństwo. ChatGPT może namieszać
Sztuczna inteligencja daje nam duże szanse rozwoju i ułatwienia sobie wielu codziennych czynności. Jednocześnie narzędzie to może być wykorzystywane w złych celach, a jakość SI sprawia, że identyfikacja zagrożeń może być znacznie trudniejsza niż dotychczas.
08.02.2023 13:59
Sztuczna inteligencja nie jest niczym złym. ChatGPT udowadnia, że dzięki jej wykorzystaniu można ułatwić sobie wiele codziennych czynności, oszczędzić sobie monotonnego wyszukiwania treści na dany temat albo po prostu ułatwić proces uczenia się nowej umiejętności. Niestety, jak każde potężne narzędzie może być też wykorzystana w złych celach.
Cyberprzestępcy, korzystając z aplikacji takich jak Chat GPT mogą znacząco zwiększyć swoją wiarygodność. Generowane przez nich dotychczas maile były zazwyczaj tłumaczone w darmowych translatorach, w związku z czym ich gramatyka bywała karykaturalna. Nie trzeba było mieć żadnego pojęcia na temat cyberbezpieczeństwa, by rozpoznać oczywisty phishing. Sztuczna inteligencja znacząco zmienia sytuację.
Dalsza część artykułu pod materiałem wideo
Sławosz Uznański o dalszych planach i wyzwaniach związanych z byciem rezerwowym astronautą ESA
Dalsza część artykułu pod materiałem wideo
ChatGPT jako darmowe narzędzie świetnie radzi sobie z redagowaniem krótkich treści, przede wszystkim w języku angielskim. To wystarczy, by móc wysyłać maile z próbami oszustwa do milionów internautów na całym świecie. Co więcej, tłumaczenie wygenerowanych w ten sposób tekstów często bywa wyraźnie lepsze, niż ma to miejsce w przypadku tłumaczenia tekstu na przykład za pośrednictwem Tłumacza Google.
Jak wskazuje Chester Wisniewski, dyrektor ds. technologii w firmie Sophos, to jednak dopiero początek możliwości wykorzystania sztucznej inteligencji przez internetowych oszustów. Tego rodzaju narzędzia pozwalają na przykład na wygenerowanie twarzy nieistniejących osób. Dalszym krokiem może być wykorzystanie ChatGPT w celu stworzenia pełnego profilu fałszywej firmy - biografie pracowników, ich profile w mediach społecznościowych, a nawet strona internetowa firmy. W przypadku korespondowania z botem opartym o dobrą sztuczną inteligencję, w zasadzie nie ma szans na zorientowanie się, że nie wymieniamy wiadomości z człowiekiem.
Aby móc skutecznie walczyć z tego typu oszustwami, konieczne może być opracowywanie narzędzi, które będą rozpoznawać treści generowane przez SI. Takie aplikacje już powstają, ich przykładami jest DetectGPT czy nawet model językowy stworzony przez OpenAI. Jednak co w sytuacji, gdy przygotowany przez SI gotowiec zostanie zredagowany przez człowieka? Wówczas żadne oprogramowanie nie zdoła odróżnić takiego tekstu od wytworu komputera.
Karol Kołtowski, dziennikarz dobreprogramy.pl