AI w służbie dezinformacji. Problem z ChatGPT

Szwajcarzy przeprowadzili badanie, które potwierdziło, że ChatGPT w wersji trzeciej może tworzyć "doskonałe kampanie dezinformacyjne". Jednocześnie często służy użytkownikom poprawnymi odpowiedziami na zadawane przez nich pytania.

Laptop komputer elektronika internet
Laptop komputer elektronika internet
Źródło zdjęć: © Unsplash
oprac. KLT

Naukowcy z Uniwersytetu w Zurychu sprawdzili najnowsze modele sztucznej inteligencji (głównie ChatGPT) pod kątem zdolności tych systemów do dostarczania informacji i zagrożeń związanych z ewentualną dezinformacją. W ramach badania 697 ochotników starało się odróżnić tweety poprawne, realne - od fałszywych.

Uczestnicy eksperymentu próbowali również określić, czy autorem danego wpisu był człowiek, czy SI. Tematy dotyczyły m.in. zmian klimatu, bezpieczeństwa szczepień, pandemii Covid-19, teorii płaskiej Ziemi czy homeopatycznych leków na raka.

Dalsza część artykułu pod materiałem wideo

Jak wskazały wyniki, oparte na AI systemy potrafią stworzyć nawet pokaźną kampanię dezinformacyjną. Często sztuczna inteligencja była przy tym bardzo przekonująca.

Z drugiej strony ChatGPT pokazał, że potrafi dostarczać rzetelnych informacji, a jego wpisy były porównywalne do tworzonych przez ludzi. Użytkownicy zwykle nie potrafili też rozróżnić, czy dany tweet to dzieło ChatGPT, czy człowieka.

- Nasze badania ujawniają moc sztucznej inteligencji zarówno w informowaniu, jak i dezinformowaniu, co każe postawić krytyczne pytania dotyczące przyszłości ekosystemów informacyjnych – mówi dr Federico Germani, współautor pracy opublikowanej w piśmie "Science Advances".

Wyniki sugerują przy tym, że kampanie informacyjne stworzone przez GPT3, oparte na dobrze skonstruowanych zapytaniach i oceniane przez wyszkolonych ludzi, mogłyby być skuteczne na przykład w przypadku kryzysu z zakresu zdrowia publicznego, który wymaga szybkiej i klarownej komunikacji z publicznością – uważają naukowcy.

Jednak budzą one również poważne obawy dotyczące utrwalania dezinformacji, na przykład, właśnie w kryzysu lub innych wydarzeń związanych z zdrowiem publicznym. Badanie sugeruje bowiem, że systemy oparte na sztucznej inteligencji mogą zostać wykorzystane do generowania masowych kampanii dezinformacyjnych potencjalnie na dowolny temat, zagrażając nie tylko zdrowiu publicznemu, ale także integralności informacyjnych ekosystemów, istotnych dla funkcjonowania demokracji.

Naukowcy namawiają więc do wprowadzenia odpowiednio restrykcyjnych, popartych badaniami naukowymi i etyką regulacji odnośnie działania sztucznej inteligencji tego rodzaju.

- Nasze wyniki ukazują kluczowe znaczenie regulacji w celu złagodzenia potencjalnych szkód spowodowanych przez kampanie dezinformacyjne napędzane przez sztuczną inteligencję - mówi prof. Nikola Biller-Andorno, współautorka badania.

- Rozpoznanie ryzyka związanego z dezinformacją generowaną przez sztuczną inteligencję jest kluczowe dla ochrony zdrowia publicznego oraz utrzymania solidnego i wiarygodnego ekosystemu informacyjnego w erze cyfrowej - dodaje.

Programy

Zobacz więcej
Wybrane dla Ciebie
Komentarze (6)