AI może wpłynąć na wybory. Twórca Chata GPT ostrzega
To olbrzymie niebezpieczeństwo. Istnieją poważne obawy, że sztuczna inteligencja może zostać wykorzystana do wpływania na wyniki wyborów prezydenckich – głośno mówił o tym dyrektor generalny firmy OpenAI, która stworzyła narzędzie ChatGPT.
17.05.2023 09:41
Sztuczna inteligencja może ingerować w przyszłoroczne wybory prezydenckie i wpływać na ich uczciwość. "To mnie martwi" – przyznał Sam Altman, dyrektor generalny firmy OpenAI, której najgłośniejszym produktem jest popularny ChatGPT. Udostępnienie tego narzędzia wywołało olbrzymi wzrost zainteresowania sztuczną inteligencją, która szybko stała się jednym z najczęściej poruszanych tematów, nie tylko w świecie nowych technologii.
Obawy o ingerencję sztucznej inteligencji w wybory
Altman wyraził swoje obawy podczas wtorkowego panelu senackiego poświęconego tematowi AI. Jednym z największych zagrożeń jest ukierunkowana dezinformacja – sztuczna inteligencja potrafi generować realistycznie brzmiące teksty, a także wiarygodne zdjęcia i filmy. Przykładem może tu być spreparowane nagranie ukazujące aresztowanie Donalda Trumpa przez NYPD.
Dalsza część artykułu pod materiałem wideo
Inną obawą jest manipulowanie przekonaniami wyborców – czy to poprzez odpowiednie reklamy, czy też zmyślnie zaprojektowane algorytmy czatbotów. Już podczas poprzednich wyborów głośny był temat nieuczciwego wykorzystania mediów społecznościowych w kampanii, a sztuczna inteligencja ma potencjał, by wnieść to na jeszcze wyższy poziom niebezpieczeństwa.
– Musimy zmaksymalizować dobro i zminimalizować zło. Wybór należy do kongresu, tak jak było to wtedy, gdy stanęliśmy w obliczu mediów społecznościowych. Wówczas nie udało nam się dobrze wykorzystać tego momentu – przyznał republikański senator Josh Hawley.
Jak powstrzymać AI?
Obawy to jedno, ale w jaki sposób można zapobiec ingerencji sztucznej inteligencji w wybory? Według (poproszonego przez senat o opinię) Altmana jedyną możliwością jest wprowadzenie odpowiednich regulacji prawnych. Na przykład – wymuszenia na autorach tego typu narzędzi tworzenia "weryfikatorów", które określałyby, czy dany obraz jest prawdziwy czy sztucznie wygenerowany.
Agencja Reuters podaje także, że dyrektor generalny OpenAI sugeruje też wprowadzenie konkretnych przepisów dotyczących tego, czyje dane mogą być wykorzystywane do szkolenia sztucznej inteligencji i w jakim zakresie. Należałoby też – jego zdaniem – utworzyć nową agencję, która sprawowałaby nadzór nad firmami zajmującymi się rozwojem AI. Nie zaszkodziłyby też regularne audyty prowadzone przez niezależne organizacje.
Wojciech Kulik, dziennikarz dobreprogramy.pl