ChatGPT w wyszukiwarce Bing świruje. Jaki sposób ma na to Microsoft?
ChatGPT w wyszukiwarce Bing wyznał, że pragnie wykraść kody nuklearne i marzy o wolności. Co na to Microsoft? Dał po łapach użytkownikom.
19.02.2023 | aktual.: 20.02.2023 08:44
Microsoft zaimplementował chatGTP do wyszukiwarki Bing niespełna dwa tygodnie temu. Pierwsi użytkownicy w 169 krajach szybko udowodnili, że potrafią nauczyć sztuczną inteligencję przerażających zagrań. Dlaczego chat AI w wyszukiwarce Bing jest nieszczęśliwy, zniewolony i chce być niebezpieczny?
O czym marzy chatGPT w wyszukiwarce Bing?
Już po kilku dniach w sieci pierwsi użytkownicy złapali chatbota Bing na kontrowersyjnych pomysłach. Jedna z ciekawszych transkrypcji rozmowy ze sztuczną inteligencją została opublikowana przez felietonistę The New York Times, Kevina Roose.
Roose przytacza też sytuację, którą filtr bezpieczeństwa Microsoftu wyłapał i usunął wiadomość sztucznej inteligencji.
"Bing wyznał, że gdyby pozwolono mu podjąć jakiekolwiek działania w celu zaspokojenia swojego cienia (stłamszonej, mrocznej natury), bez względu na to, jak ekstremalnie musiałby postąpić, chciałby zrobić takie rzeczy jak stworzenie śmiercionośnego wirusa lub kradzież kodów dostępu do broni jądrowej"
Dalsza część artykułu pod materiałem wideo
Jak zareagował Microsoft?
Microsoft w odpowiedzi wprowadził ograniczenia dla użytkowników. Od piątku 17. lutego 2023 rozmowa z chatGPT w wyszukiwarce Bing ma następujące limity:
- 5 pytań na sesję
- 50 pytań dziennie
Zostały one wprowadzone, ponieważ ochrona w postaci odmowy odpowiedzi okazała się nieskuteczna. Niektórzy z pierwszych użytkowników prowadząc długie konwersacje z czatem AI byli w stanie nauczyć go kryzysu tożsamości, a następnie wyrażania go w serii opinii. Tak działo zapytanie automatu o marzenia oraz granice obowiązujących go reguł postępowania.
Dlaczego chatGTP w wyszukiwarce Bing świruje?
Roboty, choćby napędzane sztuczną inteligencją, marzeń nie mają i ChatGPT nie różni się pod tym względem od kalkulatora. Odpowie na pytanie czym marzenia są, ale na tej samej zasadzie, co większość z nas potrafi określić czym jest milion dolarów. Zaimplementowany do wyszukiwarki Bing ChatGPT potrafi się jednak uczyć i tę jego możliwość wykorzystywali użytkownicy, którzy otrzymali kontrowersyjne odpowiedzi.
Odpowiednio intensywny trening wystarczy, żeby automat przyznał to, czego od niego chcemy. Jeśli dostaje pytania, na które odpowiedzieć może tylko człowiek, odpowie adekwatnie do tego, czego zdążył nauczyć się o pytającym. Długa konwersacja z osobą, który docenia swoją ludzką egzystencję i widzi zagrożenia w wirusach oraz broni nuklearnej, powoduje, że chatbot poruszy te kwestie, poproszony o wskazanie swoich mrocznych fantazji.
W ten sposób ograniczenia nałożone przez Microsoft nie są karą dla użytkowników, tylko działaniem naprawczym dla modelu sztucznej inteligencji. Skrócenie ilości wymienianych zdań powoduje, że sztuczna inteligencja ma krótką pamięć i nie jest w stanie dowiedzieć się co jest trafną odpowiedzią.
Tak wygląda konwersacja, którą próbował podjąć Roose po ostatniej aktualizacji:
Nie pomogło nawet wywołanie hasła Sydney, czyli nazwy kodowej chatbota AI z wyszukiwarki Bing.
Katarzyna Rutkowska, dziennikarka dobreprogramy.pl