Ogromne zagrożenie dla cywilizacji? Elon Musk mówi wprost
Elon Musk nie pozostawia wątpliwości – jego zdaniem jednym z największych zagrożeń dla cywilizacji jest sztuczna inteligencja. Zaskoczeniem może być fakt, że słowa te padły w kontekście ChatGPT, którego miliarder jest współzałożycielem.
To kolejny raz, kiedy założyciel Tesli produkującej elektryczne (i docelowo w pełni autonomiczne) samochody zwraca uwagę na to, jak dużym zagrożeniem dla cywilizacji jest sztuczna inteligencja. Wcześniej miliarder porównywał nową technologię do głowic nuklearnych i uznał, że nawet one są bezpieczniejsze od SI.
Musk ostrzega przed swoim własnym przedsiębiorstwem
Wizjoner oraz właściciel wielu organizacji związanych z nauką i technologią znów ostrzega przed jednym z największych zagrożeń dla ludzkości. Mowa o SI, która coraz większą popularność zyskała w ostatnim czasie dzięki ChatGPT – botowi, za którego stworzenie odpowiada OpenAI współzarządzane przez Elona Muska. Jak wynika z wypowiedzi mężczyzny w ramach Szczytu Rządu Światowego w Dubaju, cytowanej przez CNBC, "ChatGPT pokazał ludziom, jak bardzo zaawansowana jest dzisiejsza sztuczna inteligencja". Z tymi słowami trudno się nie zgodzić, szczególnie biorąc pod uwagę osiągnięcia inteligentnych chatbotów, spośród których ogromne wrażenie robi zdany przez ChatGPT test na lekarza.
Dalsza część artykułu pod materiałem wideo
Należy uregulować normy bezpieczeństwa dotyczące SI
Jako przykład, Musk podaje przede wszystkim samochody i samoloty. Te muszą spełniać określone normy bezpieczeństwa i zastosowanie w ich przypadku sztucznej inteligencji jest często ograniczone przepisami wyraźnie stawiającymi granice określające, co tak naprawdę komputer może zrobić za użytkownika, a gdzie powinien przekazać nad sobą kontrolę.
Poza tymi konkretnymi branżami, sztuczna inteligencja nie jest w żaden sposób regulowana prawnie. Choć Musk zdaje sobie sprawę, że dodatkowe przepisy "mogą spowolnić rozwój", to przyniosą też wymierne korzyści. Miliarder po raz kolejny zaznacza swoje stanowisko dotyczące tej technologii – choć nie w tak brutalny sposób, jak w 2018 r., kiedy to ostrzegał, że "sztuczna inteligencja jest znacznie bardziej niebezpieczna niż bomby atomowe", z kolei "brak regulacji prawnych to istne szaleństwo".
Norbert Garbarek, dziennikarz dobreprogramy.pl