Musk i eksperci apelują do świata. Czy AI jest bezpieczne?

Elon Musk wraz z panelem ekspertów w dziedzinie sztucznej inteligencji i niektórymi dyrektorami branży technologicznej wystosowali list otwarty. Nawołują w nim do zaprzestania prac nad AI potężniejszą niż GPT-4 na co najmniej pół roku. Dlaczego?

Elon Musk i dziennikarze
Elon Musk i dziennikarze
Źródło zdjęć: © New York Magazine
Mateusz Tomiczek

30.03.2023 | aktual.: 30.03.2023 12:07

Na początku marca OpenAI zaprezentowało czwartą wersję swojego modelu językowego, który wprawił świat w osłupienie. Wraz z końcem miesiąca, Elon Musk razem z grupą ekspertów i osobistości ze świata nowych technologii apeluje o spowolnienie kolejnych prac nad algorytmami sztucznej inteligencji. List otwarty napisany pod egidą Future of Life Institute, która jest organizacją non-profit wspieraną przez Muska, nawołuje o przynajmniej półroczną przerwę w rozwijaniu technologii AI. Ten czas ma służyć wprowadzeniu odpowiednich regulacji, pozwalającyh nam mieć pewność, że technologia ta jest bezpieczna.

Ostrożność, czy strach przed AI?

Elon Musk już wcześniej wypowiadał się z ostrożnością na temat sztucznej inteligencji, a na początku marca przyznał, że szybki rozwój AI go stresuje. Future of Life Institute, który zajmuje się badaniami dotyczącymi niebezpieczeństw i niewłaściwego wykorzystania nowych technologii, w 2015 roku otrzymał od niego 10 milionów dolarów na pracę nad bezpieczeństwem sztucznej inteligencji. Jego śladem poszły potem takie podmioty jak londyńska grupa Founders PledgeSilicon Valley Community Foundation. Pierwsza to inicjatywa charytatywna wspierana przez dużych przedsiębiorców, a druga jest fundacją społeczną działającą na terenie Doliny Krzemowej.

Dalsza część artykułu pod materiałem wideo

Mimo to zaangażowanie Muska w ograniczanie prac nad AI zostało skomentowane jako obłudne, gdyż aktywnie działał on, by umożliwić Tesli na wykorzystywanie sztucznej inteligencji jako autopilota w swoich elektrycznych samochodach. W efekcie firma musiała wycofać 362 tys. pojazdów celem aktualizacji oprogramowania. Opinię te wyraził profesor prawa cyfrowego i informacyjnego na Uniwersytecie Cornell - James Grimmelmann. Stwierdził on też, że zaproponowana w liście otwartym przerwa jest dobrym pomysłem, jednak nie została odpowiednio przedstawiona w dokumencie, który nie traktuje poważnie problemów regulacyjnych.

List podpisali prawdziwi giganci

Poza Elonem Muskiem, który jest dyrektorem generalnym Tesli, Twittera oraz firmy kosmicznej SpaceX, wśród popierających list można znaleźć kilka dużych i znaczących nazwisk. Najbardziej znanym, oprócz Muska sygnatariuszem jest współzałożyciel firmy Apple, Steve Wozniak. Poza nim możemy zobaczyć też wysokiej rangi uczonych uniwersyteckich, jak zdobywca nagrody Turinga - Yoshua Bengio (nazywany "ojcem chrzestnym AI") oraz Rachel Bronson, będąca prezesem Biuletynu Naukowców Atomowych, zarządzającego wskazaniami Zegara Zagłady (którego wskazówki niebezpiecznie zbliżają się do północy).

Wśród postulatów zawartych w liście jest półroczne zawieszenie wszelkich badań i szkolenia sieci neuronowych przez laboratoria AI na okres pół roku. W tym czasie ludzie mogą zająć się pracą na istniejących już modelach sztucznej inteligencji, z których najbardziej zaawansowanym jest obecnie GPT-4, by upewnić się, że korzystanie z nich jest bezpieczne. Konieczne jest też ujednolicenie regulacji dotyczących tej technologii, aby przygotować ludzkość na przyszłość, w której AI będzie już stale obecna.

Giganci AI na razie milczą

Open AI nie wydało na razie żadnego oświadczenia w tej sprawie listu, wśród sygnatariuszy brakuje też przedstawiciela firmy. Nie znajdziemy też podpisów kierownictwa firm Microsoft i Alphabet (właściciela Google), choć swoje poparcie okazali badacze z należącego do Alphabet Deep Mind. Milczenie to zwraca uwagę niektórych sygnatariuszy listu.

List nie jest doskonały, ale porusza ważne zagadnienie: musimy zwolnić, dopóki lepiej nie zrozumiemy konsekwencji. (...) Wielcy gracze coraz bardziej ukrywają to, co robią, co utrudnia społeczeństwu obronę przed wszelkimi szkodliwymi następstwami, jakie mogą z tego wyniknąć.

Powiedział Garry Marcus, profesor z New York University, który jest jedną z osób, które podpisały dokument. Wielki wyścig AI, w którym biorą udział przede wszystkim giganci technologiczni posiadający wystarczające środki, rozpędza się coraz bardziej, odkąd sygnał do startu dało OpenAI wraz ze swoim Chatem-GPT.

Mateusz Tomiczek, dziennikarz dobreprogramy.pl

Programy

Zobacz więcej
oprogramowaniesztuczna inteligencjaelon musk
Wybrane dla Ciebie
Komentarze (53)