Musk i eksperci apelują do świata. Czy AI jest bezpieczne?
Elon Musk wraz z panelem ekspertów w dziedzinie sztucznej inteligencji i niektórymi dyrektorami branży technologicznej wystosowali list otwarty. Nawołują w nim do zaprzestania prac nad AI potężniejszą niż GPT-4 na co najmniej pół roku. Dlaczego?
Na początku marca OpenAI zaprezentowało czwartą wersję swojego modelu językowego, który wprawił świat w osłupienie. Wraz z końcem miesiąca, Elon Musk razem z grupą ekspertów i osobistości ze świata nowych technologii apeluje o spowolnienie kolejnych prac nad algorytmami sztucznej inteligencji. List otwarty napisany pod egidą Future of Life Institute, która jest organizacją non-profit wspieraną przez Muska, nawołuje o przynajmniej półroczną przerwę w rozwijaniu technologii AI. Ten czas ma służyć wprowadzeniu odpowiednich regulacji, pozwalającyh nam mieć pewność, że technologia ta jest bezpieczna.
Ostrożność, czy strach przed AI?
Elon Musk już wcześniej wypowiadał się z ostrożnością na temat sztucznej inteligencji, a na początku marca przyznał, że szybki rozwój AI go stresuje. Future of Life Institute, który zajmuje się badaniami dotyczącymi niebezpieczeństw i niewłaściwego wykorzystania nowych technologii, w 2015 roku otrzymał od niego 10 milionów dolarów na pracę nad bezpieczeństwem sztucznej inteligencji. Jego śladem poszły potem takie podmioty jak londyńska grupa Founders Pledge i Silicon Valley Community Foundation. Pierwsza to inicjatywa charytatywna wspierana przez dużych przedsiębiorców, a druga jest fundacją społeczną działającą na terenie Doliny Krzemowej.
Dalsza część artykułu pod materiałem wideo
Mimo to zaangażowanie Muska w ograniczanie prac nad AI zostało skomentowane jako obłudne, gdyż aktywnie działał on, by umożliwić Tesli na wykorzystywanie sztucznej inteligencji jako autopilota w swoich elektrycznych samochodach. W efekcie firma musiała wycofać 362 tys. pojazdów celem aktualizacji oprogramowania. Opinię te wyraził profesor prawa cyfrowego i informacyjnego na Uniwersytecie Cornell - James Grimmelmann. Stwierdził on też, że zaproponowana w liście otwartym przerwa jest dobrym pomysłem, jednak nie została odpowiednio przedstawiona w dokumencie, który nie traktuje poważnie problemów regulacyjnych.
List podpisali prawdziwi giganci
Poza Elonem Muskiem, który jest dyrektorem generalnym Tesli, Twittera oraz firmy kosmicznej SpaceX, wśród popierających list można znaleźć kilka dużych i znaczących nazwisk. Najbardziej znanym, oprócz Muska sygnatariuszem jest współzałożyciel firmy Apple, Steve Wozniak. Poza nim możemy zobaczyć też wysokiej rangi uczonych uniwersyteckich, jak zdobywca nagrody Turinga - Yoshua Bengio (nazywany "ojcem chrzestnym AI") oraz Rachel Bronson, będąca prezesem Biuletynu Naukowców Atomowych, zarządzającego wskazaniami Zegara Zagłady (którego wskazówki niebezpiecznie zbliżają się do północy).
Wśród postulatów zawartych w liście jest półroczne zawieszenie wszelkich badań i szkolenia sieci neuronowych przez laboratoria AI na okres pół roku. W tym czasie ludzie mogą zająć się pracą na istniejących już modelach sztucznej inteligencji, z których najbardziej zaawansowanym jest obecnie GPT-4, by upewnić się, że korzystanie z nich jest bezpieczne. Konieczne jest też ujednolicenie regulacji dotyczących tej technologii, aby przygotować ludzkość na przyszłość, w której AI będzie już stale obecna.
Giganci AI na razie milczą
Open AI nie wydało na razie żadnego oświadczenia w tej sprawie listu, wśród sygnatariuszy brakuje też przedstawiciela firmy. Nie znajdziemy też podpisów kierownictwa firm Microsoft i Alphabet (właściciela Google), choć swoje poparcie okazali badacze z należącego do Alphabet Deep Mind. Milczenie to zwraca uwagę niektórych sygnatariuszy listu.
Powiedział Garry Marcus, profesor z New York University, który jest jedną z osób, które podpisały dokument. Wielki wyścig AI, w którym biorą udział przede wszystkim giganci technologiczni posiadający wystarczające środki, rozpędza się coraz bardziej, odkąd sygnał do startu dało OpenAI wraz ze swoim Chatem-GPT.
Mateusz Tomiczek, dziennikarz dobreprogramy.pl