Uregulują sztuczną inteligencję. Unia Europejska podjęła decyzję
Sztuczna inteligencja musi zostać uregulowana - tak twierdzi Unia Europejska. Z tego względu zatwierdzone zostało porozumienie dotyczące przepisów w sprawie AI. Mają one pozwolić na odpowiedni rozwój tej technologii, z zachowaniem bezpieczeństwa.
13.02.2024 13:19
Komisje rynku wewnętrznego i wolności obywatelskich Parlamentu Europejskiego zatwierdziły we wtorek 13 lutego 2024 r. porozumienie dotyczące nowych przepisów Unii Europejskiej na temat sztucznej inteligencji. Porozumienie to ma na celu zapewnienie, że systemy sztucznej inteligencji stosowane w UE są bezpieczne i zgodne z podstawowymi prawami i wartościami, które są fundamentem Unii.
Nowe regulacje mają również na celu stworzenie sprzyjającego klimatu dla inwestycji w sektor sztucznej inteligencji, co jest kluczowe dla dalszego rozwoju i innowacji w tej dziedzinie.
W głosowaniu nad tym ważnym dokumentem 71 europosłów opowiedziało się za jego przyjęciem, ośmiu było przeciwnych, a siedmiu wstrzymało się od głosu. Tekst ma zostać formalnie przyjęty na sesji plenarnej Parlamentu w lutym, ale musi jeszcze otrzymać ostateczne zatwierdzenie od Rady UE. Przewiduje się, że nowe przepisy zaczną obowiązywać 24 miesiące po ich wejściu w życie.
Dalsza część artykułu pod materiałem wideo
Porozumienie w sprawie sztucznej inteligencji
Pod koniec ubiegłego roku, po trzech dniach intensywnych negocjacji między państwami członkowskimi a Parlamentem Europejskim, Unia Europejska osiągnęła bezprecedensowe na poziomie światowym porozumienie dotyczące regulacji rozwoju sztucznej inteligencji.
Początek tych negocjacji zainicjował system ChatGPT, generator tekstu stworzony przez kalifornijską firmę OpenAI, który pojawił się na rynku w 2022 roku. Ten system ujawnił ogromny potencjał sztucznej inteligencji, ale jednocześnie zwrócił uwagę na pewne ryzyka, takie jak możliwość dystrybucji fałszywych zdjęć w sieciach społecznościowych, co stanowi zagrożenie dla manipulacji opinią publiczną.
Ograniczenia AI
Kompromis osiągnięty między Parlamentem Europejskim a Radą UE uwzględnia dwa kluczowe elementy - rozwój sztucznej inteligencji oraz ograniczenia mające na celu zapobieganie nadużywaniu AI. Twórcy systemów AI będą musieli zadbać o to, aby tworzone przez nie dźwięki, obrazy i teksty były wyraźnie oznaczane jako sztuczne.
Kluczowym elementem projektu jest lista zasad, które będą obowiązywać wyłącznie systemy uznane za niosące "wysokie ryzyko". Są to głównie systemy stosowane w obszarach wrażliwych, takich jak infrastruktura krytyczna, edukacja, zasoby ludzkie, egzekwowanie prawa itp. Te systemy będą musiały spełniać szereg obowiązków, takich jak zapewnienie kontroli człowieka nad maszyną, sporządzenie dokumentacji technicznej czy wdrożenie systemu zarządzania ryzykiem.
Koniec z udawaniem człowieka
Nowe przepisy przewidują również wprowadzenie specjalnego nadzoru nad systemami sztucznej inteligencji, które wchodzą w interakcję z człowiekiem. To oznacza, że użytkownicy będą musieli być informowani, że mają do czynienia z maszyną.
Dokument przewiduje również rzadkie stosowanie zakazów, które mają dotyczyć głównie zastosowań sprzecznych z europejskimi wartościami. Jako przykład podane są Chiny, gdzie istnieją systemy oceny obywateli, masowego nadzoru czy zdalnej biometrycznej identyfikacji osób w miejscach publicznych. W tej ostatniej kwestii państwa UE uzyskały jednak pewną swobodę w przypadku niektórych działań związanych z egzekwowaniem prawa, takich jak walka z terroryzmem.
Porozumienie przewiduje również, że prawodawstwo europejskie zostanie wyposażone w środki nadzoru i sankcje. Utworzone zostanie także europejskie biuro ds. sztucznej inteligencji w Komisji Europejskiej. Za najpoważniejsze wykroczenia będą nakładane kary pieniężne w wysokości do 7 proc. obrotu, a dolna granica wynosić będzie 35 mln euro.