Google zakazuje pracownikom korzystania z własnego AI
Sztuczna inteligencja przyspiesza wiele procesów, ale najwidoczniej nadal nie jest uznawana za narzędzie w pełni bezpieczne. Google zakazuje pracownikom korzystania z chatbotów opartych o AI. Nawet z opracowanego przez samą firmę Barda.
ChatGPT, Czat Bing czy Google Bard to narzędzia, które mają za zadanie uproszczenie określonych czynności w pracy. Twórcy chatbotów chwalą się ich możliwościami i zachęcają do korzystania z nich w różnych sytuacjach. Chyba że chodzi o pracowników firmy, która stworzyła rzeczony model.
Reuters donosi, że Alphabet, czyli właściciel Google, ostrzega pracowników przed korzystaniem z chatbotów w trakcie pracy. Dotyczy to nie tylko rozwiązań firm konkurencyjnych, takich jak ChatGPT czy Czat Bing, ale także Google Bard, czyli narzędzia własnego firmy. Wynika to ze względów bezpieczeństwa.
Dalsza część artykułu pod materiałem wideo
Alphabet zalecił pracownikom, aby nie wprowadzali żadnych poufnych materiałów do chatbotów opartych o sztuczną inteligencję. Są ku temu dwa powody. Pierwszy dotyczy recenzentów pracy danego modelu, którzy mogą przeglądać wprowadzone do nich dane. Dodatkowe zagrożenie wynika z faktu, że AI może odtworzyć wprowadzone dane, co generuje ryzyko wycieku.
Zalecono też, aby programiści nie korzystali z kodu generowanego przez chatboty. Zdaniem szefostwa firmy kod generowany przez oprogramowanie może zawierać błędy, choć przyznano, że technologia może ułatwiać prace przy pisaniu kodu.
Google zakazuje korzystania z AI
Decyzja Google jest o tyle dziwna, że dotyczy nie tylko korzystania z zewnętrznego oprogramowania, ale też z Google Bard. Jeśli zaś chodzi o sam zakaz wprowadzania wrażliwych danych do chatbotów, ich krótka historia uczy, że to dobra droga. Pracownicy Samsunga przekonali się o tym, że łatwo przekroczyć granicę bezpiecznego korzystania ze sztucznej inteligencji.
Niedawno korzystania z ChatGPT zakazał inny gigant technologiczny - Apple. Podobnie jak w przypadku Google, Apple boi się o bezpieczeństwo danych. Pozyskiwanie danych przez sztuczną inteligencję mogłoby tworzyć ryzyko ich wycieku.
Karol Kołtowski, dziennikarz dobreprogramy.pl