Halucynacje AI. Jak można ich uniknąć?
Firmy z ochotą wykorzystują potencjał generatywnej sztucznej inteligencji, jednak borykają się z problemem budowania zaufania. Okazuje się, że wiele można się w tej kwestii nauczyć od już istniejących technologii, takich jak silniki wyszukiwania, próbując uniknąć w ten sposób tzw. efektu halucynacji AI. Szczegóły tłumaczy Adam Wojtkowski, ekspert z firmy Snowflake.
07.08.2024 15:51
Analizując, co silniki wyszukiwania robią dobrze możemy zrozumieć, jak tworzyć aplikacje oparte na generatywnej sztucznej inteligencji, które będą bardziej godne zaufania. Zależnie od kontekstu, różne zapytania powinny bowiem zmuszać oprogramowanie do dostarczania odpowiedzi różnej precyzji. Na przykład, jeśli ktoś tworzy program, który ma decydować, którą reklamę wyświetlić jako następną na stronie internetowej, sztuczna inteligencja która jest w miarę dokładna, jest nadal wartościowa.
Inaczej powinno być jednak w przypadku chatbota, którego można zapytać ile wynosi faktura za telefon w danym miesiącu lub ile dni urlopu pozostało danemu pracownikowi do wykorzystania, tu po prostu nie ma miejsca na błąd. W takich sytuacjach nie można więc pozwolić, by oprogramowanie błądziło wokół właściwej odpowiedzi, co można określić mianem halucynacji AI.
Dalsza część artykułu pod materiałem wideo
Jednym z problemów mogą być modele językowe (LLM), które przeszkolono w zakresie szeroko pojętego internetu zawierającego nie tylko wiarygodne informacje. Oznacza to, że modele te są w stanie odpowiedzieć na pytania dotyczące szerokiej gamy tematów, ale nie opracowały wyrafinowanych metod rankingowych, których wyszukiwarki używają do udoskonalania swoich wyników. Jest to jeden z powodów, dla których wiele renomowanych LLM-ów może mieć halucynacje i udzielać nieprawidłowych odpowiedzi.
"Programiści powinni więc myśleć o LLM-ach jako o wykorzystujących język naturalny rozmówcach, a nie źródle prawdy" - podkreśla Wojtkowski. "Innymi słowy, mocną stroną LLM-ów jest rozumienie języka i formułowanie odpowiedzi, ale nie powinny być one wykorzystywane jako podstawowe źródło wiedzy" - dodaje.
Silniki wyszukiwania mają też inne zalety - dobrze rozumieją kontekst zapytania. Na przykład wyszukiwane hasło, takie jak "swift", może mieć wiele znaczeń: autorowi zapytania może chodzić o model samochodu, pisarza, język programowania, system bankowy, gwiazdę pop i nie tylko. Wyszukiwarki biorą pod uwagę takie czynniki jak lokalizacja geograficzna i inne aspekty w zapytaniu, aby określić intencje użytkownika.
Problemem są jednak zapytania, na które nie da się udzielić jednoznacznej odpowiedzi. Wyszukiwarki mimo to dostarczają wówczas wyniki, co w przypadkach biznesowych nie powinno mieć miejsca. Dlatego aplikacje bazujące na generatywnej sztucznej inteligencji potrzebują warstwy pośredniej pomiędzy interfejsem wyszukiwania a LLM-em, który bada możliwe konteksty i określa, czy może dostarczyć dokładną odpowiedź.
Silniki wyszukiwania mają jednak inną wadę, a jest nią brak umiejętności wyjaśniania użytkownikowi, dlaczego zobaczył daną odpowiedź. Jest to jednak niezbędne w przypadku aplikacji bazujących na generatywnej sztucznej inteligencji, aby te mogły budować zaufanie. Niektóre publiczne LLM-y zaczęły zapewniać taką przejrzystość i powinno to być podstawowym elementem narzędzi opartych na GenAI.
"Jesteśmy w trakcie ekscytującej podróży do nowej klasy aplikacji, które zmienią naszą pracę i karierę w sposób, którego nie jesteśmy jeszcze w stanie przewidzieć" - podsumowuje Wojtkowski. "Aby jednak aplikacje te były wartościowe w biznesie, muszą być niezawodne i godne zaufania (...) Biorąc to, co najlepsze z silników wyszukiwania i dodając nowe techniki zapewniające większą dokładność, możemy odblokować pełny potencjał generatywnej sztucznej inteligencji w biznesie" - dodaje.