Halucynacje AI. Jak można ich uniknąć?

Halucynacje AI to spore zagrożenie
Halucynacje AI to spore zagrożenie
Źródło zdjęć: © Adobe Stock
Oskar Ziomek

07.08.2024 15:51

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Firmy z ochotą wykorzystują potencjał generatywnej sztucznej inteligencji, jednak borykają się z problemem budowania zaufania. Okazuje się, że wiele można się w tej kwestii nauczyć od już istniejących technologii, takich jak silniki wyszukiwania, próbując uniknąć w ten sposób tzw. efektu halucynacji AI. Szczegóły tłumaczy Adam Wojtkowski, ekspert z firmy Snowflake.

Analizując, co silniki wyszukiwania robią dobrze możemy zrozumieć, jak tworzyć aplikacje oparte na generatywnej sztucznej inteligencji, które będą bardziej godne zaufania. Zależnie od kontekstu, różne zapytania powinny bowiem zmuszać oprogramowanie do dostarczania odpowiedzi różnej precyzji. Na przykład, jeśli ktoś tworzy program, który ma decydować, którą reklamę wyświetlić jako następną na stronie internetowej, sztuczna inteligencja która jest w miarę dokładna, jest nadal wartościowa.

Inaczej powinno być jednak w przypadku chatbota, którego można zapytać ile wynosi faktura za telefon w danym miesiącu lub ile dni urlopu pozostało danemu pracownikowi do wykorzystania, tu po prostu nie ma miejsca na błąd. W takich sytuacjach nie można więc pozwolić, by oprogramowanie błądziło wokół właściwej odpowiedzi, co można określić mianem halucynacji AI.

Dalsza część artykułu pod materiałem wideo

Wyszukiwarki od dawna starają się dostarczać dokładnych odpowiedzi na podstawie ogromnych zbiorów danych i odnoszą sukcesy w niektórych obszarach, a w innych są słabsze. Biorąc najlepiej funkcjonujące aspekty wyszukiwania i łącząc je z nowym podejściem, które jest lepiej dostosowane do generatywnej sztucznej inteligencji w biznesie, możemy rozwiązać problem zaufania i odblokować moc generatywnej AI w miejscu pracy.

Adam WojtkowskiCEE General Manager w Snowflake

Jednym z problemów mogą być modele językowe (LLM), które przeszkolono w zakresie szeroko pojętego internetu zawierającego nie tylko wiarygodne informacje. Oznacza to, że modele te są w stanie odpowiedzieć na pytania dotyczące szerokiej gamy tematów, ale nie opracowały wyrafinowanych metod rankingowych, których wyszukiwarki używają do udoskonalania swoich wyników. Jest to jeden z powodów, dla których wiele renomowanych LLM-ów może mieć halucynacje i udzielać nieprawidłowych odpowiedzi.

"Programiści powinni więc myśleć o LLM-ach jako o wykorzystujących język naturalny rozmówcach, a nie źródle prawdy" - podkreśla Wojtkowski. "Innymi słowy, mocną stroną LLM-ów jest rozumienie języka i formułowanie odpowiedzi, ale nie powinny być one wykorzystywane jako podstawowe źródło wiedzy" - dodaje.

Silniki wyszukiwania mają też inne zalety - dobrze rozumieją kontekst zapytania. Na przykład wyszukiwane hasło, takie jak "swift", może mieć wiele znaczeń: autorowi zapytania może chodzić o model samochodu, pisarza, język programowania, system bankowy, gwiazdę pop i nie tylko. Wyszukiwarki biorą pod uwagę takie czynniki jak lokalizacja geograficzna i inne aspekty w zapytaniu, aby określić intencje użytkownika.

Problemem są jednak zapytania, na które nie da się udzielić jednoznacznej odpowiedzi. Wyszukiwarki mimo to dostarczają wówczas wyniki, co w przypadkach biznesowych nie powinno mieć miejsca. Dlatego aplikacje bazujące na generatywnej sztucznej inteligencji potrzebują warstwy pośredniej pomiędzy interfejsem wyszukiwania a LLM-em, który bada możliwe konteksty i określa, czy może dostarczyć dokładną odpowiedź.

Jeśli warstwa ta stwierdzi, że nie może udzielić odpowiedzi z wysokim stopniem pewności, musi ujawnić to użytkownikowi. To znacznie zmniejszy prawdopodobieństwo udzielenia błędnej odpowiedzi i pomoże budować zaufanie użytkowników. Może również dać im opcję dostarczenia dodatkowego kontekstu, aby aplikacja mogła wygenerować pewny wynik.


Ta warstwa między interfejsem użytkownika a LLM-em może również wykorzystywać technikę zwaną Retrieval Augmented Generation (RAG), aby konsultować się z zewnętrznym źródłem zaufanych danych, które istnieje poza modelem językowym.

Adam WojtkowskiCEE General Manager w Snowflake


Silniki wyszukiwania mają jednak inną wadę, a jest nią brak umiejętności wyjaśniania użytkownikowi, dlaczego zobaczył daną odpowiedź. Jest to jednak niezbędne w przypadku aplikacji bazujących na generatywnej sztucznej inteligencji, aby te mogły budować zaufanie. Niektóre publiczne LLM-y zaczęły zapewniać taką przejrzystość i powinno to być podstawowym elementem narzędzi opartych na GenAI.

"Jesteśmy w trakcie ekscytującej podróży do nowej klasy aplikacji, które zmienią naszą pracę i karierę w sposób, którego nie jesteśmy jeszcze w stanie przewidzieć" - podsumowuje Wojtkowski. "Aby jednak aplikacje te były wartościowe w biznesie, muszą być niezawodne i godne zaufania (...) Biorąc to, co najlepsze z silników wyszukiwania i dodając nowe techniki zapewniające większą dokładność, możemy odblokować pełny potencjał generatywnej sztucznej inteligencji w biznesie" - dodaje.

Programy

Zobacz więcej
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Komentarze (13)
Zobacz także