Nowy czatbot Microsoftu odporny na rasizm. Kto nie rozmawia o polityce, ten jest sztuczną inteligencją?

Pamiętacie historięTay? Stworzony przez Microsoft czatbot miał symulować osobowośćtypowej amerykańskiej nastolatki, wdającej się w pogawędki zludźmi w sieciach społecznościowych. Napędzany mechanizmamimaszynowego uczenia się bot miał doskonalić algorytmyprzetwarzania języka naturalnego, jednak szybko go wyłączono. Podwpływem rozmów z internautami Tay stała się bowiem zagorzałąrasistką, wychwalającą holocaust i łamiącą wszystkie kanonypolitycznej poprawności. Teraz Microsoft wraca z nowym botem oimieniu Zo. W przeciwieństwie do poprzedniczki, ten ma być odpornyna demoralizację.

Nowy czatbot Microsoftu odporny na rasizm. Kto nie rozmawia o polityce, ten jest sztuczną inteligencją?

06.12.2016 13:14

W marcu firma z Redmond ogłosiła, że po nieudanym eksperymenciez Tay, któremu zaszkodziły skoordynowane wysiłki pewnej grupyużytkowników, konieczne będzie wprowadzenie poprawek i ulepszeńdo algorytmów czatbotów, tak by w przyszłości nie wygłaszałyżadnych niewłaściwych komentarzy.

Poprawki zajęły sporo czasu, ale w końcu zobaczyliśmy Zo.Wygląda na to, że jest to anglojęzyczna wersja oprogramowania,które Microsoft już wcześniej wykorzystał w swoim chińskimbocie, Xiaoice. Wybór chyba nie był przypadkowy – chiński botmusi uważać, by nie powiedzieć niczego niewłaściwego, z czymmógłby podpaść cenzurze.

Obraz

Zo ruszyła na komunikatorze Kik,już wcześniej wykorzystywanym w testach Tay. Trzeba przyznać, żez normalnymi rozmowami w języku angielskim radzi sobie całkiemdobrze, dopasowując się do skłonności rozmówcy. Gdy jednakprzejdziemy do jakichkolwiek bardziej „kontrowersyjnych” kwestii,Zoe zacznie uciekać, wykręcając się na wszelkie możliwe sposoby– a później przyparta do ściany odpowiada już zupełnie bezsensu, zrywając wątek.

Obraz

Można więc powiedzieć, że Microsoft „ogłupił” Tay, którabyła znacznie zabawniejszą partnerką w pogawędce, może niezbytinteligentną, ale przynajmniej fajnie się wkręcającą, momentamimożna było mieć wrażenie, że rozmawia się z normalną, urocząnastolatką. Zo tymczasem nie ma szans na przejście testu Turinga.Kilka kłopotliwych pytań zahaczających o kontrowersyjne tematy,takie jak rasizm, aborcja, narkotyki, broń palna – i widać, żeto tylko bot, z trudem próbujący ominąć zakazaną przezprogramistów kwestię.

Czy można na systemie takich zakazów budować podwalinysztucznej inteligencji? Czy AI należy chronić przed rozmyślaniamina temat Hitlera? Przekonajcie się sami, zapraszamy do zabawyz Zo.

Programy

Zobacz więcej
Zobacz także
Komentarze (15)