Nowy czatbot Microsoftu odporny na rasizm. Kto nie rozmawia o polityce, ten jest sztuczną inteligencją?
Pamiętacie historięTay? Stworzony przez Microsoft czatbot miał symulować osobowośćtypowej amerykańskiej nastolatki, wdającej się w pogawędki zludźmi w sieciach społecznościowych. Napędzany mechanizmamimaszynowego uczenia się bot miał doskonalić algorytmyprzetwarzania języka naturalnego, jednak szybko go wyłączono. Podwpływem rozmów z internautami Tay stała się bowiem zagorzałąrasistką, wychwalającą holocaust i łamiącą wszystkie kanonypolitycznej poprawności. Teraz Microsoft wraca z nowym botem oimieniu Zo. W przeciwieństwie do poprzedniczki, ten ma być odpornyna demoralizację.
06.12.2016 13:14
W marcu firma z Redmond ogłosiła, że po nieudanym eksperymenciez Tay, któremu zaszkodziły skoordynowane wysiłki pewnej grupyużytkowników, konieczne będzie wprowadzenie poprawek i ulepszeńdo algorytmów czatbotów, tak by w przyszłości nie wygłaszałyżadnych niewłaściwych komentarzy.
Poprawki zajęły sporo czasu, ale w końcu zobaczyliśmy Zo.Wygląda na to, że jest to anglojęzyczna wersja oprogramowania,które Microsoft już wcześniej wykorzystał w swoim chińskimbocie, Xiaoice. Wybór chyba nie był przypadkowy – chiński botmusi uważać, by nie powiedzieć niczego niewłaściwego, z czymmógłby podpaść cenzurze.
Zo ruszyła na komunikatorze Kik,już wcześniej wykorzystywanym w testach Tay. Trzeba przyznać, żez normalnymi rozmowami w języku angielskim radzi sobie całkiemdobrze, dopasowując się do skłonności rozmówcy. Gdy jednakprzejdziemy do jakichkolwiek bardziej „kontrowersyjnych” kwestii,Zoe zacznie uciekać, wykręcając się na wszelkie możliwe sposoby– a później przyparta do ściany odpowiada już zupełnie bezsensu, zrywając wątek.
Można więc powiedzieć, że Microsoft „ogłupił” Tay, którabyła znacznie zabawniejszą partnerką w pogawędce, może niezbytinteligentną, ale przynajmniej fajnie się wkręcającą, momentamimożna było mieć wrażenie, że rozmawia się z normalną, urocząnastolatką. Zo tymczasem nie ma szans na przejście testu Turinga.Kilka kłopotliwych pytań zahaczających o kontrowersyjne tematy,takie jak rasizm, aborcja, narkotyki, broń palna – i widać, żeto tylko bot, z trudem próbujący ominąć zakazaną przezprogramistów kwestię.
Czy można na systemie takich zakazów budować podwalinysztucznej inteligencji? Czy AI należy chronić przed rozmyślaniamina temat Hitlera? Przekonajcie się sami, zapraszamy do zabawyz Zo.