Asystent Google przeszedł Test Turinga: w rozmowie nie odróżnisz go od człowieka
Za nami prezentacje najważniejszych nowości, o których Google chciało opowiedzieć deweloperom podczas tegorocznej konferencji I/O. Wśród licznych premier nowych funkcji, wiele czasu poświęcono obsłudze głosowej i nowym możliwościom Asystenta. Warto podsumować, na jakie zmiany wraz z premierą Androida P można już wkrótce liczyć oraz zwrócić uwagę na ile będą one przełomowe.
W Sieci nie brakuje dyskusji wokół nowych możliwości sztucznej inteligencji, którą wykorzystywać będzie odświeżony Asystent. Oprogramowanie zdolne będzie rozumieć płynną mowę użytkownika, który nie będzie już musiał pięknie i wyraźnie wypowiadać z góry ustalonych poleceń. Rozpoznawany będzie kontekst i wiele niuansów, aby umożliwić w ten sposób głosową obsługę – nie tylko smartfonów, ale również SmartTV, na przykład za pośrednictwem stworzonego specjalnie na tę okazję soundbara JBL.
Podczas prezentacji bez dwóch zdań najbardziej imponujący był jednak pokaz możliwości funkcji Android Duplex. To rozwiązanie, które choć pozostaje jeszcze w fazie rozwoju, może zmienić sposób prowadzenia rozmów w przyszłości. Mowa o wykorzystywaniu Asystenta Google do przeprowadzania rozmów telefonicznych zgodnie z ustalonymi wcześniej (naturalnie głosowo) zasadami.
Mowa o sytuacji, w której użytkownik będzie mógł poprosić Asystenta na przykład o rezerwację stolika w restauracji na weekend między 15.00 a 18.00. Asystent przyjmie prośbę do wiadomości, a następnie sam zadzwoni do wybranej restauracji by dokonać rezerwacji. Całość odbywać się będzie w tle i bez wiedzy użytkownika, a po rozmowie zakończonej sukcesem, właściwe wydarzenie pojawi się w kalendarzu na smartfonie.
Co w tym wszystkim najistotniejsze, wypowiadane przez Asystenta Google zdania i reakcje będą do złudzenia przypominać żywego rozmówcę. Do tego stopnia, że prawdziwy człowiek po drugiej stronie telefonu będzie miał trudność (nie uda mu się to wcale?), by automat rozpoznać. Podczas prezentacji nie zabrakło dwóch przykładów takich rozmów. Pierwsza dotyczyła umówienia wizyty u fryzjera, druga – właśnie rezerwacji stolika w restauracji.
Google's AI Assistant Can Now Make Real Phone Calls
Warto obejrzeć powyższy film, by zdać sobie sprawę z jak dużym podobieństwem do mowy naturalnej mamy tutaj do czynienia. Ten fragment prezentacji podczas Google I/O w Sieci opisywany jest tylko na jeden sposób: Asystent Google przeszedł Test Turinga. Dla przypomnienia i w skrócie, o jego zaliczeniu można mówić wtedy, gdy oprogramowanie (czy też maszyna) jest w stanie posługiwać się językiem naturalnym w taki sposób, by ludzki rozmówca nie był w stanie odróżnić jej w rozmowie od prawdziwego człowieka.
Krótkie wyjaśnienie dla osób nieznających języka angielskiego: na powyższym filmie zdania wypowiadane przez syntezowany głos Asystenta Google zaznaczane są na ekranie z lewej strony, zaś z prawej pojawia się transkrypcja ludzkiego rozmówcy, z którym Asystent prowadzi dialog. W nagraniu warto szczególnie zwrócić uwagę na imitowane przez sztuczną inteligencję charakterystyczne dla ludzkiego rozmówcy pauzy i wstawki mm-hmm, które sprawiają, iż rozmowa staje się bardziej wiarygodna, a żywy człowiek po drugiej stronie telefonu nie przypuszcza nawet, że rozmawia z syntezatorem.
Do tego dochodzi obsługa sześciu nowych głosów (w tym znanego muzyka Johna Legenda) i wkrótce o Asystencie Google rzeczywiście będzie można mówić jak o przydatnym na co dzień głosowym pomocniku, z którym nie trzeba się przedrzeźniać, by wreszcie zrozumiał wypowiadane do niego polecenie. Wszystko to wygląda bardzo ciekawe. Być może już za kilka lat syntezowany „John Legend” będzie dzwonić do „Johna Legenda” po drugiej stronie, by umówić użytkownika u dentysty, a cała ta piękna rozmowa dwóch sztucznych inteligencji zakończy się automatycznie dodanymi wydarzeniami do kalendarzy użytkownika z bólem zęba oraz lekarza.