Sztuczna inteligencja znów lepsza od ludzi. Program Google arcymistrzem StarCraft II
Sztuczna inteligencja znów okazała się lepsza niż żywy człowiek. Model rozwijany przez Google w jednostce DeepMind coraz lepiej radzi sobie ze strategią w czasie rzeczywistym. SI AlphaStar jest już lepsza w StarCraft II niż 99,8 proc. graczy z krwi i kości. To kolejny ważny punkt na drodze rozwoju sztucznej inteligencji.
Sztuczna Inteligencja AlphaStar może wykonać tylko 22 unikatowe akcje co 5 sekund. Szybkość „klikania” przez program została sprowadzona do ludzkiego poziomu, by można było skupić się na porównywaniu strategii.
Pierwszy komputerowy arcymistrz StarCrafta II
Sztuczna inteligencja DeepMind jest lepsza od ludzkich graczy pod jeszcze jednym względem. W serii StarCraft dostępne są 3 rasy o nieco różniących się jednostkach i umiejętnościach. Ludzie mają w zwyczaju wybierać swoją ulubioną rasę i używać jej w turniejach. Właśnie dlatego Nerchio bywa nazywany „polskim Zergiem” – zwykle gra rasą Zergów.
Sztuczna inteligencja nie ma takich preferencji. Program AlphaStar został wytrenowany do używania wszystkich ras, co dodatkowo podniosło poprzeczkę przed członkami Google DeepMind. AlphaStar ma refleks profesjonalnego gracza, ale zupełnie wyjątkowy styl gry. Nic dziwnego – początkowo program uczył się, grając sam ze sobą, co prowadziło do wyjątkowych sytuacji. Ponieważ mówimy o programach komputerowych, możliwa była nauka w przyspieszonym tempie. AlphaStar rozegrał setki lat turniejów w ciągu kilku miesięcy.
Możliwe, że sztuczna inteligencja znalazła zagrywki, do których rzadko kiedy docierają nawet profesjonalni gracze. Latem AlphaStar grał z ludźmi, w tym z zawodowcami, którzy wcześniej go pokonywali (w styczniu Grzegorz „MaNa” Komincz pokonał program). Z drugiej strony, AlphaStar potrzebuje sporo czasu i energii, by nauczyć się grać na nowej mapie. Człowiek poradzi sobie z tym o wiele szybciej.
AlphaStar to pierwszy w historii program komputerowy, który osiągnął poziom arcymistrza w grze StarCraft II. Sztuczna inteligencja mierzyła się z graczami online i uzyskała najwyższy tytuł w lidze. Program pokona 99,8 proc. graczy, co jest ogromnym sukcesem, biorąc pod uwagę złożoność StarCrafta II. Gra Blizzarda ma o rząd wielkości więcej możliwych ruchów niż Go, a przy tym gracze nie mają pełni informacji o pozycji przeciwnika. Na świecie jest dosłownie kilka osób zdolnych pokonać AlphaStar w StarCrafta II.
Co to znaczy dla ludzkości?
Po co naukowcy marnują czas, energię i miliony dolarów na tworzenie trudnego bota do StarCrafta II? Chodzi o przekonanie się, czy sztuczna inteligencja „ogólnego zastosowania” poradzi sobie w dynamicznie zmieniających się warunkach i będzie w stanie podejmować słuszne decyzje w czasie rzeczywistym. Mapy gry StarCraft to po prostu dobry przykład środowiska, w którym trzeba szybko decydować i planować kolejne ruchy.
Jeśli sztuczna inteligencja ogólnego zastosowania poradzi sobie w StarCrafcie II, nie ma przeciwwskazań, by zacząć testy w mniej oderwanych od rzeczywistości warunkach. Pracownicy DeepMind mają nadzieję, że podobny model uczony ze wzmocnieniem poradzi sobie ze sterowaniem uczącymi się robotami. To z kolei otworzy drogę do lepszych autonomicznych samochodów.
Szczegóły dotyczące procesu uczenia sztucznej inteligencji zostaną opublikowane w magazynie Nature.