Sieć neuronowa z pamięcią i uwagą – Google chwali się przełomem w dziedzinie sztucznej inteligencji
Kilka dni temu informowaliśmy, że Elon Musk, jeden z czołowychprzedsiębiorców Doliny Krzemowej, porównał prace nad sztucznąinteligencją do przywoływania demona – w sensie magicznej,złowrogiej istoty. Najnowsze osiągnięcie badaczy Google'a zlondyńskiego zespołu DeepMind na pewno więc Muskowi nie przypadniedo gustu, stanowiąc wielki krok naprzód na drodze do przywołaniatego demona. Udało się otóż wreszcie zbudować sieć neuronową zdostępem do zewnętrznych zasobów pamięci, z którymi wchodzi winterakcje poprzez proces kierowania uwagi.
31.10.2014 | aktual.: 31.10.2014 09:31
Spośród podstawowych mechanizmów programów komputerowych,techniki maszynowego uczenia się wykorzystywały praktycznie tylkooperacje logiczne czy arytmetyczne, pomijając logikę sterowania izewnętrzną pamięć – przede wszystkim za sprawą upowszechnieniasię sieci neuronowych. Jest to zasługą ich skutecznościrozwiązywania takich problemów jak klasyfikacja wzorców (wszczególności rozpoznawanie obrazów czy mowy), a takżeoptymalizacji procesów, analizie danych statystycznych,interpretacji i prognozowaniu.
Formalnie dowiedziono jednak, że rekurencyjnesieci neuronowe (czyli takie, w których przepływ informacjimiędzy neuronami jest dwukierunkowy, i dane uzyskane w późniejszychetapach przetwarzania mogą zostać zwrócone wcześniejszym etapom)potrafią więcej, są kompletne w sensie Turinga. Oznacza to, że możnaza ich pomocą rozwiązać każdy problem obliczeniowy, jaki możnarozwiązać na maszynie Turinga, czyli w praktyce każdymwspółczesnym komputerze cyfrowym. Od formalnego dowodu dorealizacji droga jednak daleka.
Alex Graves, Greg Wayne i Ivo Danihelka, badacze ze startupuDeepMind, przejętego w tym roku przez Google, zdołali zwiększyćmożliwości rekurencyjnej sieci neuronowej, dostarczając jej blokadresowalnej pamięci. Swoje dzieło nazwali Neuralną MaszynąTuringa (NTM), choć jak podkreślają, od strony technicznej maszynąTuringa nie jest, od początku do końca działając jako systemtrenowany metodą gradientuprostego.
Taka architektura ma być szczególnie sprawna w realizacji tego,co u ludzi nazywa się „pamięcią operacyjną”, czyli zdolnościądo krótkoterminowego przechowywania informacji i przetwarzania jejwedług zadanych reguł. Reguły te można postrzegać jako prosteprogramy, a przechowaną informację jako dane wejściowe tychprogramów. NTN jest z tej perspektywy realizacją systemu pamięcioperacyjnej, rozwiązującego zadania wymagające zastosowaniaprzybliżonych reguł do szybko tworzonych zmiennych. Występuje wniej proces uwagi, pozwalający na selektywne odczyty i zapisy dopamięci, który oczywiście jest podatny na trening.
Neuronowa Maszyna Turinga składa się z dwóch głównychkomponentów: neuralnego kontrolera i macierzy pamięci. Kontrolerwchodzi w interakcje ze światem zewnętrznym po wektorach wejścia iwyjścia, ale w przeciwieństwie do zwykłych sieci neuronowych,wchodzi też w interakcje z pamięcią poprzez selektywne operacjeodczytu i zapisu, za pomocą struktur zwanych „głowicami” (jak wtradycyjnym modelu Turinga). Są one jednak rozmyte – odwrotnieproporcjonalnie do natężenia „uwagi”. Oznacza to, że im wyższypoziom „uwagi”, tym interakcja zachodzi z mniejszą porcjąpamięci, z pominięciem całej reszty. Głowice mogą więc uzyskaćostry dostęp do pojedynczej lokacji pamięci, i słaby, rozmyty dowielu lokacji jednocześnie.
Przeprowadzone przez google'owych naukowców testy architekturypokazały, że prototyp NTM uczy się znacznie szybciej od zwykłychrekurencyjnych sieci neuronowych i popełnia znacznie mniej błędów.Jest w stanie uczyć się prostych algorytmów z przykładowychdanych i wykorzystywać je w uogólniony sposób w dziedzinach dalekowychodzących poza reżim treningowy. Przykładowo, tam gdzietradycyjna sieć nauczyła się kopiować sekwencje 20 elementów,dłuższe sekwencje zwracając już z błędami, NTM była w staniebezbłędnie po tym samym treningu skopiować sekwencję 120elementów. Badacze podkreślają, że opracowany przez ich maszynęalgorytm kopiowania sekwencji w niczym nie odbiega od algorytmu, jakiprzygotowałby ludzki programista – w tym wypadku Neuronowa MaszynaTuringa „wymyśliła” jak tworzyć tablice i iterować po nich.
Szczegółowe informacje o mechanizmie działania NTM znajdzieciew pracy pt. Neural Turing Machines, którą udostępnionow serwisie arXiv.org.
Za DeepMind, założony trzy lata temu startup zajmujący siębadaniami nad demonami sztuczną inteligencją, Google zapłaciło wtym roku 400 mln dolarów. Zakup ten został uznany za ukoronowaniestarań firmy z Mountain View w dziedzinie AI i robotyki, na którewydała już przynajmniej kilka miliardów. Jak widać, inwestycja przynosi owoce, nawet jeśli nie finansowe, to przynajmniej naukowe i techniczne.