Stało się. Sztuczna inteligencja umie czytać nam w myślach
Sztuczna inteligencja nie potrzebuje słów, bo jest w stanie czytać nam w myślach. Badania przeprowadzone przez Google i Uniwersytet w Osace udowodniły, że AI może ustalać co myślimy na podstawie samych sygnałów mózgowych.
Celem naukowców było określenie w jaki sposób ludzki mózg przetwarza muzykę. Korzystając z możliwości sztucznej inteligencji postanowili oni przyjrzeć się aktywności mózgowej, którą wykazujemy podczas tej czynności. Okazuje się, że AI jest w stanie trafnie odtworzyć muzykę, której słuchamy.
AI śledzi ludzki mózg podczas słuchania muzyki
Śledzenie działania ludzkiego mózgu w czasie rzeczywistym to nadal SiFi, ale naukowcom z Osaki wystarczyła skala mikro. Pięcioro uczestników ich badań zostało poproszonych o wysłuchanie kilku 15 – sekundowych nagrań muzycznych. W tym czasie reakcje ich mózgów śledzono stosując funkcjonalny rezonans magnetyczny.
Badanie to śledzi w mózgu przepływ bogatej w tlen krwi i w ten sposób jest w stanie określić najbardziej aktywne jego rejony. W efekcie uzyskano skany, które posłużyły jako materiał treningowy dla sztucznej inteligencji. Program "uczył się" każdego z uczestników znajdując powiązania pomiędzy sygnałami mózgowymi, a cechami muzyki, która je wywoływała.
Na etapie treningu AI brała pod uwagę takie zmienne jak instrumenty, gatunek muzyczny, rytm, ale także wskazane przez naukowców etykiety określające nastrój: radość, smutek, czułość, ekscytacja, złość lub przerażenie. Po przeszkoleniu sztuczna inteligencja była w stanie wyszukiwać w skanach dotychczas niezauważalne regularności i przekształcać je w melodie, zaczerpnięte z bazowych klipów.
Według naukowców sztuczna inteligencja wskazała im kolejny obszar mózgu, który człowiek wykorzystuje podczas słuchania muzyki. Jest nim kora przedczołowa. Uczeni zakładają, że AI zwracało uwagę na jej aktywność, ponieważ może być ona odpowiedzialna za interpretację melodii, którą budują posłyszane dźwięki.
AI rekonstruuje muzykę słuchaną przez człowieka
Prawdziwym "szaleństwem" okazało się jednak przesłanie tych wyników innemu narzędziu AI: MusicLM. W pierwotnym zamyśle inżynierów Google miało ono służyć generowaniu muzyki z opisów tekstowych. Wyniki testów przekształciło ono w klipy muzyczne, których można posłuchać TUTAJ.
Pracując na tak niewielkiej bazie danych jak skany reakcji mózgowych pięciu osób, MusicLM było w stanie trafnie zrekonstruować muzykę, której badani słuchali. Zgodność pod względem nastroju wynosiła około 60%, a gatunki i instrumentacja pokrywała się nawet częściej.
Katarzyna Rutkowska, dziennikarka dobreprogramy.pl