Jak uczyłem komputer uczyć się - prolog do machine learningu
W mojej pracy badacza kompatybilności elektromagnetycznej głównym zapalnikiem napędzającym mnie do działania, jest pierwiastek nieprawdopodobieństwa tego, co się wydarzy podczas badań. Niby 90% czasu nic specjalnego się nie dzieje, ale w tych pozostałych 10% zdarzają się sytuacje mega ciekawe, których konstruktorzy urządzenia nie byli w stanie przewidzieć. Ta ciekawość zaprowadziła mnie do podjęcia tematu zagadnień sztucznej inteligencji i tego, co "zwykły" Kowalski może z jej użyciem w domu zrobić, bez specjalistycznej wiedzy. Jak większość rzeczy w moim życiu, zaczęło się od zrobienia czegoś "dla beki". Jak w większości przypadków, zdarzyło się coś co najmniej ciekawego - przynajmniej tak się prezentującego na samym początku.
Przeglądając wykop natrafiłem na bota, łączącego dwa tytuły znalezisk w jedno. Czasami szło mu lepiej, czasami gorzej. W przeciągu wieczora sam złożyłem coś podobnego, śmiechom nie było końca jednak wydawało mi się to dla mnie zbyt banalne. A co gdyby sieć neuronowa sama generowała tytuł newsów? Zaraz ale ja przecież nic nie wiem w tym temacie! Czy okazało się to przeszkodą aby ruszyć z miejsca? Ani trochę.
gis ostrzega przed bąblowicą . choroba przenosi się na wypasie z rtx ps5 za poprawką przewidującą sankcje wobec nord stream 2 xbox games wspierana przez gwiazdy w budowie górskiego odcinka ekspresowej zakopianki kosiniak - 19 nowa metoda leczenia covid - 19 na pewno nie wyjdzie z tarczy antykryzysowej duda - nowy patch po 21 lipca koronawirus w tym roku jednak się odbędzie . " historyczny moment " seks znowu zawiruje ? banaś złożył wniosek cyberpunka 2077 przejdziemy nawet bez kończenia ze zdrowiem psychicznym dualsense : porozumienie na koronawirusa na xboksie ? powstaje wkrótce w panamie trzaskowski: become human ze świetnym wynikiem sprzedaży chiny reagują . nakazały usa zamknąć konsulat neptuna crysis remaster na białorusi . apel rafała trzaskowskiego korea południowa boi się po wrocławiu . do stolicy anglii ciągnie lgbt seks na ratunek najlepsze coraz bliżej lichocka ukarana za pokazanie środkowego palca . nie żyje zaskakująca . ligi mistrzów uruchomi 50 mln zł w sprawie dwóch szczepionek przeciw sor wiceprezydent warszawy rafał brzoska na świeżym powietrzu . pałac dla na dzieci i młodzieży cd projekt red wprowadza graczy do prokuratury o wsparciu pis kierowca potrącił dziecko za koncert krzysztofa krawczyka . zakrzepy po nowej generacji samsung - polityka i społeczeństwo cyberpunk na drodze . wypadek na bank stanie się o decyzji o zakażeniach [ lista ] waloryzacja 500 plus ? chiński startup pozywa giganta ! koronawirus ' uciekł z google play
Po nitce do kłębka trafiłem na projekt textgenrnn i zacząłem pierwsze eksperymenty. Wszystko na koszt Google’a, wszak bawiłem się w darmowym Colabie. Pierwsze efekty pracy były równie marne jak moja wiedza w temacie. Modele strasznie szybko uczyły się "na pamięć" - dopiero wkrótce potem okazało się, że moja baza tytułów zawiera duplikaty. Była dodatkowo definitywnie za mała, a jak się potem dowiedziałem nie ma czegoś takiego jak "za dużo" danych źródłowych do uczenia tej bestii. Dopracowałem skrypt do zbierania tytułów i mieli się codziennie - na dzień dzisiejszy mam pod ręką 27 tysiący tytułów niusów. Czy przydadzą się do czegoś jeszcze poza kręceniem beki? Nie wiem. W każdym razie baza i skrypt zbierający zostały udostępnione na github.
Jeszcze w tej chwili prace wokół #Niusbot są pracą metodą prób i błędów, trochę jak w tym memie z pieskiem, stopniowo poszerzaną o nabytą wiedze przy okazji dłubania w poradnikach i książkach.
Po obronie, nieobciążony już ciężarem studiów temat kontynuowałem. Od generowania śmiesznych tytułów przeszedłem do sztandarowego "Hello world" uczenia maszynowego, czyli klasyfikacji zdjęć i obiektów. Załadowałem swoimi danymi, douczyłem się, bam! Wow nawet na relatywnie małej bazie danych do nauki działa to naprawdę nieźle. Kolejne zabawy z gotowcami pokroju YOLO czy resnet18 dały zalążek tego, że warto się co nieco więcej w temacie pobawić.
Zarówno jak kiedyś przy programowaniu na Androidzie, jak i teraz przy ML, mam dość pokory w sobie aby zamiast biec na oślep na spokojnie przejść przez podstawy, stopniowo poznając mechanizmy działające w tym obszarze sztucznej inteligencji. Nauka idzie powoli, niemniej idzie - wszak nigdzie się nie śpieszę. Poza wiedzą książkową zdecydowałem się na zakup platformy Nvidia Jetson Nano - taki odpowiednik Raspberry Pi dla tematyki AI.
Kiedyś to programowanie było tajemniczą dziedziną zarezerwowaną dla totalnych nerdów albo profesjonalistów. Dzisiaj za sprawą dostępnych kursów i przystępności języków jak Python albo Visual Basic każdy może w prosty sposób przyspieszyć sobie jakieś powtarzalne zadania, czy to w Excelu czy przy jakichś prostych operacjach na plikach. Natomiast w rozmowach ze nietechnicznymi znajomymi świadomość zagadnień sztucznej inteligencji/uczenia maszynowego/głębokiego jest jeszcze znikoma. Powiem wprost - opowiadając o moich pierwszych podbojach w ML robią równie duże oczy jak przy opowiadaniu o mojej pracy. Czy za kolejne 10 lat ten trend się zmieni i nawet sprzątaczka będzie budować swoje sieci neuronowe do optymalizacji czyszczenia podłogi? Czas pokaże.