Polityczne boty zatruwają naszą demokrację. A to dopiero początek

Od kilku lat nie ustają wątpliwości dotyczące wpływu obcych sił na ostatnie wybory prezydenckie w Stanach Zjednoczonych. Żywa dyskusja dotycząca kontaktów Donalda J. Trumpa z rosyjskimi oligarchami toczyła się jeszcze przed samymi wyborami, podgrzewana przez kolejne demaskowane kampanie propagandowe, prowadzone na masową skalę przez tzw. „farmy trolli”. Miały one, rękami setek współpracowników oraz z pomocą automatów, wpływać na dynamikę debaty w mediach społecznościowych. Słynny Raport Muellera, kilkusetstronicowe sprawozdanie z działalności wyborczej Trumpa nie wykazało zmowy (tak często powtarzane no collusion), w dalszym ciągu jednak podkreśla zajście poplecznictwa (obstruction of justice), co oznacza, że temat nieprędko odejdzie w zapomnienie. Dyskusja na temat potencjalnej współpracy Trumpa z Rosjanami często pomija temat botów – tymczasem prezydent Trump mógł dzięki nim otrzymać pomoc, o którą wcale nie prosił. Zresztą nie tylko on.

Polityczne boty zatruwają naszą demokrację (Pixabay)
Polityczne boty zatruwają naszą demokrację (Pixabay)
Kamil J. Dudek

19.05.2019 | aktual.: 08.06.2019 17:03

Ćwierkający politycy

Odsuwając na chwilę kwestie czysto polityczne, masowe kampanie propagandowe brzmią nieprawdopodobnie również z powodów czysto technicznych. Jest ich bardzo wiele. Przede wszystkim, wydaje się oczywistym, że społeczna interakcja wyklucza automatyzację. Bot prowadzący konwersację, w oczach innych użytkowników natychmiast wszak oblałby Test Turinga, przez co wykluczonoby go z dalszej dyskusji. Tu jednak wychodzi na jaw pewna niekoniecznie oczywista cecha sieci społecznościowych: tak naprawdę wcale nie zbliżają ludzi do siebie. Możemy się pokusić o stwierdzenie, że żyjemy w czasach post-social, gdzie albo należymy do i tak już zamkniętych kręgów (jak Facebook) lub tworzymy jednostronny przekaz (jak Instagram, ale w dużej części również Twitter). Wskutek owej tendencji, nieukierunkowany na debatę, jednoznaczny przekaz propagandowy wklejany przez bota nie wzbudza żadnych podejrzeń, a kluczem do jego skuteczności jest skala. Ponieważ jednak taki przekaz nie wymaga interakcji, bardzo łatwo go zautomatyzować stosunkowo niskim nakładem pracy. Oznacza to, że manipulowanie publiką z użyciem botów jest w pewnym zakresie wykonalne.

W mediach społecznościowych coraz częściej prowadzimy kłótnie, a nie debaty
W mediach społecznościowych coraz częściej prowadzimy kłótnie, a nie debaty

Jeżeli potrzebujemy czegoś więcej, niż tylko przeklejone pamflety propagandowe i kiepskie memy, konieczne jest wykorzystanie ludzi. Ta metoda również przeczy intuicji, ponownie ze względu na domniemaną skalę: aby osiągnąć zadowalające efekty, należałoby zatrudnić tysiące ludzi. Okazuje się jednak, że właśnie takie coś ma miejsce. Nie ma tu mowy o żadnych „pożytecznych idiotach”, tylko o rzeczywistym biznesie ze szwadronem ludzi do wynajęcia. Jak można było przeczytać w artykule Niebezpiecznika z 2015 roku, nawet ludzka działalność, mająca w zamierzeniu nie wzbudzać podejrzeń, jest mocno zorientowana na masówkę oraz wzrost. Ciągła walka o wyższe zasięgi jest motywowana koniecznością rozbudowywania wpływu, jeżeli więc czasem „kończy się amunicja” i nie ma o czym pisać doraźnie, wrzuca się kontrowersyjne tematy plotkarskie. Warto dodać, że w ten sposób działają nierzadko całe portale internetowe, zbudowane od zera tylko w celu propagandowym.

Takie podejście ma jednak swoje granice. Tworzenie „farm trolli” wymaga kadr. Co prawda Towarzysz Koba zwykł mawiać „u nas ludzi mnogo!”, lecz ten pogląd wcale nie skaluje się dobrze. Najważniejsze jest tu ograniczenie regionalne. Poligloci rzadko kwapią się do wstępowania w szeregi propagandystów, a już na pewno nie w takim charakterze. Dlatego zakres oddziaływania będzie raczej lokalny, ograniczony do obszaru rozumiejącego ten sam język (dobrym przykładem jest Ukraina). Skuteczne oddziaływanie na skalę międzynarodową wymaga innych środków, niż armia statystów. Oczywiście, jeżeli cena gry jest wysoka, jak amerykańskie wybory prezydenckie, do akcji wkroczy naprawdę dużo ludzi, na tyle dużo, że dalej można ich bezprzesady nazwać armią. Niemniej, na dłuszą metę jest to boleśnie kosztowne. Potrzeba jest jednak matką wynalazków. I bardzo możliwe, że problemy kadrowe zostaną niedługo rozwiązane raz na zawsze.

Boty to nie sztuczna inteligencja

Organizacja IEEE, w swoim niezwykle rzetelnym opracowaniu dotyczącym udziału botów w kampaniach wybroczych (od Brazylii po Japonię) zaznacza, że ich działalność jest zazwyczaj bardzo uproszczona (acz wciąż skuteczna). Wspomaganie algorytmami sztucznej inteligencji dotyczy głównie wyszukiwania wzorców, sieci kontaktów, hasztagów oraz godzin aktywności. SI nie jest jednak używana do tworzenia samych treści, ponieważ wydaje się jeszcze nie być na to w pełni gotowa. Często śmiejemy się, że sztuczna inteligencja uparcie nie chce nadejść, mimo wieloletnich zapowiedzi. „Bunt maszyn odwołany, Roomba zaklinowała się pod dywanem!” Jak daleko tak naprawdę jesteśmy od opracowania generatorów treści? To kolejne przeciwintuicyjne zagadnienie. Skuteczność algorytmów SI, stosowanych na przykład w tak popularnych dziś cyfrowych asystentach, przeplatana z ich nierzadko bezdenną głupotą, utrudnia wydanie zdroworozsądkowych sądów. Ocenę zaburza również łatwo dostrzegana nieporadność i sztuczność botów – boty nie są wszelako narzędziem SI.

Ten pan nie istnieje
Ten pan nie istnieje

Istnieją dwa podstawowe scenariusze wykorzystania sztucznej inteligencji w działalności politycznej. Pierwszym jest wykrywanie wzorców celem prognozowania. Nakarmienie algorytmów głębokiego uczenia zbiorem danych o naszych preferencjach (a dane te dziś niemal leżą na ulicy) pozwala idealnie wytargetować każdą kampanię i skroić ją na miarę prawie każdego, pojedynczego odbiorcy. Drugi scenariusz dotyczy tworzenia całych treści: felietonów, manifestów, dyskusji (z ludźmi lub innymi botami). Z wykorzystaniem nie tylko tekstu, ale i obrazów. Już dziś da się wygenerować twarze nieistniejących ludzi, a wyszukiwanie wzroców pozwala napisać dla nich przekonujący biogram na Facebooku. Problemem jest wyłącznie ścisła treść, nawet opakowanie w formie języka nie jest już przeszkodą.

Dobrym wstępem do owych rozważań jest projekt SCIgen. Inicjatywa, początkowo stworzona jako żart, korzysta z gramatyki bezkontekstowej celem celem stworzenia tekstów naukowo-technicznych. Pod względem językowym, generowany tekst to niemal idealnie poprawna angielszczyzna. Jednakże w kwesti technicznej, generowane artykuły są kompletnym bełkotem. Poza byciem źródłem nieprzebranej rozrywki, teksty generowane przez SCIgen znaazły też inne, praktyczne zastosowanie. Używano ich jako publikacje zgłoszeniowe do kiepskich gazet IT orazfake'owych konferencji naukowych, będących w praktyce marną szaradą, wyłudzającą środki z opłat zgłoszeniowych.

Rynek owych konferencji-przekrętów nie wziął się znikąd. Prawdopodobnie nie miałby szans na popularyzację, gdyby nie powierzchowna, acz powszechna doktryna „publish or perish”: pęd do generowania publikacji naukowych nawet w razie nieukończenia badań i niskiej jakości materiału. Gdy nie udaje się uzyskać publikacji na łamach renomowanych (punktowanych), aby uniknąć cięć kadrowych i budżetowych, tworzy się teksty publikowane... gdziekolwiek. Stąd istnienie konferencji-krzaków. Korekta merytoryczna naturalnie nie działa, bo nawet nie jest potrzebna. W ten sposób można opublikować niemal wszystko, a następnie bronić swych bzdur u laików, zasłaniając się tytułem naukowym (pogłębiając zarazem pikujące zaufanie społeczne względem profesji naukowca).

To bełkot, ale gramatycznie poprawny
To bełkot, ale gramatycznie poprawny

SCIgen jest ciekawą, acz nie do końca zamierzoną, metodą ukazania, że kluczem do popularyzacji myśli jest odpowiednia oprawa. Podczas gdy rzeczywista treść i jej jakość pełnią rolę przynajmniej drugoplanową. Jednkaże, celowo prześmiewcza natura owego generatora zapewnia, że nie zostanie on wykorzystany na masową skalę. Ponadto, tworzy on teksty zorientowane ogólnie na daną dziedzinę, ale nie na konkretny temat. Mimo tych ograniczeń, pokazuje on, że generowanie języka naturalnego jest możliwe i najwyraźniej łatwiejsze, niż jego „rozumienie” przez algorytmy. Na ile możliwe jest jednak stworzenie tekstów bardziej sensownych, niż ogólnikowy SCIgen lub bełkotliwy Generator Wierszy?

AI as a Service

Wedle większości źródeł, zgodnie z domysłami, jeszcze nie ma to miejsca. Wszelkie boty generujące ruch głębszy od zwykłego przeklejania, jak przyznaje MIT Technology Review, to wciąż proste skrypty reagujące na słowa kluczowe i korzystające z listy synonimów. Dynamika ich treści wynika prędzej z konieczności omijania filtrów antyspamowych, a nie z rzeczywistego dostosowania do tematu lub audytorium. To dobra wiadomość. Ale ten stan nie utrzyma się długo. Wielcy gracze na rynku sztucznej inteligencji, czyli obecnie każda duża firma IT, obiecują opublikowanie dedykowanych API wraz ze środowiskami progamistycznymi. Wszystko po to, by nadchodzące technologie stały się dostępne do użycia jak najszybciej, przywiązując programistów do konkretnej oferty. API na pewno nie będą przenośne między dostawcami, a na warstwy abstrakcji przyjdzie zapewne dość długo poczekać. Niemniej, gdy antycypowane rozwiązania staną się używalne, dostawcy mocno zadbają o to, by były przystępne - nie inaczej, jak Capabilities API od Amazona, AR Kit od Apple i Azure AI dostarczane przez Microsoft.

Pojawiają się jednak informacje, że wystarczający przełom został już mimo to osiągnięty. Wystarczający nie do tego, by tworzyć wysokiej jakości, nieodróżnialne od ludzkich, profesjonalne teksty – ale na tyle dobry, by pisać fake news, na które sporo osób się nabierze. Organizacja OpenAI, której współsponsorem jest Elon Musk, stworzyła narzędzie GPT2. Jest to program realizujący model predykcyjny, którego zbiorem uczącym był „dowolny tekst w internecie”. Zadaniem modelu było przewidzenie następnego słowa w załadowanym tekście. Model, zamknięty w kontener Dockera z narzędziem Tensorflow, został opublikowany na Githubie (organizacja ma wszak „Open” w nazwie). Wraz z narzędziem opublikowano artykuł, zatytułowany Language Models are Unsupervised Multitask Learners. Można w nim przeczytać między innymi, że narzędzie nie jest generatorem specjalizowanym. Oznacza to, że inne modele, bardziej dostosowane do konkretnego tematu, byłyby teoretycznie zdolne do tworzenia tekstów o wyższej jakości merytorycznej. Kwestie lingwistyczne są praktycznie niezauważalne: tworzone teksty są językowo bezbłędne.

Co jednak najbardziej poraża w udostępnionym ogłoszeniu to fakt, że opublikowany model... nie jest kompletny. Pełnego, wytrenowanego narzędzia nie opublikowano ze względu na obawę, że jest zbyt skuteczny, co przy obecnej niedojrzałości (czy wręcz nieobecności) środków zaradczych stanowi poważne zagrożenie dla debaty publicznej. Zatem jak bardzo przekonujący musi być GPT2, skoro wzbudził aż takie obawy? Odpowiednie przykłady przytacza The Verge. Algorytm GPT2 dokonał skutecznego zredagowania wiadomości dotyczących Brexitu, napisał też hipotetyczny akapit „Władcy Pierścieni”, w którym zgadzał się nawet tolkienowski styl.

Fake Obama created using AI video tool - BBC News

Wystarczy więc zalążek tekstu, by na jego podstawie wysnuć spójny tekst, zgodny z materiałem wejściowym. Dzięki temu, możliwe jest ograniczenie pracy nad fake news jedynie do podejścia hasłowego. Resztę tekstu napisze maszyna. Trudno chcieć czegoś więcej: krok dalej jest już tylko pełne SI. Dopracowanie wyżej wymienionego mechanizmu pozwoli wkrótce na generowanie fake newsów na skalę dotychczas nieznaną. Efekty są tym bardziej imponujące, gdy połączy się je z automatycznie generowanym wideo. Dwa lata temu, naukowcy z Uniwersytetu Waszyngtońskiego opracowali fotorealistyczny model Baracka Obamy: wystarczyła sama ścieżka audio, by na jej podstawie model SI wytrenowany na dziesiątkach nagrań z przemówieniami stworzył film z wirtualnym Obamą wygłaszającym zadaną ścieżkę dźwiękową.

Brednie na żądanie

Automatyzacja na takim poziomie ułatwia tworzenie przekonujących mistyfikacji. W zeszłym roku actor Jordan Peele przygotował nagranie, na którym jego mimika została zmapowana na hiperrealistyczną twarz Obamy. Jedyne, co było potrzebne po ludzkiej stronie, to odpowiedni głos aktora. Algorytmy ujęte w klasie generatywnych sieci współprzeciwnych(GAN), czyli samoorganizujące się sieci pozwalają stworzyć niezwykle wiarygodną animację trójwymiarową. Są dziś wykorzystywane w kinematografii i projektowaniu wnętrz, ale bardzo szybko znalazły swoje zastosowanie w... pornografii i dezinformacji. Materiały noszące miano deepfakes (fałszywek stworzonych za pomocą tzw. głębokiego uczenia) mogą być już dostarczane „jako usługa”: jedna z największych amerykańskich wytwórni filmów dla dorosłych ogłosiła, że rozpocznie świadczenie usługi wklejania klientów w remiksowane za pomocą SI sceny ze swoich produkcji. Pojawiają się także przypadki szantażowania byłych wybranek za pomocą sfabrykowanych zdjęć intymnych sytuacji.

Jeszcze jest kiepsko, ale to się wkrótce zmieni
Jeszcze jest kiepsko, ale to się wkrótce zmieni

Ale to nie wszystko. Firma Lyrebird obiecuje, że na podstawie próbki głosu jest w stanie stworzyć głosowy marker pozwalający na wyrecytowanie dowolnego tekstu żądanym głosem. Efekty wciąż jeszcze da się odróżnić od rzeczywistych wypowiedzi, symulowanie wiarygodnej intonacji jest niezwykle skomplikowane, ale i tak końcowy rezultat jest oszałamiający (choć działa raczej po angielsku). Biorąc pod uwagę fakt, że jakość owych narzędzi będzie tylko rosła, zestawienie automatycznie generowanych tekstów, obrazów i głosu już niedługo umożliwi robienie całych materiałów informacyjnych, podszywających się pod szanowane programy telewizyjne i źródła wiadomości. Po uzyskaniu odpowiedniego poziomu wiarygodności, takie materiały będą niemożliwe do odróżnienia od oryginałów. W dodatku, coraz mniejsza dawka przetwarzania źródeł owych treści jest wspomagana chmurowo. Dzięki temu do tworzenia fikcji może wystarczyć zwykły telefon. Co nas wtedy czeka?

Oczywiście, niniejszy problem nie jest kwestią regulacji. Jeżeli ktoś chce kłamać, nie przejmuje się regulacjami, więc próba prawnego usankcjonowania mechanizmów głębokiego uczenia jest pozbawiona sensu. Konieczne będzie zagwarantowanie metody odróżniania fikcji od rzeczywistości. Można w tym celu użyć jednego z dwóch podejść. Pierwszym z nich jest stosowanie „algorytmów obronnych”: treści tworzone przez SI są wizualnie wiarygodne, ale zawierają wystarczająco dużo artefaktów, by odpowiedni program był w stanie je wykryć i oznaczyć jako sztucznie wygenerowane. Prace nad cyfrową odtrutką są już prowadzone, nierzadko równolegle z pracami nad właściwym algorytmem. Dzięki nim możliwe będzie odsianie materiałów wygenerowanych maszynowo.

Komu zaufać?

Powyższa rozwiązanie zakłada jednak, że problem jest binarny: że treść może być albo zredagowana przez człowieka i prawdziwa albo napisana przez program i fałszywa. Sytuacja może się okazać bardziej złożona. Wiele artykułów będzie jedynie wspomaganych maszynowo, działalność dezinformacyjna będzie dość „hybrydowa” w swojej naturze. Podobnie, jak fałszywe wiadomości będą niejednoznaczne w swej genezie, algorytmy detekcji również będą dawać niejednoznaczne wyniki. Niezbędne jest więc wprowadzenie instytucji odgórnego autorytetu, darzonego zaufaniem „z definicji”, za zasadzie Trusted Root Certificate Authority w kryptografii.

Z tym, że wiadomości to nie kryptografia. Niezwykle trudno jest zinstytucjonalizować zaufanie, a będzie to niezbędne w erze fake news nowej generacji. Rolę wiarygodnych źródeł przejmą zapewne... klasyczne media, obecni wielcy wydawcy i agencje prasowe. To dobrze i źle. Dobrze, bo przynajmniej teoretycznie oferuje to wysokiej jakości warsztat i rzetelność. Źle, bo po pierwsze jakość dziennikarstwa uległa erozji nawet w najbardziej renomowanych źródłach; a po drugie – dzisiejsze media nie są rzetelne. Mowa tu zarówno o mediach prywatnych, realizujących interes właścicieli, jak i publicznych, które obecnie budzą poważne zastrzeżenia dotyczące bezstronności (oraz dobrego obyczaju).

Dostawca wiadomości zawsze w jakimś stopniu znajduje się pod wpływem tego, co publikuje. Dlatego mimo etyki zawodowej nakazującej bezstronność, dzisiejsze media możemy dość łatwo podzielić ze względu na „barwy klubowe”. Prowadzi to dziś do pogłębienia polaryzacji odbiorców, ale gdy wiarygodność informacji będzie wynikać wyłącznie z renomy dostawcy, niemal pewne jest, że powstaną tematy o których nigdy nie usłyszymy. Do spiskowego panteonu „Deep State” i „Big Pharma” dołączy „Big Media.”

Rodzi się pytanie, na ile jest to odmienne od sytuacji, w której znajdujemy się już dzisiaj. Jakie są nasze możliwości, umiejętności i wola samodzielnej weryfikacji wiadomości? Być może problem, który zwiastuje sztuczna inteligencja, nie jest aż tak hipotetyczny i dotyczy zjawisk znanych od lat? Zapraszamy do dyskusji.

Programy

Zobacz więcej
Wybrane dla Ciebie
Komentarze (74)