Koniec mediów społecznościowych? Ekspert wskazuje przyczynę
Ekspert ds. sztucznej inteligencji zwiastuje koniec mediów społecznościowych. Ma mieć to związek z potencjalnym natłokiem fałszywych treści, które w nich spotykamy. "Rozwój technologiczny zaczyna zjadać sam siebie" - komentuje w rozmowie z PAP ekspert.
06.03.2024 06:55
Dr Tomasz Michalak, ekspert od sztucznej inteligencji z IDEAS NCBR, wyraża swoje obawy dotyczące rosnącej nieufności do treści publikowanych w sieci, spowodowanej rozprzestrzenianiem się deepfejków i fake newsów. Jego zdaniem, w obliczu tych zagrożeń, ludzie mogą zacząć wracać do bezpośrednich kontaktów osobistych, co stawia pod znakiem zapytania przyszłość mediów społecznościowych.
Sztuczna inteligencja jest teraz dostępna dla każdego i umożliwia tworzenie materiałów, które wyglądają jak wykonane przez profesjonalistów. To obejmuje teksty, zdjęcia, nagrania dźwiękowe i materiały wideo. Coraz trudniej jest odróżnić materiał pochodzący z wiarygodnych źródeł od materiału spreparowanego przez sztuczną inteligencję.
Dr Michalak zwraca uwagę, że sztuczna inteligencja może być celowo wykorzystywana w złej wierze, aby wyrządzić szkody, zarówno pojedynczym osobom, instytucjom, jak i całym społecznościom. Już teraz zdarzają się sytuacje, gdy twarz dowolnej osoby jest montowana zamiast twarzy aktorki w filmie dla dorosłych. Można sobie również wyobrazić manipulacje, wykorzystujące wizerunek znanego polityka w trakcie kampanii wyborczej.
Dalsza część artykułu pod materiałem wideo
Dlaczego zabrałem Huawei MatePad Pro 13.2" w góry? - TWC 2024
Coraz więcej fałszywych treści
Ekspert zauważa, że obserwuje się zmniejszoną aktywność użytkowników platform społecznościowych, co potwierdzają badania kanadyjskie. Jego zdaniem, rozwój deepfejków i eksplozja możliwości AI mogą spowodować, że trend ten będzie się nasilać w najbliższych latach. Może to doprowadzić do utraty zaufania użytkowników do mediów społecznościowych, przynajmniej jako do rzetelnego źródła informacji. Niestety, szkody, jakie zostaną wyrządzone w międzyczasie, mogą być nieobliczalne.
- AI może być niestety użyta do poprawy jakości fake newsów i ataków dezinformacyjnych na platformach społecznościowych - choćby ze strony Rosji. Naszym zadaniem jako naukowców, jest opracowanie jeszcze lepszych modeli AI, które są w stanie zwalczać te bardzo niebezpieczne zjawiska - zwraca uwagę dr Michalak.
Bota zwalczaj botem
Ekspert przytacza przykład bota opracowanego przez firmę MIM Solutions. Potrafi on automatycznie reagować na dezinformację ze strony rosyjskiej, dotyczącą imigrantów ukraińskich w Polsce. Wykrywa on nieprzyjazne posty i reaguje na nie, przywołując wiarygodne źródła informacji.
- To walka na modele sztucznej inteligencji. Jeśli jako Polska nie będziemy inwestowali w sztuczną inteligencję, przegramy ten wyścig. Moim zdaniem nie możemy też liczyć pod tym względem na globalne korporacje. Te nie będą zainteresowane naszymi lokalnymi problemami i nie możemy oczekiwać, że stworzą dla nas dedykowane rozwiązania AI - komentuje dr Michalak.
Spotkanie zamiast DM-a
Badacz z IDEAS NCBR uważa, że ze względu na powstające zagrożenie deepfejków, ludzie wrócą do kontaktów osobistych, bo nie będą mogli ufać mediom społecznościowym.
- Powróci znaczenie osobistych spotkań, np. polityków z wyborcami, bo nie będzie można ufać temu, co jest zamieszczone online. To stawia pod znakiem zapytania przyszłość mediów społecznościowych w takiej formie, jaką znamy - uważa dr Michalak.
Zwraca również uwagę na zjawisko, jakim jest ścieranie się autorytetu dziennikarskiego i mediów mainstreamu z mediami społecznościowymi w internecie. Ocenia, że wydawcy czy agencje medialne ze względu na oszczędności - ale i zmieniające się tempo publikowania - ograniczają liczbę fact checkerów i również tu spadają szanse, by potwierdzić, czy jakieś wydarzenia na pewno miały miejsce.
- Na szczęście powstaje coraz więcej firm czy organizacji, które zajmują się fact-checkingiem. Istnieją badania pokazujące, że te wysiłki przynoszą wymierne efekty i mają sens. Tym niemniej, wyniki te dotyczą przeszłości kiedy możliwości i popularyzacja technologii deepfejk były nieporównywalnie mniejsze - dodaje ekspert.
Dr Michalak zwraca również uwagę na nowy przykład przestępstw z użyciem deepfejków. W Hongkongu pracownik instytucji finansowej dostał zlecenie od zarządu firmy, by wykonać przelew na kwotę odpowiadającą 25 mln dol. Miał wątpliwości, więc poprosił o kontakt z zarządem. Odbyła się telekonferencja, podczas której zarząd w obecności świadków potwierdził chęć przelewu. Kwotę przelano i wtedy okazało się, że mail od zarządu był spreparowany, a podczas rozmowy on-line jedyną prawdziwą osobą był pracownik instytucji finansowej. Twarze innych uczestników rozmowy były wygenerowane cyfrowo, podobnie jak ich głosy.
- Rozwój technologiczny zaczyna zjadać sam siebie. Przyzwyczailiśmy się, że nowe technologie pozwalają nam efektywniej wykonywać naszą pracę, robić rzeczy coraz szybciej. Tymczasem, może się wkrótce okazać, że rozmowy online lub przez telefon nie wystarczą, bo po drugiej stronie ekranu czy słuchawki może być deepfejk – uważa dr Michalak.
Dodatkowa weryfikacja w sieci
PAP zapytała badacza, czy warto wprowadzić procedury uwierzytelniania treści w mediach - np. podpisy cyfrowe, znaki wodne czy skróty dokumentów potwierdzające oryginalność materiału - tekstu, zdjęć czy nagrań wideo - aby odbiorcy mogli szybko sprawdzić wiarygodność źródła.
- Prace nad rozwojem tego typu technologii już trwają. To świetny pomysł i bardzo ważny kierunek badań - odpowiada ekspert. - Pytanie, czy wszyscy będą chcieli z tego korzystać. Są grupy społeczne, które czerpią informacje wyłącznie z mediów społecznościowych w swoich bańkach informacyjnych. Pytanie, czy takie znaki wodne spełnią swoją rolę również i u takich odbiorców. Niestety obawiam się, że cześć osób, które są obecnie bardziej podatne na dezinformacje, może nie ufać znakom wodnym wystawionym przez instytucje publiczne - dodaje ekspert.
- Powinniśmy w miarę możliwości zaznajamiać się z możliwościami, jakie dają nowe technologie, bo ich wpływ na życie będzie coraz bardziej bezpośredni, widoczny. Jeśli miałbym coś radzić czytelnikom, to bądźmy jeszcze bardziej uważni na treści, które widzimy na ekranach komputerów czy smartfonów - podsumowuje naukowiec.