Exposing AI – sposób na sprawdzenie, do czego AI wykorzystuje nasze zdjęcia
Gdy śpisz, sztuczna inteligencja patrzy na twoją twarz. Nawet nie przypuszczasz, do czego są wykorzystywane fotografie, które wrzucasz do sieci. Na szczęście istnieje narzędzie które pozwala się o tym przekonać.
10.02.2021 | aktual.: 11.02.2021 11:23
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
Niemal każdego dnia docierają do nas nowe informacje o działaniu systemów identyfikacji, rozpoznawania twarzy, czy nowych możliwościach deepfake'u, których ofiarą padła niedawno nawet brytyjska monarchini.
"Złożyła" ona wówczas, w wyemitowanym przez brytyjski Channel 4 pamiętnym przemówieniu, całkowicie fikcyjne życzenia, będące w praktyce pokazem możliwości technologii, a zdaniem pomysłodawców całej akcji – ostrzeżeniem przed zagrożeniami, związanymi z deepfake.
Jak zauważają eksperci, kluczowa jest edukacja i ciągłe wyjaśnianie, jak działa i czym jest "czarna propaganda", zwłaszcza, że potencjalnym celem, zagrożonym deepfake'em, może okazać się każdy z nas. Można odnieść wrażenie, że o ile sama technologia jest interesująca, to w praktyce nie dotyczy nas bezpośrednio. Nic bardziej mylnego. Naukowiec zwraca także uwagę na rolę prawodawców, którzy powinni stworzyć umocowane prawnie narzędzia obrony przed nadużywaniem deepfake.
Jednym ze źródeł danych, służących do udoskonalania i trenowania algorytmów, określanych mianem sztucznej inteligencji, są publicznie dostępne fotografie. Nasze fotografie. Te same, które nieraz bez żadnej refleksji wrzucamy do sieci. Te właśnie zdjęcia mogą być – i często są – używane bez naszej wiedzy do celów, na które nigdy bezpośrednio nie wyrażaliśmy zgody.
Na szczęście powstało narzędzie o nazwie Exposing AI. Trudno nazwać je rozwiązaniem problemu – to raczej sposób na pokazanie jego wielkości i powszechności praktyki wykorzystywania otwartych baz danych do trenowania algorytmów odpowiedzialnych za rozpoznawanie twarzy. Exposing AI obsługuje na razie jedno źródło zdjęć – serwis Flickr – i pozwala nam sprawdzić, czy nasze publicznie dostępne fotografie zostały wykorzystane do tego celu.
Czy jest w tym coś złego? Stwierdzenie, że wrzucając cokolwiek do sieci tracimy nad tym kontrolę jest truizmem. Warto jednak pamiętać, że gdy przyjdzie nam ochota ponarzekać na wszechobecną inwigilację czy powszechne – nie zawsze zgodne z naszymi oczekiwaniami – wykorzystanie biometrii, to winić możemy również siebie.
Sami dostarczamy paliwa, potrzebnego do działania sztucznej inteligencji. Czy dotyczy to nas bezpośrednio? Jeśli korzystamy z Flickra, dzięki Exposing AI możemy to teraz zweryfikować.