Apple wycofuje się z planu analizowania zdjęć na iPhone'ach
Po protestach ekspertów, alarmach w prasie, niepochlebnej analizie wstecznej, listach otwartych i akcjach fundacji EFF, Apple przestało forsować swój plan analizowania zdjęć bezpośrednio na iPhone'ach, po stronie klienta. Zamiast tego, przynajmniej na jakiś czas, firma decyduje się na zbieranie opinii fachowców, branży i klientów na temat swojego pomysłu. Dopiero po tym ma nastąpić próba ponownego wdrożenia rozwiązania.
03.09.2021 23:55
Przypomnijmy, Apple zdecydował się wprowadzić w systemie iOS 15 analizator zdjęć uploadowanych do chmury iCloud, mający na celu wykrywanie nielegalnych materiałów z udziałem dzieci (przemoc, pornografia itp.). Ten chlubny cel miał jednak zostać zrealizowany z wykorzystaniem podważalnych etycznie i niebezpiecznych dla prywatności rozwiązań.
Lokalny algorytm
Przede wszystkim, skanowanie miało się odbywać jeszcze przed wysłaniem zdjęć do iCloud, aby wykluczyć obecność nielegalnych materiałów na serwerach Apple. Aby zrealizować taki cel, analiza zdjęcia musiałaby się odbywać bez udziału chmury Apple, co oznacza przetwarzanie w całości po stronie telefonu.
Nie chcąc korzystać z algorytmów sztucznej inteligencji wykrywających osoby i akty, Apple zdecydowało się na stosowanie algorytmu uogólnionych sum kontrolnych (NeuralHash, zbliżone koncepcyjnie do PhotoDNA). Różnica między tymi podejściami polega na sposobie, w jaki prowadzą one do kolizji, czyli klasyfikowania niewinnych fotografii jako nielegalne.
Kolizje
Kolizje są niebezpieczne dla prywatności, ponieważ ich weryfikacja wymaga ręcznej ingerencji (zdjęcie muszą obejrzeć czyjeś oczy). W przypadku pierwszej metody, fałszywe alarmy będą dotyczyć zdjęć zawierających osoby. W drugim przypadku, produkowanie kolizji podlega całkowicie nieoczywistym regułom i do ręcznej analizy może dostać zaklasyfikowany niemal każdy plik.
Ponieważ algorytm stosuje (w uproszczeniu) bazę sum kontrolnych a nie przetrenowywany model, jego skuteczność opiera się na bezpieczeństwie bazy. I tu leży największy problem: nie da się stworzyć algorytmu do wykrywania "pornografii". Efektem bowiem będzie jedynie algorytm do wykrywania wzorca zgodnego z zadaną bazą. Co może być w tej bazie, kto za nią odpowiada, jaka jest gwarancja, że jest ta sama na całym świecie i skąd mamy pewność, że Apple nie podmieni/rozszerzy jej na "prośbę" któregoś z rządów - w przypadku wszystkich powyższych pytań jesteśmy zdani wyłącznie na dobra wolę i obietnicę Apple.
Nieprzychylni: Snowden i Dotcom
Edward Snowden oznajmił dobitnie na swoim blogu, że Apple idzie na wojnę z prywatnością i przekreśla dorobek polityki "what happens on iPhone, stays on iPhone". Uznał on podejście Apple za zwykłą nieodpowiedzialność - chęć wymiksowania się z bycia stroną w śledztwach dotyczących wykorzystywania seksualnego. Oskarżył Apple także o bezczelność: Craig Federighi, wysłany przez PR Cupertino na potrzeby "uspokojenia wrzeszczących tłumów" szef inżynierów Apple miał wedle Snowdena opowiadać bzdury i wyglądać jak żywa lalka Ken.
Mniej litości dla Apple miał za to Kim Dotcom, który wprost stwierdził, że NeuralHash to może nawet nie być pomysł Apple, a firma po prostu współpracuje z amerykańskimi służbami mającymi na celu stworzenie ogólnoświatowej sieci szpiegowskiej telefonów donoszących na swoich użytkowników. Dotcom od lat jest zdania, że po "trzyliterowych agencjach" z USA można spodziewać się wszystkiego, co najgorsze.
To nie koniec
Apple nie rezygnuje ze swojego planu w całości. Firma ma wrócić do implementacji po wysłuchaniu opinii i wprowadzeniu zmian. Być może teraz postanowi się skontaktować z jakimikolwiek ekspertami, czego nie uczyniono podczas pierwszego podejścia. Głosy przeciwników i sceptyków były wręcz głośno wyszydzane w wewnętrznej komunikacji firmy.
Google oraz Microsoft stosują analizę treści uploadowanych do chmur Google, Azure oraz OneDrive. Analizatory pracują po stronie zaplecza technicznego chmury. Tymczasem oprogramowanie antywirusowe…
O tym już wkrótce.