Apple wycofuje się z planu analizowania zdjęć na iPhone'ach

Po protestach ekspertów, alarmach w prasie, niepochlebnej analizie wstecznej, listach otwartych i akcjach fundacji EFF, Apple przestało forsować swój plan analizowania zdjęć bezpośrednio na iPhone'ach, po stronie klienta. Zamiast tego, przynajmniej na jakiś czas, firma decyduje się na zbieranie opinii fachowców, branży i klientów na temat swojego pomysłu. Dopiero po tym ma nastąpić próba ponownego wdrożenia rozwiązania.

Apple wycofuje się z planu analizowania zdjęć na iPhone'ach
Apple wycofuje się z planu analizowania zdjęć na iPhone'ach
Źródło zdjęć: © PxHere
Kamil J. Dudek

03.09.2021 23:55

Przypomnijmy, Apple zdecydował się wprowadzić w systemie iOS 15 analizator zdjęć uploadowanych do chmury iCloud, mający na celu wykrywanie nielegalnych materiałów z udziałem dzieci (przemoc, pornografia itp.). Ten chlubny cel miał jednak zostać zrealizowany z wykorzystaniem podważalnych etycznie i niebezpiecznych dla prywatności rozwiązań.

Lokalny algorytm

Przede wszystkim, skanowanie miało się odbywać jeszcze przed wysłaniem zdjęć do iCloud, aby wykluczyć obecność nielegalnych materiałów na serwerach Apple. Aby zrealizować taki cel, analiza zdjęcia musiałaby się odbywać bez udziału chmury Apple, co oznacza przetwarzanie w całości po stronie telefonu.

Zaktualizowana polityka Apple dot. ochrony dzieci
Zaktualizowana polityka Apple dot. ochrony dzieci© Apple | Kamil Dudek

Nie chcąc korzystać z algorytmów sztucznej inteligencji wykrywających osoby i akty, Apple zdecydowało się na stosowanie algorytmu uogólnionych sum kontrolnych (NeuralHash, zbliżone koncepcyjnie do PhotoDNA). Różnica między tymi podejściami polega na sposobie, w jaki prowadzą one do kolizji, czyli klasyfikowania niewinnych fotografii jako nielegalne.

Kolizje

Kolizje są niebezpieczne dla prywatności, ponieważ ich weryfikacja wymaga ręcznej ingerencji (zdjęcie muszą obejrzeć czyjeś oczy). W przypadku pierwszej metody, fałszywe alarmy będą dotyczyć zdjęć zawierających osoby. W drugim przypadku, produkowanie kolizji podlega całkowicie nieoczywistym regułom i do ręcznej analizy może dostać zaklasyfikowany niemal każdy plik.

Obraz
© Apple

Ponieważ algorytm stosuje (w uproszczeniu) bazę sum kontrolnych a nie przetrenowywany model, jego skuteczność opiera się na bezpieczeństwie bazy. I tu leży największy problem: nie da się stworzyć algorytmu do wykrywania "pornografii". Efektem bowiem będzie jedynie algorytm do wykrywania wzorca zgodnego z zadaną bazą. Co może być w tej bazie, kto za nią odpowiada, jaka jest gwarancja, że jest ta sama na całym świecie i skąd mamy pewność, że Apple nie podmieni/rozszerzy jej na "prośbę" któregoś z rządów - w przypadku wszystkich powyższych pytań jesteśmy zdani wyłącznie na dobra wolę i obietnicę Apple.

Nieprzychylni: Snowden i Dotcom

Edward Snowden oznajmił dobitnie na swoim blogu, że Apple idzie na wojnę z prywatnością i przekreśla dorobek polityki "what happens on iPhone, stays on iPhone". Uznał on podejście Apple za zwykłą nieodpowiedzialność - chęć wymiksowania się z bycia stroną w śledztwach dotyczących wykorzystywania seksualnego. Oskarżył Apple także o bezczelność: Craig Federighi, wysłany przez PR Cupertino na potrzeby "uspokojenia wrzeszczących tłumów" szef inżynierów Apple miał wedle Snowdena opowiadać bzdury i wyglądać jak żywa lalka Ken.

Mniej litości dla Apple miał za to Kim Dotcom, który wprost stwierdził, że NeuralHash to może nawet nie być pomysł Apple, a firma po prostu współpracuje z amerykańskimi służbami mającymi na celu stworzenie ogólnoświatowej sieci szpiegowskiej telefonów donoszących na swoich użytkowników. Dotcom od lat jest zdania, że po "trzyliterowych agencjach" z USA można spodziewać się wszystkiego, co najgorsze.

To nie koniec

Apple nie rezygnuje ze swojego planu w całości. Firma ma wrócić do implementacji po wysłuchaniu opinii i wprowadzeniu zmian. Być może teraz postanowi się skontaktować z jakimikolwiek ekspertami, czego nie uczyniono podczas pierwszego podejścia. Głosy przeciwników i sceptyków były wręcz głośno wyszydzane w wewnętrznej komunikacji firmy.

Google oraz Microsoft stosują analizę treści uploadowanych do chmur Google, Azure oraz OneDrive. Analizatory pracują po stronie zaplecza technicznego chmury. Tymczasem oprogramowanie antywirusowe…

O tym już wkrótce.

Programy

Zobacz więcej
Źródło artykułu:dobreprogramy
oprogramowanieiphoneprywatność
Wybrane dla Ciebie
Komentarze (8)