Stworzyli AI do rozpoznawania płci. To nie mogło skończyć się dobrze
W czasach, gdy kwestie takie jak tożsamość płciowa czy parytety płci napędzają najgorętsze dyskusje, powierzenie określania płci AI stanowi przedsięwzięcie ryzykowne. Przekonuje się o tym właśnie pewien startup, który, jak twierdzi, chciał wspomóc agencje reklamy i innych marketingowców. Wyszło co najmniej niezręcznie.
29.07.2020 | aktual.: 29.07.2020 23:37
Platforma Genderify, bo o niej tu mowa, powstała w celu określania płci internautów na bazie nicku, imienia i nazwiska lub adresu e-mail. Zdaniem jej twórczyni, Arevik Gasparyan, może stanowić świetne narzędzie marketingu cyfrowego. Przykładowo, pozwolić administratorowi witryny na określenie dominującej grupy użytkowników, a co za tym idzie odpowiednie dostosowanie treści. Jest w tym jakaś logika, przyznajcie.
Sęk w tym, że oparta na sztucznej inteligencji usługa okazuje się bardzo niedokładna. Oczywiście nie pomaga anglosaski schemat nadawania imion, które często otrzymują zarówno mężczyźni, jak i kobiety. Niemniej to tylko wierzchołek góry lodowej. Model AI ma szereg absurdalnych niedociągnięć, co doprowadziło do oskarżenia autorki o... sabotaż.
Uderzając w emocje społeczne
Wpisz w Genderify frazę Megan Smith, a usługa z prawdopodobieństwem 60,4 proc. oceni, że mowa o kobiecie. Ale dodaj do nazwiska tytuł doktorski, a ocena zmieni się na mężczyznę przy prawdopodobieństwie 75,9 proc. To samo dzieje się w przypadku innych tytułów naukowych – wylicza The Verge. Co więcej, Mrs (Pani) Joan Smith to według Genderify w 94,1 proc. mężczyzna. Równie absurdalnie brzmi przypisanie właśnie mężczyznom adresu test@test.com – w 96,9 proc. Wniosek wydaje się jasny: program to po prostu chłam.
Tylko, jako iż temat płci to sprawa delikatna, twórczyni Genderify niespodziewanie wywołała efekt domina. Teraz stoi w centrum ataku lewicowych aktywistów i organizacji pozarządowych, które nie zostawiają na niej suchej nitki.
– Czy jesteśmy trollowani? Czy to już Prima aprilis? – pyta Meredith Whittaker z AI Now Institute, grupy zajmującej się badaniem etycznej strony sztucznej inteligencji. Zdaniem działaczki, Genderify to "celowa operacja psychologiczna mająca na celu odwrócenie uwagi od problemów prawnych w świecie technologii". W równie ostry sposób przyklaskują jej liczni użytkownicy mediów społecznościowych, gdzie autorka Genderify, Arevik Gasparyan, stała się dla wielu wrogiem publicznym numer jeden. "Bias AI w akcji" – to najdelikatniejsze z określeń.
Teraz – głowa w piasek
Co na to sama Gasparyan? Aktualnie chowa głowę w piasek, bo choć przyznaje się do błędów w działaniu Genderify, konkretnego rozwiązania zaproponować nie umie. Ukryła przy tym publiczne API swojej aplikacji. Witryna internetowa zwraca komunikat z błędem. A czy istotnie zawiniła? Cóż, zdania na ten temat będą zapewne podzielone. Z jednej strony kod istotnie nie realizuje zakładanej funkcji, z drugiej zaś – kiepskich narzędzi są setki tysięcy i nikt nie robi z tego powodu afery. Po prostu ich nie używa. Pech chciał, że trafiło na grząski grunt.