Czy Siri jest rasistką? Naukowcy próbowali to udowodnić
W czasopiśmie naukowym Proceedings of National Academy of Sciences opublikowano badanie, którego tytuł sugeruje, że systemy rozpoznawania mowy mają skłonności rasistowskie. Mechanizm wykorzystywany przez Siri dokonał błędnej identyfikacji w 23 proc. wypowiedzi białych ludzi i w 45 proc. pochodzenia afrykańskiego. Coś jest na rzeczy, ale problem nie pojawia się na tle rasowym.
Badanie przeprowadzono na mechanizmach stosowanych przez Amazon, Apple, Google, IBM oraz Microsoft. W łącznych statystykach, 35 proc. słów wypowiadanych przez osoby czarnoskóre, zostało błędnie zidentyfikowanych. W przypadku osób o białym kolorze skóry liczba była znacznie mniejsza - 19 proc. Badania przeprowadzono na przełomie maja i czerwca 2019 roku.
Jednak nie testowano bezpośrednio Siri, Alexy czy Asystenta Google. Naukowcy wykorzystali narzędzia do rozpoznawania mowy, które udostępniają firmy zewnętrzne, czyli podwykonawcy tych korporacji. Firmy takie jak Google czy Apple wykorzystują je do tworzenia własnych technologii. Tym samym ich produkty prawdopodobnie posiadają podobne wady.
Jak zauważył New York Times, mowa Afroamerykanów biorących udział w badaniu, zawierała sporo słów afrykańsko-amerykańskich. Część z nich to po prostu slang w języku angielskim. I głównie to wpłynęło na skalę błędu. Gdy te same zdania wypowiedziały osoby białoskóre, nieodpowiednia interpretacja słów wypadła na tym samym poziomie.
Badacze udowodnili jedynie uprzedzenia co do stosowanej terminologii, a nie akcentów czy głosów na podstawie pochodzenia. Jak widać, systemy rozpoznawania mowy nie radzą sobie ze slangiem, który coraz częściej staje się elementem mowy powszechnej.
W badaniu najlepiej wypadł system rozpoznawania mowy wykorzystywany przez Microsoft. Zaledwie 15 proc. błędów dla białoskórych i około 27 proc. dla czarnoskórych. Najgorzej poradził sobie system Apple'a. Stosowana w Siri technologia błędnie zinterpretowała 23 proc. słów białoskórych oraz 45 proc. czarnoskórych.