Algorytmiczna moralność: kogo ma zabić samoprowadzące się auto?

Samoprowadzące się auta przestały być już tylko fantazją, a nawettylko eksperymentem. Nawet seryjnie produkowane Tesle Model Sotrzymały ostatnio aktualizację oprogramowania, pozwalającą im naporuszanie się po drodze bez angażowania ludzkiego kierowcy.Najbliższe lata mogą przynieść tylko dalsze ulepszeniasamochodowych autopilotów – techniczne problemy albo zostałyrozwiązane, albo będą rozwiązane. Jednak o tym, czy pojazdy takierzeczywiście zapełnią nasze drogi może zadecydować nie technika,lecz etyka i idące za nią regulacje prawne. Przeprowadzone w tejdziedzinie przez francuskich uczonych badania pokazują jednak, żeproducenci samochodów i systemów komputerowych do samosterowanianie mają pojęcia, jak zalgorytmizować etykę.

Algorytmiczna moralność: kogo ma zabić samoprowadzące się auto?

Auto nie jest zabawką. Nawet ważący trzy czwarte tony maleńkiDaewoo Matiz z pięćdziesięciokonnym silniczkiem może zabićpieszych czy rowerzystów (nie mówiąc już o swoich pasażerach), aco dopiero wielkie SUV-y z silnikami o mocy kilkuset koni. Gdy autootrzymuje system komputerowego sterowania, prowadzi się oszczędniejniż człowiek, i jak twierdzą zwolennicy takich pojazdów,bezpieczniej. Prowadzone przez Google testy autonomicznych autpokazały, że po przejechaniu ponad miliona mil 23 pojazdy wzięłyudział w zaledwie 14 pomniejszych wypadkach na drogach publicznych –ani razu z winy sterującego nimi oprogramowania. Tylko razpasażerowie zostali lekko ranni, gdy ktoś wjechał w tył autaGoogle. Wyniki to piękne, do momentu, gdy uświadomimy sobie, jakiewarunki drogowe panują w Kalifornii. Ruch drogowy w porządnejśnieżycy czy podczas oberwania chmury wygląda przecież zupełnieinaczej. Samoprowadzące się auta są bezpieczne, ale nie oznaczato, że są tak bezpieczne, by zawsze móc uniknąć możliwych nadrodze zagrożeń. Co więcej – bywają sytuacje, gdy właśniepróba uniknięcia zagrożenia prowadzi do katastrofy.

Są pytania, na które ludzie z firm pracujących nadsamoprowadzącymi się autami nie bardzo chcą odpowiadać. Co autopowinno zrobić w sytuacji, gdy wypadek jest nieunikniony? Jakimikryteriami kierować się podczas takiej decyzji? Założenie„chronić ludzkie życie” jest w wielu sytuacjach pustym frazesem– co jeśli musimy wybierać pomiędzy życiem jednej osoby adrugiej? Co jeśli musimy wybierać między życiem swoim adziesięciu obcych?

Obraz

Przedstawiony przez francuskiego psychologa Jean-FrancoisaBonnefona dylematbrzmi całkiem realistycznie: załóżmy, że w przyszłości jesteśwłaścicielem samoprowadzącego się pojazdu. Pewnego dnia dochodzido nieszczęśliwego zbiegu okoliczności, w wyniku którego naprzejściu dla pieszych pojawia się niespodziewanie grupa ludzi (np.doszło do awarii świateł). Twoje auto jedzie szybko, jednak zdopuszczalną prędkością. Hamowanie już nic nie da – jeśliauto nie skręci, wjedzie w grupę dziesięciu ludzi, najpewniej ichzabijając. Jeśli skręci, wjedzie w betonową ścianę, alezderzenie zabije ciebie. Co w tej sytuacji powinien zrobić algorytm?

Moralni utylitaryści powiedzą zapewne, że algorytm powinienkierować się zasadą większego dobra, minimalizować straty wludzkim życiu. Wybór wydaje się prosty, jedno życie za życiedziesięciu. Kto jednak kupi auto, które jest zaprogramowane tak, byzabić swojego pasażera w razie wypadku? Utylitarysta, optujący zasamoprowadzącymi się autami w imię ich większego bezpieczeństwanagle znalazł się w paradoksalnej sytuacji – skoro mniej ludzikupuje takie pojazdy, ponieważ mogą one zabić swoich pasażerów,to więcej ludzi będzie ginęło w kolizjach z udziałem klasycznychaut. Czy zatem należy zaprogramować auta tak, by zabijały większegrupy postronnych pieszych, zamiast jednego pasażera?

Bonnefon wraz ze swoimi kolegami z Toulouse School of Economicsnie chcą mówić, które rozwiązanie jest dobre, a które złe.Empirycznie badają (deklarowaną) moralność jednostek, by ustalić,do czego ludzie są skłonni. W swoim eksperymencie wykorzystalikilkuset pracowników usługi Amazon Mechanical Turk, każąc imrozstrzygać w podobnych do powyżej przedstawionego scenariuszach,różniących się takimi detalami jak liczba uczestników wypadkuczy rola, jaką pytany miał w nim odgrywać.

Nikt chyba nie będzie zaskoczony, jeśli okaże się, że ludziompodobał się pomysł, by samoprowadzące się auta minimalizowałyliczbę ofiar – do momentu, w którym to nie oni sami mielibyzginąć. Co ciekawe jednak, praktycznie nikt nie sądził, byktokolwiek w rzeczywistości auta tak zaprogramował. Wygląda na to,że każdy chce, by to inni jeździli w kierujących sięutylitarystyczną etyką autach, a nikt nie chce sam takiego autakupić.

A to przecież dopiero wierzchołek góry lodowej. Bonnefonzauważa, że trudnych pytań jest więcej. Czy samoprowadzące sięauto powinno uniknąć zderzenia z motocyklem przez wjechanie wścianę, wiedząc, że prawdopodobieństwo przeżycia w takimwypadku motocyklisty jest znacznie mniejsze od prawdopodobieństwaprzeżycia pasażera auta? Czy należy podejmować inne decyzje,jeśli w tym równaniu pojawią się dzieci? A może producentpowinien zaoferować właścicielowi pojazdu kilka algorytmów dowyboru? Jeśli zaś tak by było, to czy właściciel ponosiłbymoralną (i prawną) odpowiedzialność za to, który z algorytmówwybrał?

Łatwych odpowiedzi na te trudne pytania nie będzie, tymbardziej, że po dyskusjach w Sieci widać, że uniwersalnejodpowiedzi, która odpowiadałaby wszystkim, być tu nie może. Każdyma swoje sumienie i nawet w niektórych sytuacjach ludzie mogą byćgotowi poświęcić swoje życie, o ile ocali to życie np. ichdzieci. Co jednak, jeśli w wypadku auto będzie musiało wybieraćmiędzy życiem ukochanej żony właściciela, a życiem jego małegodziecka? A jeśli dzieci będzie dwoje, małe i duże? Dzisiaj, gdystoimy przed wizją wprowadzenia milionów autonomicznych pojazdówna takie drogi, wcześniej czy później algorytmicznerozstrzygnięcia tych kwestii staną się konieczne. Jest to niemniej istotne, niż poradzenie sobie z trudnymi warunkamiatmosferycznymi.

Programy

Zobacz więcej
Wybrane dla Ciebie
Komentarze (134)