Szukasz pracy? Dobra rada: usuń Facebooka i nie wychylaj się w sieci

Szukasz pracy. Wysyłasz CV z listem motywacyjnym i niecierpliwie czekasz, aż docelowa firma się odezwie. Ale zanim ktokolwiek w ogóle zacznie rozpatrywać twoją aplikację, możesz zostać prześwietlony/a w sieci przez sztuczną inteligencję. Robot oceni, czy szanujesz wartości firmy i jakim jesteś naprawdę człowiekiem.

Pracodawcy często prześwietlają social media przy rekrutacji, fot. Glen Carie / Unsplash
Pracodawcy często prześwietlają social media przy rekrutacji, fot. Glen Carie / Unsplash

Ostatnimi czasy całkiem popularne stało się wypominanie starych tweetów osobistościom ze świata show-biznesu. W ten sposób Disney zwolnił Jamesa Gunna z posady reżysera "Strażników Galaktyki 3" za wpisy, które sięgały niemal dziesięć lat wstecz. W obecnych czasach, kiedy wrażliwość społeczna na platformach typu Twitter ukształtowana jest w dużej mierze przez akcje typu #metoo, stare wpisy Gunna łatwo było uznać za obraźliwe i czuć się nimi urażonym.

Prowokator nurtu alt-right i guru teorii spiskowych, Mike Cernovich (ten od Pizzagate), wziął sobie Gunna (liberała, nieprzepadającego za Trumpem i Republikanami) za cel i dopiął swojego – niemal zniszczył mu karierę.

Innym razem, także liczące sobie niemal dekadę wpisy na Twitterze, pogrążyły kolejnego celebrytę, komika Kevina Harta, który został wybrany na gospodarza ceremonii rozdania Oscarów w 2019 roku. Bardzo szybko trafił jednak pod ścianę za kilka homofobicznych tweetów z 2010 i 2011 roku, ostatecznie rezygnując z roli gospodarza imprezy.

Znów ta sztuczna inteligencja

Te dwa przykłady obrazują, jak człowieka na bazie jego zachowania w mediach społecznościowych mogą ocenić inni ludzie. Co jeśli jednak sytuacja dotyczyłaby nie celebryty, lecz zwykłego, szarego człowieka? Co się stanie, gdy nasze zachowanie w mediach społecznościowych prześwietlaliby nie ludzie, lecz maszyny? Do takich sytuacji dochodzi coraz częściej, a skutki tego na własnej skórze odczuła Kate LeFranc, doktorantka teologii, która ubiegała się o stanowisko prowadzącej seminarium teologiczne w Berkeley.

Jak się okazuje, częścią procesu rekrutacyjnego było również prześwietlenie przeszłości potencjalnego pracownika. Za ten element rekrutacji odpowiedzialna była firma Sterling Direct, która skorzystała z usług Fama Technologies, dostawcy oprogramowania Fama do weryfikacji historii pracowników. Zarówno tych aplikujących, jak i już zatrudnionych. Opartego na sztucznej inteligencji. Firma twierdzi, że jej narzędzie zmniejsza ryzyko zatrudnienia "niewłaściwej osoby" oraz pomaga wyeliminować "toksyczne zachowanie".

Fama Technologies, dostawca oprogramowania do weryfikacji pracowników, fot. Materiały prasowe Fama
Fama Technologies, dostawca oprogramowania do weryfikacji pracowników, fot. Materiały prasowe Fama

Historia pewnej pani teolog

W ramach rekrutacji LeFranc otrzymała raport na 351 stron zawierający dokonaną bez jej wiedzy ani zgody analizę każdego polubionego przez nią wpisu na Twitterze ze słowem "fuck". W końcu nauczycielce teologii nie wypada, prawda? Sęk w tym, że w założeniu wyrafinowane narzędzie stworzyło sprawozdanie, które można określić kolokwialnie mianem "łopatologicznego".

Rezultaty widoczne w raporcie opierały się bowiem na prymitywnym dopasowywaniu fraz do wzorców, kompletnie nie biorąc pod uwagę kontekstu. Maszyny nie rozumiały sarkazmu, ironii, dowcipu. Doprowadziło to do takich absurdów, jak oznaczenie wpisu o charakterze teologicznym zawierającym słowo "piekło" jako negatywny. Albo w drugą stronę – gdy wypunktowała zakłamanie miliarderów w przekazywaniu pieniędzy na cele charytatywne, algorytm uznał, że ten wpis ma charakter pozytywny ("pomaganie innym").

Warto zaznaczyć, że już od dłuższego czasu algorytmy flagujące potencjalne naruszenie praw autorskich są stosowane na YouTube i wielokrotnie działały one w błędny sposób.

Pomijają zagrożenia, robią interes

Powyższa anegdota o sprawdzaniu historii mediów społecznościowych przez algorytm AI pozostaje na razie tylko anegdotą, ale nosi znamiona dystopii, niczym odcinek "Czarnego lustra" albo filmu "Alphaville" Godarda. Los człowieka pozostawiony w rękach maszyny, która swoje osądy wydaje wyłącznie na podstawie bardzo wąsko zdefiniowanych kryteriów. Nawet gdy ostatecznie decyzję podejmuje człowiek – co jeśli podejdzie do sytuacji w równie szablonowy sposób? Firma może w ten sposób stracić kandydata, który mógłby okazać się geniuszem.

Historia Kate LeFranc rzuca światło na wprowadzanie najnowszych technologii, które teoretycznie mają usprawniać kolejne dziedziny życia. Nie wiadomo dokładnie, na jaką skalę wykorzystuje się obecnie tego typu zautomatyzowane narzędzia – co jeśli jednak będzie to coraz częstsze zjawisko? Według badania przeprowadzonego przez Career Build w 2017 roku, 70 proc. pracodawców w USA analizuje social media przy zatrudnianiu.

W roku 2018 wartość rynku usług analitycznych HR przekroczyła 6 miliardów dolarów, a do roku 2026 ma przekroczyć próg 10 mld dol. Jak podaje portal People Management, z końcem 2017 roku na rynku istniało ponad 100 analitycznych narzędzi HR wykorzystujących algorytmy do rekrutacji.

Zaufanie. Ale do czego lub kogo?

Czy można ufać wyłącznie algorytmom? Nawet jeśli takie technologie, jak Fama miałyby znaleźć szersze zastosowanie, potrzebny jest jeszcze czynnik ludzki. Ale tutaj, ponownie, mamy do czynienia z innego rodzaju problemem.

Niedawne bolączki Facebooka z moderacją dowiodły tego, że nawet tak gigantyczna korporacja nie jest w stanie przejrzeć wszystkich podejrzanych wpisów na bieżąco. Czy kierujące się (w wielu przypadkach) pobudkami czysto kapitalistycznymi firmy pozwolą sobie na dodatkową "żywą" moderację, która pochłania dodatkowy czas i pieniądze?

Wszystko to może w przyszłości sprawić, że ludzie – dla świętego spokoju – będą po prostu masowo kasowali konta z social mediów. Kto wie, może przy okazji odkryją inne uroki bycia offline.

Programy

Zobacz więcej
Wybrane dla Ciebie
Komentarze (93)