fbpx
Joy Buolamwini fot. Steven Senne / AP / East News
Joy Buolamwini fot. Steven Senne / AP / East News
Ewa Drygalska październik 2022

Jak dyskryminują nowe technologie

Nikt nie jest wolny od uprzedzeń, wszyscy do pewnego stopnia je stosujemy. Stereotypy wbudowane w modele sztucznej inteligencji stają się jednak bardziej niebezpieczne niż nasze.

Artykuł z numeru

Co nam dają algorytmy?

Co nam dają algorytmy?

Czytaj także

Mark Zuckerberg awatar metawersum

Michał R. Wiśniewski

W bańkach rozdzieleni

Wyobraźmy sobie taką sytuację: poszukując pracy na stanowisku redaktora(-rki) miesięcznika „Znak”, oprócz CV i listu motywacyjnego rekruter prosi także o udostępnienie naszych profili w mediach społecznościowych. Celem jest sprawdzenie, czy nasza osobowość pasuje do kultury pracy w redakcji. Przechodząc do drugiego etapu, odbywamy zdalną rozmowę kwalifikacyjną, która analizowana jest m.in. przez sztuczną inteligencję pod kątem naszych reakcji i wyników testów psychologicznych. A te niepostrzeżenie rozwiązujemy podczas zadań rekrutacyjnych pod pozorem grania w gry komputerowe.

To nie opis jednego z odcinków serialu Black Mirror czy technologicznej fikcji, powstałej w głowach któregoś z autorów science fiction. To już powszechna praktyka stosowana przez duże korporacje przy zatrudnianiu kandydatów w Stanach Zjednoczonych. Wspomaganie działów osobowych wyspecjalizowanymi algorytmami i danymi dotyczącymi naszego stylu życia ma zapewnić szybkość procesu, bezstronność i równe szanse w zatrudnieniu. Czy aby na pewno?

Broń matematycznej zagłady

Problemy z „obiektywnymi” algorytmami rekrutacyjnymi opisuje m.in. Cathy O’Neil w głośnej książce Broń matematycznej zagłady. O’Neil – matematyczka, która przez lata pracowała w branży zajmującej się modelowaniem dużych zasobów danych – podaje w niej niezliczone przykłady wykorzystania algorytmów, które okazały się dalekie od przypisywanej im neutralności. Od usług publicznych przez zatrudnienie, ewaluację pracowników, rekrutację na studia, bankowość po aplikacje randkowe: algorytmy sztucznej inteligencji wykorzystywane są w coraz większej liczbie dziedzin naszego życia. Według Raportu ONZ z 2019 r. nowe technologie stosowane w polityce społecznej dotykają rosnącej liczby obywateli, tworząc nową koncepcję rządzenia nazywaną „cyfrowym welfare state”.

Czy tego chcemy, czy nie, pozostawiamy po sobie mnóstwo śladów, danych i informacji, które są następnie zestawiane, przetwarzane i modelowane w systemy rozpoznawania i kalkulowania ryzyka, nie pozostając bez wpływu na naszą codzienność. O’Neil, a z nią wiele innych badaczek udowadniały, że dynamicznie rozwijająca się branża AI (Artificial Intelligence), dostarczając przełomowych rozwiązań, nie tylko czyni nasze życie wygodniejszym i łatwiejszym, ale może mieć na nie także negatywny wpływ. Bez Big Data nie bylibyśmy w stanie zrozumieć planetarnej skali zmian klimatycznych, „zobaczyć”, jak wygląda czarna dziura, ani znaleźć czegokolwiek w przepastnej sieci internetu. Ale prospołecznie nastawieni naukowcy, aktywistki, prawniczki oraz technologiczni „sygnaliści” dostarczają coraz nowszych przykładów wykorzystania algorytmów w różnych systemach, które mają skutki dyskryminujące lub wprost posługują się uprzedzeniami. Nieprzejrzyste, wykorzystywane na masową skalę i niekiedy krzywdzące systemy O’Neil nazywa właśnie bronią matematycznej zagłady. Matematyka i statystyka mają bowiem znacznie większy wpływ na stan naszego konta, zdolność kredytową, awans lub zwolnienie z pracy, a w ekstremalnych przypadkach także na naszą wolność, niż nam się powszechnie wydaje.

Chcesz przeczytać artykuł do końca?

Zaloguj się, jeden tekst w miesiącu dostępny bezpłatnie.

Zaloguj się