Sztuczna inteligencja do wykrywania twarzy okazała się seksistowska i rasistowska

Sztuczna inteligencja do wykrywania twarzy okazała się seksistowska i rasistowska

Naukowcy z Massachusetts Institute of Technology i Stanford zbadali trzy popularne komercyjne algorytmy sztucznej inteligencji w rozpoznawaniu twarzy i ujawniły w nich oznaki seksizmu i rasizmu. Okazało się, że analizując zdjęcia białych mężczyzn, algorytmy błędnie określiły płeć tylko w 0,8% przypadków, a w przypadku ciemnoskórych kobiet – w 34,7%. Szczegóły badania zostały przedstawione przez Science Daily

Joy Buolamvini, główny autor badania, po raz pierwszy napotkał problem algorytmów uprzedzeń kilka lat temu. W ramach projektu dyplomowego wykorzystała komercyjny program do rozpoznawania twarzy. Zespół Joy był zróżnicowany etnicznie i rasowo, w trakcie pracy okazało się, że algorytm niezawodnie działa tylko z jego jedynym białym uczestnikiem. Buolamvini, sama ciemnoskóra, próbowała przeanalizować własne zdjęcia i okazało się, że system albo nie rozpoznaje jej twarzy, albo błędnie określa płeć.

Aby systematycznie badać takie błędy, badacz zebrał kolekcję obrazów, w których czarni i kobiety byli prezentowani znacznie lepiej niż w standardowych testach używanych do testowania systemów rozpoznawania twarzy. W sumie kolekcja miała ponad 1200 zdjęć. Wszystkie zdjęcia zostały następnie ocenione na skali odcieni skóry Fitzpatricka.

Kolekcja została wykorzystana do przetestowania trzech komercyjnych systemów rozpoznawania twarzy stworzonych przez wiodące korporacje technologiczne. Okazało się, że wszystkie działają znacznie dokładniej ze zdjęciami białych mężczyzn, a w przypadku kobiet i czarnych odsetek błędów wzrasta. W przypadku kobiet o ciemnej skórze – o wartości IV, V lub VI w skali Fitzpatricka, poziom błędu wynosił odpowiednio 20,8%, 34,5% i 34,7%. W rzeczywistości w wielu przypadkach system podejmował decyzje losowo.

W badaniu poruszono ważne pytanie dotyczące pracy nowoczesnych sieci neuronowych i wyboru danych do uczenia maszynowego. W analizie wykorzystano tylko trzy programy komercyjne, ale inne popularne algorytmy określające płeć, wiek i nastrój, a także te używane do porównywania twarzy na różnych fotografiach, mogą napotkać podobne problemy.

Według niektórych ekspertów dyskryminacja w IT, czy to rasizm, czy seksizm, utrudnia rozwój technologii i przyczynia się do utrzymywania się nierówności na całym świecie. Walkę z seksizmem nazwano nawet jednym z głównych trendów determinujących rozwój branży w 2017 r.

Powiązane wiadomości