A A A

Sztuczna inteligencja ślepa na kolor skóry

29 lipca 2019, 14:50
Algorytmy rozpoznawania twarzy na podstawie zdjęć, skanujące imigrantów przybywających na statkach do Stanów Zjednoczonych, błędnie identyfikują czarnoskóre kobiety.
Sztuczna inteligencja ślepa na kolor skóry

Najnowsze testy porównawcze przeprowadzone przez amerykański Narodowy Instytut Standardów i Technologii (NIST – National Institute of Standards and Technology) ujawniają, że algorytmy wykorzystywane do badania przesiewowego imigrantów przybywających na statkach do Stanów Zjednoczonych nie radzą sobie z rozpoznawaniem kobiet o ciemniejszym kolorze skóry.

Im więcej pigmentu, tym więcej błędów
Badacze NIST stwierdzili w opublikowanym w lipcu raporcie, że dwa najnowsze algorytmy opracowane przez francuską firmę Idemia dziesięciokrotnie częściej mieszały twarze czarnoskórych kobiet niż białych. Jak twierdzi Joy Buolamwini z MIT, systemy, które rozpoznają płeć na podstawie zdjęć twarzy, radzą sobie z tym zadaniem niemal bezbłędnie w przypadku osób białych. Jednak im skóra ciemniejsza, tym częściej popełniane są błędy. Problemem może być jednak nie tylko kolor skóry, ale i płeć. Podobne testy demograficzne algorytmów rozpoznawania twarzy opublikowane dwa lata temu przez NIST pokazały, że sztuczna inteligencja częściej myli się w przypadku kobiet niż mężczyzn. Było to częściowo spowodowane makijażem widocznym na zdjęciach.

Z kolei w lutym amerykański Departament Bezpieczeństwa Wewnętrznego opublikował wyniki testów 11 komercyjnych systemów komputerowych do sprawdzenia tożsamości osoby w punktach kontroli bezpieczeństwa na lotniskach. W badaniach tych mierzono również ilość pigmentu w skórze kontrolowanych pasażerów. Testy pokazały, że wykorzystywane oprogramowanie dłużej przetwarzało dane osób o ciemniejszej skórze i było mniej dokładne w ich identyfikowaniu.


Rasistowskie algorytmy
Algorytmy widzenia komputerowego stają się z roku na rok coraz bardziej doskonałe. Badacze NIST stwierdzili, że systemy te radzą sobie 25 razy lepiej w znalezieniu konkretnej osoby w dużej bazie danych między niż jeszcze dziewięć  lat wcześniej. Jest to powodem, dla którego są one stosowane na coraz szerszą skalę, nie tylko w administracji publicznej, ale i w biznesie, a nawet implementowane w technologicznych gadżetach.

Jednocześnie jednak wyniki przedstawione przez amerykański instytut badawczy przypominają, że oprogramowanie to nie jest jeszcze dobre na tyle, by używać go na szeroka skalę. Jego przeciwnicy zarzucają tej technologii, że może być nośnikiem uprzedzeń rasowych, dotyczących płci czy statusu społecznego. Problem ten był wielokrotnie poruszany, m.in. przez naukowców MIT oraz podczas przesłuchań w Kongresie Stanów Zjednoczonych.

fot. Gerd Altmann/Pixabay

 


Katarzyna Bielińska
Ocena:
Oceń:
Komentarze (0)

Redakcja nie ponosi odpowiedzialności za treść komentarzy. Komentarze wyświetlane są od najnowszych.
Najnowsze aktualności




Załóż konto
Co daje konto w serwisie pcformat.pl?

Po założeniu konta otrzymujesz możliwość oceniania materiałów, uczestnictwa w życiu forum oraz komentowania artykułów i aktualności przy użyciu indywidualnego identyfikatora.

Załóż konto