REKLAMA

Niech ktoś powie twórcom systemów rozpoznawania twarzy, że czarne kobiety istnieją naprawdę

Narodowy Instytut Standardów i Technologii (NIST) Stanów Zjednoczonych przetestował niemal 200 programów do rozpoznawania twarzy. Większość z nich gorzej radzi sobie z rozpoznawaniem kobiet i osób o innym kolorze skóry niż kaukaska biel. 

23.12.2019 09.33
rozpoznawanie twarzy badania dokładności
REKLAMA
REKLAMA

Gdyby na świecie żyli tylko biali mężczyźni, programy do rozpoznawania twarzy działałyby świetnie. Niestety rzeczywistość znów nie chce współpracować.

Badacze przyjrzeli się 189 produktom oferowanym przez 99 producentów (wśród nich znalazł się między innymi Microsoft, Intel czy Panasonic). Wnioski z ich testów nie napawają optymizmem – skuteczność większości przebadanego oprogramowania zależy w dużej mierze z tego, jakiego kolory jest rozpoznawana twarz i czy należy do kobiety, czy mężczyzny. Różnice potrafią być ogromne i wahają się od 10-krotnie większej dokładności do 100-krotnie większej.

Przeprowadzono dwa test. W pierwszym badacze sprawdzali, czy program umie potwierdzić tożsamość danej osoby. Robiono to, prezentując mu dwa zdjęcia i pytając, czy przedstawiają one tę samą osobę. Z podobnymi zadaniami oprogramowanie musi sobie radzić na przykład przy odprawie paszportowej lub przy odblokowywaniu telefonu. W drugim teście program musiał znaleźć w bazie zdjęcie tej samej osoby, której fotografię pokazywali jej badacze. To z kolei symulowało zadanie, jakie stawiają przed swoimi programami choćby przedstawiciele prawa, każąc im sprawdzić, czy dana osoba występuje już w bazie podejrzanych. W tym wypadku pomyłka może mieć poważne negatywne konsekwencje.

Wyniki badań wskazują, że algorytmy gorzej radzą sobie z twarzami, które nie są białe i nie są męskie. Tworzone w Stanach Zjednoczonych algorytmy najgorzej radzą sobie z rozpoznawaniem twarzy rdzennych mieszkańców Ameryki. Wyjątkowo dużo trudności programom sprawiały też twarze ciemnoskórych kobiet.

Choć badacze nie chcieli wyrokować o przyczynach błędów w algorytmach, przyznają, że odpowiadać za ten stan rzeczy może to, o czym głośno mówili twórcy poprzednich raportów - diabeł tkwi w bazie danych, na której algorytm jest rozpoznawania twarzy uczony. Dlatego algorytmy tworzone przez Azjatyckie firmy lepiej radzą sobie z rozpoznawaniem twarzy częściej spotykanych w tamtym rejonie świata.

Koniec taryfy ulgowej. Czarodzieje nie są niewinni

REKLAMA

Jeszcze nie tak dawno można było bronić twórców tych programów. W końcu często wpisane w samo serce systemu uprzedzenie nie było wynikiem świadomego działania firmy i osób, które za rozwój algorytmu odpowiadają. Nikt złośliwie nie zapisał w kodzie, że kobiety i osoby czarnoskóre mają być gorzej rozpoznawane. Nie był to złowrogi spisek rasistów, nie było w nim męskiej walki o cyfrową dominację. Ot wszyło tak przypadkiem, do uczenia algorytmów były wykorzystywane bazy danych, w których dominowali biali mężczyźni. Zdarza się. Tylko że takiego myślenia dużo dłużej nie można tolerować.

Informacja o algorytmach utrwalających rasowe uprzedzenia to nie jest już wielka nowość. O tym, że algorytmy rozpoznawania twarzy nie radzą sobie ze wszystkimi tak samo, wielkie firmy technologiczne wiedzą. Najnowsze badanie nie tylko to potwierdza, ale też pokazuje, że za mało i za wolno cokolwiek się w tym względzie zmienia.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA