Widzisz różnicę między małpą i czarnoskórym? Google nie

Artykuł/Technologie 02.07.2015
Widzisz różnicę między małpą i czarnoskórym? Google nie

Mimo że Google nie raz potrafiło zaskoczyć swoich użytkowników jakością tworzonych przez siebie algorytmów, to i tak nie działają one idealnie. Boleśnie przekonał się o tym Jacky Alcine. Google Photos podpisał album ze zdjęciami jego czarnych przyjaciół jako… “Goryle”.

Główny zainteresowany podzielił się na Twitterze tym znaleziskiem i w wulgarnych słowach powiedział, co myśli o takiej pomyłce. Google przeprosiło Jacky’ego za tę pomyłkę i obiecało, że zrobi wszystko, by poprawić błąd w algorytmie. Póki co firma z Mountain View po prostu usunęło kategorię “Goryle”.

Dlatego jeśli macie w swojej chmurzę kolekcję zdjęć dalekich krewnych King-Konga, możecie mieć problem z komfortowym ich przeglądaniem. Przynajmniej przez jakiś czas. Google zapowiedział bowiem, że wprowadzi do systemu więcej zdjęć goryli, by system nauczył się odróżniać je od osób czarnoskórych.

Mniej zorientowanym w technice użytkownikom chciałem przypomnieć, że automatyczne tagowanie zdjęć to jedna z najciekawszych funkcji usługi Zdjęcia Google, która została wydana kilka tygodni temu. Dzięki temu możliwe jest o wiele łatwiejsze wyszukiwanie zdjęć tej samej osoby, podobnych obiektów i pochodzących z tego samego miejsca. Jest to rozwiązanie niezwykle wygodne, które ułatwia dzielenie sie ze znajomymi absolutnie wszystkimi zdjęciami jednego typu.

Nie jest to pierwszy problem tego typu

Całkiem niedawno Google wypuścił aplikację YouTube Kids, w której miały się pojawiać materiały przeznaczone tylko dla dzieci. Niestety okazało się, że poza dużą ilością reklam pojawiły się tam też materiały zawierające treści o podtekście seksualnym oraz żarty na temat pedofilii.

Także w tym przypadku Google stwierdził, że jest to problem algorytmu i obiecał, że go naprawi. Nawet usługa wyszukiwania głosowego początkowo działała bardzo źle i wiele osób się na nią skarżyło, jednak z czasem stała się całkiem użyteczna.

Jednego możemy być pewni – nie jest to ostatni skandal tego typu. Nasza technologia jest niedoskonała i tak naprawdę dopiero uczymy się tworzenia algorytmów. Dlatego Google powinien przywyknąć do tego typu problemów. One będą, ba, one muszą się pojawiać, by algorytmy stawały się coraz lepsze.

Problem ten może nam też uzmysłowić, w jak dużym stopniu nie rozumiemy siebie samych. Pamiętajmy, że różnego rodzaju algorytmy mają naśladować działanie ludzkiego umysłu i połączyć te możliwości z ogromną mocą obliczeniową komputerów. Google chce po prostu zrozumieć, w jaki sposób rozpoznajemy różnego rodzaju rzeczy i przypisujemy je do różnych kategorii.

Algorytm Google to na razie mało rozgarnięte dziecko

I to takie, które widziało za mało, by bez problemu rozpoznawać różnego rodzaju obiekty. Przykład ten może być niefortunny, ale mało rozgarnięte dziecko, które nigdy nie widziało osoby czarnoskórej, mogłoby mieć podobne skojarzenia. Należy jednak pamiętać, że tak jak dziecko, również algorytm Google niedługo nauczy się w lepszym stopniu odróżniać ludzi od zwierząt.

Wystarczy tylko dać mu więcej czasu i materiału do nauki. A my musimy stać się nieco bardziej wyrozumiali i uzmysłowić sobie, że maszynie jeszcze przez długi czas będzie brakować empatii, którą mają ludzie.

Trzeba o tym pamiętać nawet w tak niefortunnych sytuacjach jak ta.

*Grafika główna pochodzi z serwisu Shutterstock.

Dołącz do dyskusji

Advertisement