REKLAMA

Dyskusja o technologii bez kobiet to obciach. Polska naukowczyni mówi, że od równości nie ma odwrotu

Rozwój AI bez udziału kobiet jest niczym założenie, że zaprojektujemy całkowicie bezpieczne pojazdy, testując pasy bezpieczeństwa tylko na mężczyznach. W takich słowach doktor Karolina Kulicka, kierownik pionu rozwoju naukowego w NASK, podsumowuje w rozmowie ze Spider's Web rolę kobiet w świecie sztucznej inteligencji.

08.03.2024 11.21
Dyskusja o technologii bez kobiet to obciach. Polska naukowczyni mówi, że od równości nie ma odwrotu
REKLAMA

8 marca to dzień, w którym nie tylko obdarowujemy ważne w naszym życiu kobiety prezentami, ale i gdy nasze myśli i rozważania kierują się w stronę kobiet, które zmieniły świat. Marii Skłodowskiej-Curie nie trzeba nikomu przedstawiać, a z kolei każdy entuzjasta technologii i komputerów doskonale zna postać Ady Lovelace. Natomiast sukcesy większości załogowych misji NASA zawdzięczamy matematyczce Katherine Johnson.

Uczenie maszynowe i rozwój sztucznej inteligencji również wiele zawdzięczają kobietom, takim jak doktor Karolina Kulicka, kierowniczka w biurze rozwoju nauki Naukowej i Akademickiej Sieci Komputerowej (NASK).

REKLAMA

AI na szpilkach. Kobiety liczą się w uczeniu maszynowym i sztucznej inteligencji

Doktor Karolina Kulicka ukończyła studia doktorskie na Uniwersytecie Stanowym Nowy Jork w Buffalo, a jej zainteresowania badawcze to m.in. zarządzanie organizacjami, równość płci, stereotypy w sztucznej inteligencji i uczeniu maszynowym. Pomimo uzyskania tytułu doktora na amerykańskiej uczelni, dr Kulicka aktywnie łączy doświadczenie w sektorze prywatnym, publicznym (m.in. Ministerstwo Finansów, Narodowe Centrum Badań i Rozwoju) oraz naukowym, pracując dla NASK. Jej badania zostały nagrodzone m.in.: International Peace Scholarship, Social Impact Fellowship, UB Humanities Institute Fellowship, Outstanding Article Award in Administrative Theory and Praxis.

Dziedzina uczenia maszynowego i sztucznej inteligencji posiada licznych badaczy i badaczki, jednakże sama Karolina Kulicka wspomina, iż nie jest entuzjastką "wyróżniania tzw. gwiazd naukowych".

- Dziesiątki tysięcy kobiet pracują nad technologiami AI jako programistki, naukowczynie, ale w pamięci i Wikipedii często zostaje odnotowane jedno nazwisko, najczęściej mężczyzny

- mówi.

Mimo to wspomina kilka nazwisk, które inspirowały ją w ostatnich latach - i nie tylko. Mowa tu o m.in. dr Joy Boulamwini z Masachusetts Institue of Technology, założycielce organizacji Algorithmic Justice League, której badania na temat błędów w systemach rozpoznawania twarzy (a których źródłem są stereotypy i uprzedzenia rasowe czy płciowe) doprowadziły do ustalenia nowych norm prawnych w Stanach Zjednoczonych.

Tym samym praca dr Boulamwini przyczyniła się do ochrony interesów grup mniej uprzywilejowanych w procesie rozwoju technologii sztucznej inteligencji. Natomiast jako fascynującą dr Kulicka opisała pracę profesor Kate Crawford, założycielki Instytutu AI Now i autorki książki Atlas of AI, poświęconej wpływowi rozwoju technologii AI na zasoby naturalne i zmiany klimatu.

- Jeśli chodzi o mój rodzimy instytut - NASK, to wiele ciekawych tematów badawczych z obszaru AI podejmują młode naukowczynie. Nie sposób wymienić je wszystkie, ale z ciekawością patrzę na pracę zespołu dr inż. Eweliny Bartuzi-Trokielewicz, którego celem jest dostarczenie narzędzi pozwalających bronić się przed deepfejkami. Zespół pracujący w NASK nad polskim modelem językowym, pod wodzą dr Agnieszki Karlińskiej, również składa się w zdecydowanej większości z naukowczyń.

Jednak NASK stanowi wyjątek w dziedzinie uczenia maszynowego i sztucznej inteligencji. Według danych przedstawionych przez Światowe Forum Ekonomiczne w 2022 roku, tylko 22 proc. ze wszystkich profesjonalistów zajmujących się AI to kobiety. Z kolei 13,83 proc. wszystkich publikacji naukowych dotyczących uczenia maszynowego i sztucznej inteligencji zostało opublikowane przez kobiety.

Według Karoliny Kulickiej powodów tego zjawiska możemy upatrywać już w dzieciństwie, gdy dzieciom - nawet nieumyślnie - przekazuje się stereotypowe podziały ról na damskie i męskie.

- Badanie D. Chambersa "Draw a Scientist" pokazuje, że już dzieci w przedszkolach poproszone o narysowanie osoby zajmującej się nauką, rysują postać męską. Na lekcjach matematyki, dziewczynki, mimo że podnoszą rękę do odpowiedzi, są rzadziej pytane niż chłopcy. Ogłoszenia rekrutacyjne formułowane są w formie męskoosobowej. Zdarza się, że narzędzia rekrutacyjne oparte o AI promują aplikacje mężczyzn a odrzucają kobiet. Ogłoszenia o pracy w AI czasem wręcz w ogóle nie wyświetlają się kobietom.

- zauważa Kulicka.

Zdaniem naukowczyni, stereotypowy podział widoczny jest także w życiu zawodowym, gdzie podczas rekrutacji na stanowiska IT "kobiety muszą przezwyciężać stereotypy i wykazać się wyższymi kompetencjami niż mężczyźni", a podczas samej pracy doświadczają one dyskryminacji i seksistowskich uwag oraz docinków.

Jako skuteczny sposób na zbalansowanie proporcji kobiet do mężczyzn w zatrudnieniu i działalności w dziedzinie uczenia maszynowego i sztucznej inteligencji - ale i branży IT jako takiej, Kulicka proponuje nie tylko wypłacanie takich samych wynagrodzeń, ale także stosowanie feminatywów w ogłoszeniach rekrutacyjnych czy walkę z mobbingiem, dyskryminacją i seksizmem. Według naukowczyni NASK ważnym jest także unikanie budowania hierarchicznych organizacji, doceniane i dziękowanie za wkład, pracę, pomysły i inicjatywy, ale i dbanie o reprezentację obu płci podczas dyskursu eksperckiego.

- W dzisiejszych czasach dyskusje o sztucznej inteligencji, cyberbezpieczeństwie i IT bez kobiet to już naprawdę obciach

Rozwój AI bez kobiet jest niczym założenie, że tylko mężczyźni wsiadają do samochodów

Ale dlaczego w ogóle dążenie do wyrównania proporcji kobiet do mężczyzn jest ważne dla rozwoju AI? Jak mówi dr Karolina Kulicka, "nie ma czegoś takiego jak uniwersalny użytkownik przestrzeni" i by tworzyć uniwersalnie dobre rozwiązania, potrzebna jest mnogość głosów i pomysłów reprezentująca różne płcie, neurotypy, wiek czy orientacje seksualne.

Ten problem dr Karolina Kulicka wyjaśniła na przykładzie z życia wziętym - projektowaniu pasów bezpieczeństwa w samochodach.

- Projektowanie rozwiązań AI bez włączenia w ten proces różnorodnych grup z ich potrzebami ma mniej więcej taki sam sens jak zaprojektowanie pasów bezpieczeństwa w samochodzie dostosowanych wyłącznie do ciała dorosłego mężczyzny. Większość osób w takim samochodzie bezpieczna nie będzie.

Różnorodność w zespołach tworzących AI, pozwalają na spojrzenie na problemy z szerszej perspektywy, wyłapywanie błędów czy luk. Zatrudnianie kobiet tak przy pracy nad sztuczną inteligencją, jak i do pracy naukowej czy twórczej przyczynia się do tworzenia lepszych projektów.

Różnorodność to remedium także na uprzedzenia

Mówiąc o roli kobiet w świecie uczenia maszynowego i sztucznej inteligencji trudno przemilczeć problem uprzedzeń. Bowiem algorytmy powielają wiele stereotypów, wykazując je choćby przy okazji preferowania mężczyzn podczas rekrutacji czy oferowania niższych stawek za ubezpieczenie osobom o białym kolorze skóry. W codziennej rzeczywistości widzimy je choćby szukając zdjęć nauczycieli w wyszukiwarce, a które w większości sugerują fotografie kobiet.

Tu Karolina Kulicka przytoczyła słowa wieloletniego szefa pionu AI w Google, według którego to nie zabójcze roboty, a uprzedzenia algorytmiczne są największym zagrożeniem w rozwoju sztucznej inteligencji.

- Jest wiele przykładów projektów, które kosztowały miliony dolarów ale nie udały się właśnie ze względu na błędne założenia, mylenie korelacji ze związkiem przyczynowo-skutkowym, testowanie technologii na zbyt jednorodnej grupie pod względem pod względem płci czy koloru skóry.

Odpowiedzią na ten problem ma być właśnie wspomniana wcześniej różnorodność zespołów pracujących nad sztuczną inteligencją. Poprzez zespół naukowczyni rozumie zarówno pracowników naukowych i deweloperów oprogramowania, jak i testerów gotowych technologii. Na nią samą wpływ także miało doświadczenie, jakie zdobyła podczas pracy na Uniwersytecie Stanu Nowy Jork.

- Widziałam silne dążenie uczelni, żeby programy kształcenia studentek i studentów IT uwzględniały temat unikania wpływu uprzedzeń płciowych, rasowych i innych na decyzje w projekcie i dobór danych w tworzonych rozwiązaniach.

Jak będzie w przyszłości? Z pewnością równo

Choć poszczególne kraje pracują nad własnymi regulacjami dot. tworzenia i wykorzystania technologii używających uczenia maszynowego i sztucznej inteligencji, to obecnie nie istnieje światowy standard praktyk i przepisów w tej dziedzinie. Jednak obecnie tworzą się pewne niepisane zasady, a jak mówi doktor Kulicka, jedną z nich jest właśnie podejście do stereotypów płciowych. A to ze względu na błędy i straty jakie generuje.

- Z drugiej strony, prace nad rozwojem sztucznej inteligencji są przykładem podejścia Move fast and break things – jak najszybciej rozwijamy nową technologię, a o skutki i konsekwencje martwmy się później. Takie podejście może przynieść nieodwracalne krzywdy i szkody. Mam nadzieję, że unijny AI ACT, czyli nowe prawo europejskie w tej sprawie rozwoju AI, pozwoli projektować bardziej bezpieczne i włączające systemy dla wszystkich.

REKLAMA

Więcej na temat sztucznej inteligencji:

REKLAMA
Najnowsze
Aktualizacja: tydzień temu
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA