REKLAMA

SI nie zabierze nam pracy, bo... RODO. ChatGPT ma poważny problem

Skłonności czatbota od OpenAI do halucynacji mogą stać w sprzeczności względem europejskiego prawa. Zasada działania ChatGPT, według zarzutów, uniemożliwia dochodzenia praw związanych z tożsamością i zniesławieniem.

29.04.2024 14.14
ChatGPT RODO UE
REKLAMA

To nie jest pierwsza skarga na ChatGPT i nie pierwszy problem usługi na terenie Unii Europejskiej. Przez pewien czas groziło jej wręcz zniknięcie z rynku, choć OpenAI ostatecznie udało się dostosować usługę do wymogów europejskiego prawa… a przynajmniej tak się niektórym wydawało.

Do austriackiego urzędu wpłynęła bowiem skarga, która może mieć dla OpenAI poważne skutki. Jest ona związana nie tylko z ważnym prawnym zagadnieniem, ale też sposobem działania technologii Dużego Modelu Językowego (LLM).

REKLAMA

Ten, w olbrzymim uproszczeniu, działa nieco jak model statystyczny, określając prawdopodobieństwo wystąpienia danego słowa po już wygenerowanym. Skutkiem ubocznym takiego podejścia jest skłonność do tak zwanych halucynacji: czyli generowania bzdurnych informacji w tonie, jakby były prawdziwe. Firmy zajmujące się LLM-ami inwestują mnóstwo środków w rozwój technologii Dużych Modeli, by rzeczone halucynacje wyeliminować. Nietrudno jednak skłonić ChatGPT do generowania bzdur. W tym na cudzy temat - a to już poważniejszy problem.

Czytaj też:

W myśl RODO każdy może żądać skorygowania informacji na swój temat. Sęk w tym, że OpenAI na dziś tego nie potrafi

Zajmująca się ochroną prywatności użytkowników non-profitowa organizacja Noyb złożyła do austriackiego urzędu skargę na OpenAI, w imieniu anonimowej osoby (o której wiadomo tyle, że jest osobą publiczną). Według skargi, ChatGPT wygenerował błędną datę urodzenia tej osoby. RODO zapewnia obywatelom Unii Europejskiej prawo do żądania korekty informacji na swój temat, a owe żądania muszą być rozpatrywane. Podmiotom, które łamią RODO, grozi kara nawet w kwocie 4 proc. ich rocznego całkowitego globalnego obrotu.

Tymczasem OpenAI odmówiło korekty, tłumacząc, że nie ma technicznej możliwości poprawienia tej informacji. Firma w zamian zaproponowała założenie filtra na nazwisko poszkodowanej osoby, by ChatGPT przestał odpowiadać na związane z nią pytania.

REKLAMA

Jeżeli skarga zostanie rozpatrzona pozytywnie, a Austria jak wiadomo jest krajem członkowskim Unii Europejskiej – to oznacza to duży problem dla firmy. OpenAI dostosował się do europejskich wymogów i zapewnia prawo do bycia zapomnianym (czyli możliwość wymazania swojej tożsamości z bazy danych danej firmy). Nie zapewnia jednak Żądanie Dostępu do Danych Osobowych (SAR), czyli prawa, które przysługuje każdemu, aby dowiedzieć się, jakie informacje osobowe o nim przechowuje i przetwarza dana organizacja.

OpenAI na razie nie odniósł się do zarzutów. Nie zrobił tego też póki co Microsoft, główny inwestor OpenAI i jeden z głównych beneficjentów opracowywanych w tej firmie technologii.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA