Testując autonomiczne pojazdy, testujemy nasze zaufanie do AI i przerabiamy lekcję etyki

Artykuł/Motoryzacja 05.04.2019
Testując autonomiczne pojazdy, testujemy nasze zaufanie do AI i przerabiamy lekcję etyki

Testując autonomiczne pojazdy, testujemy nasze zaufanie do AI i przerabiamy lekcję etyki

Takie pojęcia, jak algorytm czy robotyzacja często budzą skrajne, wręcz nieracjonalne reakcje. Fascynacji towarzyszy często niemal dziecięcy lęk. Nie dziwi mnie to. Doświadczamy globalnego cywilizacyjno – kulturowego przełomu, więc nawet przesadzona, emocjonalna troska o teraźniejszość, a tym bardziej o przyszłość, wydaje się usprawiedliwiona. Co ciekawe, nowoczesna technologia – budząc spory i kontrowersje – każe nam myśleć o podstawowych wartościach takich, jak dobro i zło.

Bezpieczniejsze od ludzi

Wyrazistym przykładem tego, jak rozwój technologii może polaryzować nasze poglądy są autonomiczne samochody. Osobiście uważam, że dają szansę na poprawę standardów bezpieczeństwa na drogach. I nie dziwią mnie opinie entuzjastów, którzy twierdzą, że za 15 lat nie będziemy mogli pojąć, że kiedyś samochodami kierowali ludzie.

Aby jednak sprawy poszły w dobrym kierunku, potrzebujemy uniwersalnych standardów wdrażania nowej technologii. Producenci autonomicznych pojazdów inwestując wielkie pieniądze, złożyli w pewnym sensie społeczeństwu obietnicę. Zgodnie z nią, powszechna akceptacja tych samochodów na drogach może zapobiec dziesiątkom tysięcy ofiar śmiertelnych w ruchu drogowym każdego roku (tylko w Stanach Zjednoczonych w wypadkach ginie od 30 do 40 tys. osób rocznie).

Zwolennicy autonomicznych pojazdów często przytaczają wyniki wielokrotnie powtarzanych wyników badań, z których wynika, że za 90–95 proc. wypadków odpowiada kierowca, a nie technologia.

Samochody autonomiczne znów pod obstrzałem

W zeszłym roku, w amerykańskim mieście Tempe, pod kołami autonomicznego pojazdu zginęła przechodząca przez jezdnię kobieta. Nie zareagowały systemy bezpieczeństwa w samochodzie ani kierowca znajdujący się w środku. Wydarzenie wywołało mnóstwo komentarzy i pokazało, z jak wielu perspektyw możemy na nie patrzeć.

Niektórzy, nieco złośliwie, nazwali wypadek wydarzeniem historycznym – oto bowiem sztuczna inteligencja ma na swoim koncie pierwszą ofiarę w ludziach. Opinie, że na publicznych drogach nie powinno się testować wadliwej technologii produkowanej przez prywatne firmy napędzane żądzą zysku, pojawiły się błyskawicznie. Sceptycy i krytycy formułowali tezy, że ludzie nigdy nie zaakceptują pojazdów autonomicznych. Powoływali się m.in. na badania przeprowadzone na zlecenie Reutersa/Ipsos jeszcze w styczniu. Jeszcze przed wypadkiem w Tempe, dwie trzecie Amerykanów nie miało zaufania do pojazdów autonomicznych.

Jak to wszystko poustawiać?

Przy okazji wspomnianego wypadku wyszły na jaw takie kwestie, jak przepracowanie kierowców testowych (zbyt wiele godzin spędzonych za kierownicą), rezygnacja z drugiej osoby w kabinie (wcześniej, przez długi czas, w testowej jeździe uczestniczyło zawsze dwóch kierowców kontrolujących pojazd). Ponadto firma testująca pojazd miała zdecydować się na strategię zwiększania komfortu jazdy (przez ograniczenie częstego, gwałtownego hamowania) kosztem zmniejszenia wrażliwości pojazdu na pojawiające się przeszkody. Ponadto, dziennikarze dotarli do wewnętrznych raportów, które wykazywały, że w trakcie testów pojazdy miały problemy z przejechaniem – bez ingerencji kierowcy lub bez hamowania – odległości jednego kilometra.

Nagrania z wypadku pokazują, że kierowca nie śledził z uwagą jezdni, zajmował się swoim telefonem. Mogłoby to być – paradoksalnie – potwierdzeniem tezy, że najbardziej niebezpieczni na drodze są ludzie za kierownicą. Ale byłoby to chyba uproszczeniem.

Pojazdy autonomiczne wyposażone są w czujniki lidarowe i radary. Osprzęt ma monitorować otoczenie wokół pojazdu i wykrywać wszelkie przeszkody. Nie ma jednak uniwersalnych standardów, które określałyby, jak powinny działać takie systemy, jakie parametry powinny być uwzględnione i kiedy samochód powinien reagować hamowaniem.

W ramach toczącego się ciągle śledztwa firma przyznała, że lidary, radary i kamery odebrały informację o człowieku na drodze (tę informację akcentował mocno producent zastosowanych czujników laserowych). Problem leżał więc w dostrojeniu systemu samochodu, w oprogramowaniu i algorytmach machine learning. Zdecydowano się na rozwiązania zakładające większą tolerancję na pojawiające się przeszkody.

Docieramy więc do ważnej, a może kluczowej kwestii w całej sytuacji. Jak „ustawiać” system bezpieczeństwa pojazdu i kto ma podejmować kluczowe decyzje. Fakt, że możliwości jest wiele, nie upraszcza problemu.

Kto zginie ostatni?

Od 2016 roku naukowcy z MIT Media Lab prowadzą badania poświęcone pojazdom autonomicznym. Uruchomili oni MoralMachine (moralmachine.mit.edu), czyli coś w rodzaju gry, która sprawdza nasze wybory etyczne odnoszące się do pojazdów autonomicznych. Na stronie czytamy: „ukazujemy moralne dylematy, które muszą być rozwiązywane przez pojazdy, takie jak wybór między zabiciem pasażera a zabiciem przechodnia”. Platforma pokazuje uczestnikom różne scenariusze wydarzeń na drodze. Wiele z nich uwzględnia najróżniejsze kombinacje płci i wieku, a nawet obecność zwierząt przechodzących przez jezdnię.

Kilka tygodni temu autorzy badań zaprezentowali częściowe wnioski z ponad 4 mln ankiet. Uczestnicy badania zdecydowanie częściej chcą chronić życie dziecka niż dorosłego. Gdy jednak należało zdecydować, kto w ekstremalnie niebezpiecznej sytuacji ma przeżyć: pasażer, kierowca czy pieszy, wyniki przestawały być jednoznaczne. Przykładowo, aż 40 procent uczestników gry wskazywało, że pojazd powinien chronić w pierwszej kolejności pasażerów, nawet za cenę utraty życia przez przechodniów.

Wyboista droga do odpowiedzi

Technologia ciągle nie działa samodzielnie. Ani roboty nie są niezależnymi istotami, ani algorytmy, które je ożywiają, ani sterowane algorytmami autonomiczne samochody. Nawet, jeśli dzięki machine learning i deep learning technologia może zwiększać własne możliwości i samodzielnie się uczyć na błędach, to ciągle największy wpływ na nią mamy my.

Dopuszczając technologię algorytmiczną do funkcjonowania w społeczeństwie – w tym na drodze – musimy mieć świadomość własnej odpowiedzialności. Wyzwanie jest duże, a pytania trudne. Prędzej, czy później musimy się jednak z nimi zmierzyć. Ich lista jest pokaźna, wymienię tu niektóre.

Czy władze miasta, kraju, okręgu, w którym odbywają się testy, powinny mieć stały i pełen dostęp do danych o zachowaniu pojazdu autonomicznego na drodze w czasie jazd testowych (zatrzymania, wyłączenia systemu, reakcja na obiekty na drodze, ingerencja człowieka)? Czy powinno określić się liczbę kilometrów, które pojazd przejedzie testowo zanim zostanie dopuszczony do użytku? Czy powinny zostać opracowane jednoznaczne standardy jakościowe dla czujników montowanych w autach? Na czym ma polegać ochrona danych, które zbierane są i generowane przez pojazd autonomiczny? Czy nabywca samochodu, wraz z zakupem, ma otrzymać maksymalną ilość informacji na temat tego, jak zachowa się auto w sytuacjach ekstremalnie trudnych? Czy przed dopuszczeniem pojazdów na drogę muszą być określone jednoznaczne regulacje dotyczące ochrony praw i dóbr osobistych kierowcy w razie wypadku? Czy pełna autonomia pojazdów (kierowca nie ma wpływu na decyzje samochodu) powinna być zakazana?

Jednak ruszajmy

Mimo potknięć i trudności, producenci samochodów autonomicznych nie składają broni. Myślę, że rezygnacja z prac nad tą technologią, byłaby błędem i pozbawieniem się marzeń o najpoważniejszym awansie motoryzacyjnym od czasu wynalezienia samochodu. Jednocześnie, chyba nienajgorszą rzeczą dla fanów nowej technologii, będzie wsłuchiwanie się w argumenty sceptyków, którzy twierdzą, że autonomiczne systemy zawsze będą zawodzić. Ich krytyczne uwagi mogą inspirować i pomóc w opracowaniu standardów, których na pewno mocno potrzebujemy. Tak, by ruszyć szybciej i do przodu.

Norbert Biedrzycki

Head of Services CEE, Microsoft. Kieruje usługami Microsoft w 36 krajach, ich zakres obejmuje doradztwo biznesowe i konsulting technologiczny, w szczególności w takich obszarach jak big data i sztuczna inteligencja, aplikacje biznesowe, cybersecurity, usługi premium oraz cloud. Poprzednio jaklo Vice President Digital McKinsey odpowiedzialny za region CEE oraz usługi łączące doradztwo strategiczne i wdrażanie zaawansowanych rozwiązań informatycznych. Od kompleksowej transformacji cyfrowej przez szybkie wdrożenia aplikacji biznesowych, rozwiązania i analizy big data, biznesowe zastosowania sztucznej inteligencji po rozwiązania blockchain i IoT. Wcześniej Norbert pełnił funkcję Prezesa Zarządu i CEO Atos Polska, był również szefem ABC Data S.A. oraz Prezesem Zarządu i CEO Sygnity S.A. Poprzednio również pracował w firmie McKinsey jako partner, był dyrektorem działu usług doradczych, oraz rozwoju biznesu firmy Oracle.

Pasją Norberta są najnowsze technologie robotyzacja, zastosowania sztucznej inteligencji, blockchain, VR i AR, Internet Rzeczy, oraz ich wpływ na gospodarkę i społeczeństwo. Więcej na ten temat można przeczytać na blogu Norberta.

Dołącz do dyskusji