REKLAMA

Oto prosta odpowiedź na pytanie, co jest najsłabszym ogniwem autonomicznych samochodów

Pewnie już znacie ten problem przyszłości - co powinno zrobić oprogramowanie samojezdnego samochodu w wypadku, gdy ma wybrać pomiędzy życiem kierowcy a na przykład przechodniów? Uważamy, że takie auta powinny wybierać “mniejsze zło”, czyli ratować więcej żyć, ale jednocześnie nie za bardzo chcielibyśmy jeździć takimi autami. Wybaczcie, ale ja już widzę dystopię!

25.11.2015 13.49
autonomiczne samochody
REKLAMA
REKLAMA

Czy jeśli samochód będzie miał tylko dwie opcje - przejechać trzech przechodniów czy wjechać w drzewo i ryzykować życie kierowcy i dziecka powinien brać pod uwagę tylko liczbę żyć? Czy powinien brać pod uwagę prawdopodobieństwo przeżycia niezależnie od liczby poszkodowanych (uderzy w trzech przechodniów bo według obliczeń będzie miało to mniej śmiertelne konsekwencje niż kontakt auta z drzewem)? Czy oprogramowanie powinno wziąć pod uwagę wiek potencjalnych ofiar i uznać, że dziecko ze względu na dłuższą perspektywę jest bardziej wartościowe, niż dorosły?

Takich dylematów będzie sporo. Już się pojawiają, a naukowcy i zainteresowani tematem szukają odpowiedzi na te pytania. W końcu to my, zwykli użytkownicy docelowo będziemy poruszać się autonomicznymi samochodami, powinniśmy mieć więc coś do powiedzenia w tym temacie.

Okazuje się, że blisko nam do utylitarnego podejścia do zmniejszania ryzyka. Zgadzamy się, że oprogramowanie powinno analizować sytuację i wybierać rozwiązanie lepsze dla wszystkich, nie tylko dla kierowcy/właściciela auta. Problem w tym, że chociaż zgadzamy się z tym, sami nie chcielibyśmy takiego auta.

Od razu ten dylemat skojarzył mi się z chińskimi planami na stworzenie platformy, która będzie punktowała ludzi - coś na kształt credit scoringu, ale szerzej zakrojonego, biorącego pod uwagę  wiele aspektów, źródeł informacji i docelowego wykorzystania:

A gdyby wykorzystać taki Klout Score na sterydach w samojezdnych autach? Kto ma więcej punktów, ten przeżywa. Która grupa ma więcej punktów, ma więcej szans na przeżycie. Genialne!

Dobra, żartuję. A może nie, sama nie wiem, zbyt dużo szalonych pomysłów dziś spełnia się w rzeczywistości, bym wykluczała coś na przyszłość. Żyjemy w czasach, gdy sami chętnie zakładamy na nadgarstki opaski śledzące nasze ruchy, gdy sami chętnie pozbywamy się prywatności, dlaczego więc nie dać się ocenić na podstawie wszystkiego co robimy? Taka grywalizacja ostateczna.

Serial The Good Wife niedawno znowu poruszył temat okołotechnologiczny i stanął na wysokości zadania. Sprawa w sądzie dotyczyła samojezdnego samochodu, który spowodował wypadek. Czyja to była wina? Producenta? Kierowcy, który w sytuacji awaryjnej powinien przełączyć się na sterowanie ręczne? Okazało się, że kierowca-inżynier grzebał z kumplami w oprogramowaniu, ale w międzyczasie poznaliśmy stereotypowego geniusza - piewcę sztucznej inteligencji, który uważa, że ludzie oznaczają same problemy i można wyeliminować je tylko oddając się w ręce algorytmów. Pojawił się też niezwykle interesujący temat konwergencji człowieka i technologii.

Otóż okazało się, że idealne algorytmy, które zakładały bezwzględne przestrzeganie przepisów drogowych na ulicach okazały się… niebezpieczne.

Ponieważ autonomiczne samochody muszą poruszać się wśród aut prowadzonych przez ludzi, te pierwsze stały się źródłem problemów. Człowiek jak to człowiek, nigdy nie analizuje tak jak komputery i nigdy nie jeździ idealnie, zgodnie z przepisami, nie przekraczając dozwolonej prędkości, nie zmieniając pasa, zatrzymując się na każdym znaku stopu i tak dalej. Samochody bez kierowców okazały się problematyczne, stwarzające niechciane sytuacje zagrażające innym kierowcom lub tamujące swobodny ruch.

Fikcyjny producent wprowadził poprawkę do oprogramowania wzorującą się na nieprzewidywalności ludzi. Tym samym nowe, podobno ultrabezpieczne pojazdy musiały zaadaptować czynniki, którym miały zaradzić.

To wymyślony scenariusz z serialu, ale pięknie pokazuje to, co czeka nas w przyszłości.

Chaos, próby odnalezienia złotego środka, brak odpowiednich regulacji w prawie, brak jasnej odpowiedzialności czy zdalne przejmowanie kontroli to tylko początek problemów.

REKLAMA

Jednak po tym, co ostatnio stało się z autopilotem Tesli - przeznaczony do jazdy na autostradzie pod kontrolą człowieka zostawał często włączany w nieodpowiednich warunkach przez kierowców, którzy chcieli się pobawić i potestować, czasem narażając zdrowie swoje i innych - już widać, że nie będzie łatwo. Samochody które prowadzą się same, oprócz barier technologicznych i etyczno-moralnych będą musiały poradzić sobie też z ludźmi, którzy faktycznie bywają najsłabszym ogniwem.

Idealnie byłoby, gdyby zwykłe auta wymienić na samojezdne od razu, masowo, ale to się oczywiście nie stanie. Dlatego czeka nas ciekawy czas zadawania ważnych pytań o to, co jest ważne, etyczne i jak mocno cenimy bezpieczeństwo i nas samych.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA