Elon Musk apeluje do ONZ: grozi nam konflikt na skalę, jakiej jeszcze nie było

Artykuł/Technologie 21.08.2017
Elon Musk apeluje do ONZ: grozi nam konflikt na skalę, jakiej jeszcze nie było

Broń autonomiczna może być zagrożeniem dla ludzkości. Specjaliści z dziedziny sztucznej inteligencji apelują do ONZ o jej zakazanie.

Kilka lat temu trafił na ekrany film „Dobre zabijanie”. To historia majora Toma Egana, który pilotuje drony. Praca wydaje się łatwa. Ma sporo cech gry symulacyjnej. Zabijanie z odległości kilku tysięcy kilometrów nie oddziałuje na psychikę żołnierzy w ten sam sposób, jak podczas tradycyjnych misji bojowych.

Wiele wskazuje na to, że major powinien być szczęśliwy: jest blisko żony, nie grozi mu śmierć, po pracy przychodzi do domu. Mimo tego, doświadcza wyrzutów sumienia. Perspektywa moralnego niepokoju będzie i tak znacznie mniej dramatyczna, niż bycie w położeniu, często niewinnych, ofiar.

Automatyzowanie zabijania ma zresztą długą historię. Stworzone przez Niemców komory gazowe miały nie tylko podnieść wydajność eksterminacji. W tym kontekście wspomina się historię, gdy Heinrich Himmler uczestniczył w masowych mordach na ludności żydowskiej na Białorusi. Reichsführer SS miał poczuć się źle, omal nie zemdlał. Z tego doświadczenia miała zrodzić się troska o psychikę wykonawców masowych egzekucji. Innymi słowy, Himmler obawiał się, że jego SS-mani nie poradzą sobie psychicznie i emocjonalnie z eksterminacją.

Za automatyzacją procesu zabijania stać mogą różne intencje. Słowa automatyzacja użyłem umownie, bo w obu opisanych powyżej sytuacjach czynnik ludzki był kluczowy i nie został wyparty. Zwiększono higienę psychiczną zabójców. Prawdziwą automatyzacją będzie broń niedalekiej przyszłości, wykorzystująca sztuczną inteligencję.

Elon Musk i Mustafa Suleyman chcą zakazu rozwijania broni autonomicznej.

Dziś broń autonomiczna wydaje się jeszcze domeną dzieł science fiction. Konflikt między ludźmi i maszynami stał się tematem choćby filmów z serii Terminator. Zagrożenie nie jest jednak tylko literackie czy filmowe. To dlatego Elon Musk i Mustafa Suleyman z Google stanęli na czele 116 specjalistów z 26 krajów, którzy apelują do ONZ o zakaz rozwijania broni autonomicznej.

Sygnatariusze listu otwartego do Organizacji Narodów Zjednoczonych, zaprezentowanego podczas International Joint Conference on Artificial Intelligence w Melbourne, nazywają broń autonomiczną trzecią rewolucją w walce. Pierwszą miało być wykorzystanie prochu strzelniczego, drugą, rzecz jasna, broń nuklearna. Nowa broń ma być wręcz puszką Pandory, którą trudno będzie zamknąć, gdy już zostanie otwarta.

Zdaniem twórców listu broń autonomiczna może być bardziej niebezpieczna niż dotychczasowe technologie militarne. Może być to broń terroru, broń, której despoci i terroryści użyją wobec niewinnych populacji i broń, która może być hakowana do użycia w niepożądany sposób – uważają.

Autorzy chcą, by broń autonomiczna została dopisana do przyjętej w 1980 r. i obowiązującej od 1983 r. konwencji o zakazie lub ograniczeniu użycia niektórych rodzajów broni konwencjonalnej. W tym dokumencie sprzed dekad wymieniane zostały między innymi miny pułapki i miny zdalnie ustawiane.

Nazwisko Muska nie po raz pierwszy pojawia się przy okazji dyskusji o sztucznej inteligencji.

Elon Musk od dawna ostrzega przed zagrożeniami, jakie niesie rozwój sztucznej inteligencji. Założyciel SpaceX uznaje ją za fundamentalne ryzyko dla naszej cywilizacji. W sporze na ten temat z Markiem Zuckerbergiem, bardzo plastycznie zarysował istotę problemuWiem, że po raz kolejny biję w dzwony alarmowe, ale dopóki ludzie nie zobaczą robotów zabijających ludzi na ulicach, nie będą wiedzieli, jak mają reagować, ponieważ wydaje im się to mocno nieziemskie – mówił.

Nie jest to pierwsza tego typu inicjatywa. W 2015 r. powstał list otwarty w sprawie broni autonomicznej podpisany przez naukowców z różnych ośrodków uniwersyteckich. Również wtedy jego sygnatariuszem był Elon Musk, a  na liście znaleźli się też: Steven Hawking, Steve Wozniak czy Noam Chomsky.

Advertisement

Musisz przeczytać:

Dołącz do dyskusji

Advertisement
Advertisement