Czy powinniśmy się bać agresywnej sztucznej inteligencji?

Felieton/Nauka 16.02.2017
Czy powinniśmy się bać agresywnej sztucznej inteligencji?

Czy powinniśmy się bać agresywnej sztucznej inteligencji?

Media obiegła informacja o tym, że sztuczna inteligencja Google DeepMind podczas testów zaczęła zachowywać się agresywnie i że powinniśmy zacząć się bać z tego powodu. Chciałbym was uspokoić: nie musimy. Jeszcze nie.

Zacznijmy od tego, jak wyglądały eksperymenty z Google DeepMind.

Pierwszy polegał na zbieraniu owoców. Na planszy umieszczono dwa algorytmy AI, których celem było zebranie jak największej liczby zielonych kwadracików. Żeby urozmaicić trochę rozgrywkę, zespół badawczy Google’a wyposażył oba algorytmy w pistolety laserowe. Trafienie laserem sztucznej inteligencji wyłączało ją z gry na krótki okres czasu, dzięki czemu ta druga mogła zebrać więcej owoców.

„Mniejsze” algorytmy, cechujące się bardzo podstawową analizą celu rozgrywki zachowywały się pokojowo. Zamiast strzelać do siebie, poruszały się spokojnie po planszy od jednego zielonego piksela, do kolejnego.

Sytuacja zrobiła się o wiele ciekawsza, kiedy ten sam eksperyment przeprowadzono z udziałem bardziej złożonych sieci neuronowych. Te „mądrzejsze” AI szybko ustaliły, że strzelając do przeciwnika są w stanie zebrać większą liczbę owoców. No i zaczęły do siebie strzelać.

W drugim doświadczeniu o nazwie „Wolfpack” (Wataha) wzięły udział trzy SI. Jedna z nich była uciekającą zwierzyną, a zadaniem dwóch pozostałych było jej złapanie. Cel nie przewidywał dodatkowych punktów za złapanie uciekającej SI w pojedynkę, więc te „mądrzejsze” algorytmy zaczęły ze sobą współpracować.

Nic w tym dziwnego. Po prostu doszły do wniosku, że ich zadanie staje się o wiele łatwiejsze, jeśli polują wspólnie. Logiczne.

Zamiast wyciągnąć sensowne wnioski, zasiano panikę.

Opublikowanie wyników eksperymentu Google’a błyskawicznie zmieniło się w medialną sensację. Portale technologiczne rozpisywały się o tym, że Google DeepMind udowadnia, że agresja, chciwość i inne ludzkie cechy, z których nie jesteśmy do końca dumni, wpisane są w ewolucję naszego gatunku.

Niektórzy autorzy wspominali jeszcze o ostrzeżeniach przed SI, które swojego czasu wygłosili tak zacne osobistości, jak Elon Musk, czy Stephen Hawking i mieli gotowy, przerażający materiał. Wiecie: im sztuczna inteligencja mądrzejsza, tym większa szansa, że nas pozabija. Ratuj się kto może.

Moim zdaniem to strasznie nieuczciwe podejście, bo obecnym algorytmom, które szumnie określamy mianem SI, nadal bliżej jest do poczciwego kalkulatora, niż do ludzkiego umysłu. I żeby nie było: absolutnie nie umniejszam tutaj umiejętnościom programistów odpowiedzialnych za stworzenie DeepMind. To genialni ludzie, którzy stworzyli genialne oprogramowanie.

Tylko nadal jest to oprogramowanie, które realizuje jasno określone cele. Jeśli dwóm SI każemy zebrać jak najwięcej zielonych kwadracików, których liczba jest ograniczona i wyposażymy je przy okazji w mechanizm eliminujący konkurenta z rozgrywki, to całkiem naturalne, że zaczną do siebie strzelać.

DeepMind nie jest agresywna. Jest po prostu skuteczna. Dlatego musimy ostrożnie wyznaczać jej zadania.

Jak na razie nie dowiemy się, jak SI Google’a zachowałyby się w pierwszym eksperymencie, gdyby dysponowały prawdziwą, ludzką świadomością, a jedno trafienie przeciwnika kończyłoby ich egzystencję. I minie jeszcze trochę czasu, zanim będziemy mogli się tego dowiedzieć.

Na dzień dzisiejszy projektujemy bardzo skomplikowane kalkulatory, które już teraz są lepsze niż my w wielu dziedzinach, ale to nadal kalkulatory, a nie w pełni niezależna świadomość stworzona na nasze podobieństwo.

Eksperyment przeprowadzony przez Google pokazuje zupełnie inną, moim zdaniem najważniejszą rzecz. Nie musimy obawiać się obecnych algorytmów SI tak długo, jak nie popełnimy katastrofalnego błędu przy wyznaczaniu im celów.

Motyw ten zresztą pojawia się w wielu książkach, filmach i serialach science-fiction. Ludzie tworzą SI, żeby ta uratowała ich planetę przed zagładą, a SI dochodzi do wniosku, że najskuteczniejszym rozwiązaniem będzie eksterminacja ludzkiego gatunku. Klasyka. O czymś bardzo podobnym traktuje zresztą trzeci sezon The 100.

To wszystko przewidział Isaac Asimov.

Do tych samych wniosków doszedł zresztą Isaac Asimov, który na potrzeby opowiadania „Zabawa w berka” opublikowanego w 1942 r. stworzył trzy prawa robotyki: robot nie może skrzywdzić człowieka, robot ma wykonywać polecenia człowieka (chyba, że prowadzi to do złamania pierwszego prawa) i robot ma chronić samego siebie (chyba, że stoi to w sprzeczności z pierwszym lub drugim prawem). Asimov w wydanym później „Roboty i Imperium” dorzucił jeszcze prawo zerowe: robot nie może skrzywdzić ludzkości.

Ten krótki zbiór zasad powinien wystarczyć nam jeszcze przez chwilę. Dlaczego tylko przez chwilę? Naukowcy sugerują bowiem, że prawdziwa sztuczna inteligencja, jako w pełni świadomy organizm, nie da się kontrolować żadnymi zasadami narzuconymi odgórnie. Ale zanim uda nam się stworzyć taki organizm, obecnie dostępne algorytmy SI już trafią do powszechnego użytku.

Dlatego musimy ustalić jasne zasady dla SI.

I wcale nie chodzi mi o to, żeby ustalić takie zasady tylko po to, żeby mieć kolejny temat do niekończących się dyskusji w Internecie. Potrzebujemy ich do zastosowania w praktyce. Słyszeliście kiedyś o tzw. dylemacie wagonika? To ciekawy eksperyment myślowy, z którym zmagają się np. studenci filozofii. W skrócie wygląda on mniej więcej tak:

Wagonik kolejki wyrwał się spod kontroli i pędzi w dół po torach. Na jego drodze znajduje się pięciu ludzi przywiązanych do torów przez szalonego filozofa. Istnieje opcja przestawienia zwrotnicy i skierowania wagoniku na drugi tor. Tam przywiązany jest tylko jeden człowiek. Co zrobisz?

A teraz wyobraźcie sobie, że wasz autonomiczny samochód zabrał was na romantyczną przejażdżkę po górskiej serpentynie. Doskonałe algorytmy idealnie wchodzą w każdy kolejny zakręt, a wy z drinkiem w ręku rozkoszujecie się chwilą. Nagle, przez serię losowych wydarzeń dzieje się, co następuje: opona w waszym aucie pęka a z przeciwka pędzi inne autonomiczne auto z całą rodziną i psem na pokładzie.

Na potrzeby tego eksperymentu załóżmy, że istnieją tylko dwie opcje:

  • Wasz samochód może ratować się przed zjechaniem w przepaść, obierając kurs, który skończy się zderzeniem czołowym z drugim pojazdem. Macie szansę przeżyć, ale nikt tego nie gwarantuje. Osoby w samochodzie z naprzeciwka mogą z kolei zginąć. Pies też.
  • Nie ryzykować życia większej liczby ludzi i od razu zjechać w przepaść. Wasze szanse przeżycia są zerowe, ale umrze tylko jeden człowiek.

Wszystko rozgrywa się w ułamkach sekund, więc nie macie czasu na jakąkolwiek reakcję.

W tym przypadku wszystko zależy od algorytmów komputerowych.

I teraz pytanie: jak zostały zaprojektowane? Czy ich nadrzędnym priorytetem jest ochrona właściciela za wszelką cenę?

A jeśli nie, to w jakich konkretnie przypadkach mogą poświęcić „swojego” człowieka, dla większego dobra ogółu? Jestem bardzo ciekawy, jak odpowiedziałby na te pytania Elon Musk. I prędzej, czy później dowiem się na pewno, bo producenci autonomicznych pojazdów będą musieli w końcu ustalić sposób ich zachowania w takich sytuacjach.

Dlatego zamiast panikować, że jedna SI Google’a zaczęła strzelać do drugiej, w eksperymencie, gdzie było to optymalnym zachowaniem, zacznijmy się lepiej zastanawiać nad tym, w jaki sposób rozwiązać powyższy dylemat. W obecnej chwili jest to o wiele ważniejsze, niż bezsensowne antropomorfizowanie algorytmów komputerowych.

Dołącz do dyskusji