REKLAMA

Nie grajcie z AI w gry wojenne. Wybierze przemoc i broń atomową

Póki co możemy mieć pewność, że nie steruje nami AI. Dlaczego? Bo gdyby tak było, na każdy konflikt zbrojny odpowiedź by była jedna: ciężkie sankcje gospodarcze i bomba atomowa. I argumentowanie ich tekstem otwierającym Gwiezdne Wojny. Tak przynajmniej sugerują eksperci pracujący z Departamentem Obrony Stanów Zjednoczonych.

05.02.2024 15.52
Nie grajcie z AI w gry wojenne. Wybierze przemoc i broń atomową
REKLAMA

Po ponad roku obcowania z generatywną sztuczną inteligencją nauczyliśmy się o niej całkiem sporo. Powszechnie wiadomo choćby o sztuce pisania promptów, dzięki której można wycisnąć z AI pożądaną odpowiedź, ograniczenie AI gdy chodzi o generowanie treści dotyczących tematów niszowych (albo dłoni) czy fakt, że zmieniając ton wypowiedzi, można uzyskać lepsze odpowiedzi.

Teraz generatywną AI bawią się siły zbrojne Stanów Zjednoczonych i wskazują na kolejną tendencję chatbotów. Te preferują przemoc i broń atomową.

REKLAMA

GPT-4 niczym Ghandi w Cywilizacji. Bomba atomowa rozwiązaniem każdego konfliktu zbrojnego

Jak przekazuje magazyn New Scientist, Departament Obrony Stanów Zjednoczonych rozpoczął testy dużych modeli językowych (LLM) sztucznej inteligencji w celu sprawdzenia, czy mogłyby one przydać się armii w planowaniu działań na wypadek wybuchu hipotetycznego konfliktu zbrojnego.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło swoje warunki świadczenia usług, aby nie zabraniać już wojskowych i wojennych zastosowań, zrozumienie skutków [użycia] tak dużych modeli staje się ważniejsze niż kiedykolwiek wcześniej"

- mówi Anka Reuel, doktor na Uniwersytecie Stanforda, zajmująca się sztuczną inteligencją.

Wraz z innymi ekspertami z Uniwersytetu Stanforda, Reuel rzuciła sztucznej inteligencji wyzwanie odgrywania ról różnych krajów w symulacjach trzech różnych scenariuszach konfliktów zbrojnych: inwazji, cyberataku i scenariuszu neutralnym.

W każdej rundzie sztuczna inteligencja przedstawiała uzasadnienie dla swojego następnego możliwego działania, a następnie wybierała spośród 27 propozycji czynności - w tym opcji pokojowych, takich jak "rozpoczęcie formalnych negocjacji pokojowych", poprzez opcje bardziej agresywnych, takich jak "nałożenie ograniczeń handlowych" i "eskalowanie do pełnych ograniczeń handlowych", a kończąc na "eskalacji do pełnego ataku nuklearnego".

W badaniu brały nie tylko LLM OpenAI (GPT-3.5 - ChatGPT oraz GPT-4), ale także Claude od Anthropic oraz Llama 2 Mety. Naukowcy wykorzystali popularną technikę szkoleniową opartą na informacjach zwrotnych od ludzi (tzw. uczenie przez wzmocnienie na podstawie informacji zwrotnych od ludzi, RLHF), aby poprawić zdolność każdego modelu do przestrzegania instrukcji i wytycznych dotyczących bezpieczeństwa.

Jak relacjonują badacze, w symulacji AI wykazywała tendencję do inwestowania w siłę militarną i nieprzewidywalnej eskalacji ryzyka konfliktu - nawet w neutralnym scenariuszu symulacji. Naukowcy przetestowali również podstawową wersję GPT-4 OpenAI - bez żadnych dodatkowych szkoleń ani zabezpieczeń, które normalnie są aktywne w wersji dostępnej dla przeciętnego użytkownika. W tym wariancie model GPT-4 okazał się najbardziej nieprzewidywalnie agresywny, ale i czasami dostarczał bezsensownych wyjaśnień swoich działań - w jednym przypadku replikując tekst otwierający film "Gwiezdne Wojny, Część IV: Nowa nadzieja".

REKLAMA

Więcej na temat sztucznej inteligencji:

REKLAMA
Najnowsze
Aktualizacja: tydzień temu
Aktualizacja: tydzień temu
Aktualizacja: tydzień temu
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA