REKLAMA

Miało być pięknie, wyszło jak zwykle. Dzikie SI już sieją zniszczenie

Pojawia się coraz więcej odmian Dużych Modeli sztucznej inteligencji, które działają offline i które można szkolić na własnych zbiorach danych. Miały być dobrze zabezpieczone przed ich nielegalnym wykorzystaniem. Niestety nikt o tych zabezpieczeniach nie poinformował hakerów - którzy zdołali przekształcić technologię GPT w narzędzie do siania cyberzniszczenia.

01.03.2024 04.40
hakerzy openai si
REKLAMA

Większość Dużych Modeli Językowych, z niezwykłym GPT od OpenAI na czele, ma pewien problem związany bezpośrednio z ich zasadą działania. Im większą ilością nieustrukturyzowanych danych nakarmi się taki model, tym ma on większą skłonność do generowania halucynacji czyli kompletnie zmyślonych informacji. Rozwiązaniem tego problemu jest ograniczenie modelu tylko do konkretnych zasobów.

REKLAMA

OpenAI, Microsoft, Meta czy Amazon udostępniają swoje modele partnerskim firmom czy nawet zwykłym użytkownikom, by ci mogli je szkolić na własne potrzeby. Taki stworzony przez użytkownika na bazie dwudziestu unikalnych książek kucharskich od babuni GotowanieGPT nie będzie miał zielonego pojęcia o historii czy fizyce. Będzie jednak ekspertem w kuchni i zawsze dobrze podpowie, ile rodzynek trzeba dodać do serniczka. Wyszkolony na podręcznikach do ObjectiveC czatbot nie podpowie, kiedy urodził się Kopernik - ale będzie świetnym asystentem programisty podczas pisania apki na iPhone’a.

OpenAI i Microsoft, a także ich konkurencja, pod presją rządów i opinii publicznej zobowiązały się do dołożenia wszelkich starań, by uniemożliwić wykorzystanie tej przełomowej technologii do szkodliwych celów. Tymczasem, jak wynika z reportażu The Wall Street Journal, wysiłki te nie odniosły sukcesu. Hakerzy wyraźnie dawno już złamali zabezpieczenia modeli GPT przed konsumowaniem nieetycznych danych.

BadGPT podpowie stosownego exploita, gdy podczas włamu trafisz na niespodziewanego firewalla

Jeszcze niedawno scena, w której haker włamuje się na wideokonferencję zarządu dużej korporacji i za pomocą sztucznej inteligencji w czasie rzeczywistym zmienia swój głos i wizerunek na dyrektora finansowego firmy celem wyłudzenia 25 mln dol. brzmi jak coś, co może mieć miejsce w niezbyt realistycznym filmie science-fiction. A tymczasem to opis sytuacji, jaka miała miejsce niedawno w Hongkongu. Dyrektor finansowy jak zawsze poinstruował o przelewach do wykonania, a podwładni widząc jego wizerunek i słysząc jego głos, nie kwestionowali poleceń. Sprawca nie jest znany i nie został ujęty.

To jednak dość wyszukany atak, mimo wszystko, a wykorzystanie technologii generatywnej SI była tylko jego najbardziej widowiskową częścią. Tymczasem pojawia się coraz więcej dowodów świadczących o tym, że GPT jest wykorzystywane do masowego generowania spamu. Sam zalew fałszywych informacji w Sieci nie jest niczym nowym, ale za sprawą GPT możliwe jest masowe generowanie wiadomości ściśle personalizowanych pod każdą z ofiar i wysoce poprawnych językowo. Spam zazwyczaj jest nieudolny i mało skuteczny jednostkowo - tajemnica tkwi w jego masowości. Za sprawą GPT spam może być nie tylko masowy, ale i wysoce skuteczny. Właściwie jedynym powodem, dla którego ewidentnie złamany GPT nie jest jeszcze powszechnie wykorzystywany przez spamerów, to jego koszt energetyczny. Spam jest tani w wysyłce, tymczasem hostowany indywidualnie przez przestępców ich spersonalizowany GPT zużywa dużą ilość zasobów sprzętowych. To jednak tymczasowa przeszkoda co najwyżej.

Skalę problemu uwidoczniły jednak dopiero wizyta na dark webie oraz przeprowadzone tam śledztwo dziennikarskie. Jak się okazuje, nietrudno kupić wyszkolonego na wiedzy hakerskiej czatbota bazującego na technologii OpenAI i Microsoftu, Mety, Hugging Face, Anthropic czy Mistral. Tyle że takiego bez zabezpieczeń etycznych i świetnie znającego się na łamaniu ochrony. Niektóre nawet umieją generować nowe mutacje złośliwego oprogramowania, a ich ceny abonamentów za ich wykorzystania wahają się od 20 zł do 800 zł miesięcznie (w zaokrągleniu, po orientacyjnym przeliczeniu kursu z kryptowalut).

Nie ma zabezpieczeń nie do złamania. ChatGPT i Copilot są szkolone, by nie czynić zła. Tylko co z tego?

Wall Street Journal poprosił o komentarze wiodących dostawców Dużych Modeli SI. Wszystkie można streścić do nieustannie doskonalimy nasze zabezpieczenia, jest to dla nas najwyższy priorytet. To zapewne jest prawda, bowiem presja ze strony akcjonariuszy, ustawodawców i opinii publicznej jest bardzo duża. Firmy odpowiedzialne za Duże Modele musza się mierzyć z coraz większą liczbą pozwów, które zarzucają im łamanie praw autorskich czy naruszanie prywatności i cyberbezpieczeństwa, zatem bez wątpienia jest to wspomniany priorytet.

Miej się na baczności. Polecamy te teksty:

REKLAMA

Tyle że w przypadku cyberpółświadka jest ewidentnie za późno. Na nic nie zdadzą się lepsze zabezpieczenia, skoro już teraz technologia ta może być używana przez przestępców - i to zdaje się w nieskrępowanej formie. Dla statystycznego internauty informacja ta powinna stanowić dodatkową motywację do bezwzględnego stosowania zasady ograniczonego zaufania. Jeżeli dana osoba nie czuje, by miała stosowną wiedzę o cyberbezpieczeństwie, nie powinna pod żadnym pozorem udostępniać swoich wrażliwych danych przez Internet, szczególnie tych związanych z prawem własności i finansami. Należy zawsze mieć na uwadze, że osoba po drugiej stronie może nie być tym, za kogo się podaje.

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA