Naukowcy włamują się do inteligentnych asystentów i idzie im niepokojąco dobrze

News/Bezpieczeństwo 11.05.2018
Naukowcy włamują się do inteligentnych asystentów i idzie im niepokojąco dobrze

Naukowcy włamują się do inteligentnych asystentów i idzie im niepokojąco dobrze

Inteligentni asystenci są podatni na ataki, bo słyszą więcej niż myślisz i więcej niż ty słyszysz. A to mogą wykorzystać bardzo źli ludzie.


Inteligentni asystenci są na zachodzie coraz popularniejsi. Zapowiedź Google’a, iż do końca roku asystenci głosowi będą dostępni w 80 krajach (w tym w Polsce) oznacza, że ich liczba znacząco wzrośnie. Nic tylko, się cieszyć. No i trochę bać.

Co słychać, Alexa?

New York Times opisuje, jak naukowcy w Chinach i w Stanach Zjednoczonych testowali różne sposoby zarządzania inteligentnymi asystentami. Robili to tak, żeby nikt postronny, ze szczególnym uwzględnieniem właściciela asystenta, nie zorientował się, że asystent cokolwiek robi.

Zaszyli między innymi utajnione komendy w Requiem Vivaldiego. Komendy, nierozpoznawalne dla ludzi, mogą być schowane w filmie umieszczonym na YouTubie, w piosence puszczonej w radiu albo w zwykłym tekście czytanym na głos przez samego asystenta. Metoda wykorzystuje różnicę między tym, jak rozpoznają umowę maszyny, a jak ludzie.

Łatwo sobie wyobrazić, że przejęcie sterowania nad asystentem może mieć skutki proporcjonalnie paskudne do paskudności przejmującego. O ile naukowcy z Berkeley raczej nie złowią cię na phishing, nie zadzwonią na twój koszt na Kubę ani nie zrobią przelewu na swoje konto, inni mogą mieć gorsze wyczucie przyzwoitości.

Inteligentni asystenci są podatni na ataki delfinów.

Inny system włamań opracowali naukowcy z Princeton i chińskiego Zhejiangu. Udało im się nagrać wiadomość dla maszyny na częstotliwości niesłyszalnej dla człowieka. Atak delfina, bo tak został nazwany, zaczyna się od wyciszenia telefonu, żeby jego właściciel nie został ostrzeżony. Na razie atakujący musi być relatywnie blisko urządzenia ofiary (6,5 metra), ale naukowcy wierzą, że to tylko chwilowa przeszkoda, którą łatwo będzie ominąć.

Firmy odpowiedzialne za asystentów jak jeden mąż zapewniają, że będziemy bezpieczni, ale wyścig między ekspertami od zabezpieczeń a ludźmi, którzy chcą je złamać, jest stary jak świat. Mam nadzieję, że firmy będą się też między sobą prześcigać w tym, kto stworzy bezpieczniejsze urządzenie, bardziej odporne na ataki z zewnątrz. Bo naprawdę mój asystent nie musi mieć łudząco podobnego do ludzkiego głosu, bez tego sam sobie radę. Wolę mieć pewność, że będzie słuchał tylko mnie.

Dołącz do dyskusji

Advertisement