Nie tylko Facebook wykorzystuje SI, by chronić swoich użytkowników. Ja się tej ochrony coraz bardziej obawiam

Nie tylko Facebook wykorzystuje SI, by chronić swoich użytkowników. Ja się tej ochrony coraz bardziej obawiam

Nie tylko Facebook wykorzystuje SI, by chronić swoich użytkowników. Ja się tej ochrony coraz bardziej obawiam

Podczas swojego przesłuchania przed Kongresem, Mark Zuckerberg kilkukrotnie wspominał o roli sztucznej inteligencji w ochronie użytkowników Facebooka. I faktycznie, największy portal społecznościowy na świecie coraz chętniej stosuje SI jako narzędzie obronne. Nie on jeden.

Mark Zuckerberg opowiadał na przesłuchaniu amerykańskim kongresmenom o roli, jaką sztuczna inteligencja odgrywa w kwestii ochrony użytkowników Facebooka przed nadużyciami. Deklarował, że za mniej niż dekadę maszyny będą w stanie zredukować tak zwaną mowę nienawiści do minimum. Opowiadał też o roli, jaką SI odegrała przy wykrywaniu fałszywych kont na Facebooku w czasie wyborów we Francji i w Niemczech. I nie zmyślał.

Facebook prowadzi zaawansowane badania nad sztuczną inteligencją. Ich wyniki są niejednokrotnie fascynujące. Inżynierowie zatrudnieni w Facebooku próbując nauczyć chatboty – programy potrafiące imitować konwersację – natury języka, zdecydowali się zaprogramować je tak, by targowały się ze sobą w celach zawarcia fikcyjnej umowy handlowej. SI Facebooka miała się nauczyć w ten sposób szacowania wartości tematów w rozmowie.

Boty Facebooka przeniosły dyskusję na zupełnie niespodziewany poziom.

Inżynierowie z premedytacją nie nakazali botom wykorzystywania poprawnej angielszczyzny. Maszyny miały same wynaleźć najefektywniejszą formę komunikacji słownej podczas dobijania targów. Ku zdumieniu autorów eksperymentów, boty szybko przeszły na dialog zrozumiały tylko dla ich samych. Wyglądał on tak (niestety, nie jest przetłumaczalny na polski):

Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i . . . . . . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i i i i i everything else . . . . . . . . . . . . . .
Alice: balls have 0 to me to me to me to me to me to me to me to me to
Bob: you i i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to

Analiza logiczna tego niezwykłego dialogu wykazała, że zaimki osobowe były elementem negocjacji i wartościowania, a oba boty doszły po tej wymianie zdań do – według ich oceny – najkorzystniejszej wymiany handlowej. Liczba zaimków dla każdego z botów oznaczała liczbę towarów, jakie chcą uzyskać od drugiego bota.

Chatboty są dla Facebooka wyjątkowo atrakcyjnym polem badań, ponieważ mogą być one zastosowane jako usługa. Chatbot obsługujący w wydajny sposób fanów popularnej facebookowej strony firmowej to usługa, którą społecznościowy gigant z pewnością przyciągnie uwagę swoich firmowych klientów.

Teraz jednak dla Facebooka bardziej sexy jest temat ochrony użytkowników przez sztuczną inteligencję.

Na szczęście dla wizerunku usługi prowadzonej przez Zuckerberga, również i w tym zakresie sztuczna inteligencja ma ogromny potencjał. I, co więcej, faktycznie jest już stosowana. Dla przykładu, każdy z publikowanych na Facebooku postów jest analizowany pod kątem potencjału samobójczego. SI Facebooka stara się rozpoznawać wpisy zawierające myśli samobójcze i odpowiednio je oznacza. System ten zdążył się już wykazać: pod koniec ubiegłego roku serwis poinformował o 100 przypadkach, w których SI prawidłowo rozpoznała osoby planujące zakończyć swoje życie. Informując odpowiednie służby, owa sztuczna inteligencja prawdopodobnie uratowała im życie.

Facebook nie jest jedynym serwisem, który stosuje sztuczną inteligencję w prewencji antysamobójczej. Wyszukiwarka Google rozpoznaje zapytania, jakie są stosowane przez samobójców przed zamiarem odebrania sobie życia. Microsoft wykorzystuje w podobnym celu swoje algorytmy w usługach Bing i Xbox Live.

Wbrew pozorom, analiza wpisów potencjalnych samobójców nie jest trywialna. Maszyna musi odróżnić człowieka ogarniętego rozpaczą od osoby deklarującej, że jak jeszcze raz usłyszy piosenkę Despacito, to się zastrzeli. Analiza kontekstu wypowiedzi to właśnie ten moment w przetwarzaniu danych, w którym inteligencja maszyny staje się niezbędna.

Sztuczna inteligencja w obronie przed złą polityką.

Algorytmy Facebooka starają się też chronić nas przed rozprzestrzeniającymi się viralowo fake-news. To o wiele trudniejsze zadanie, bowiem sam Facebook nie jest w stanie ocenić stopnia prawdziwości danej informacji. Jakiekolwiek próby oceny, świadomie lub mimowolnie, mogłyby szybko uczynić Facebooka stroną w jakimś politycznym sporze. I choć Facebook postrzegany jest z jakichś względów jako lewacka usługa, sam serwis – w imię własnych interesów – nie chce być kojarzony z jakąkolwiek ideologią polityczną.

Dlatego też algorytmy Facebooka starają się ocenić intencje samego postującego. Ponownie: analizują kontekst umieszczanej informacji i potencjalnie podejrzane intencje użytkownika. Treści przez niego udostępnianych nawet nie biorą pod uwagę. Szczegółowe zasady działania tego algorytmu nie są jednak znane. Nic dziwnego: Facebook do tej pory sprawdzał się w filtrowaniu takich wiadomości z miernym efektem. Nie ustaje jednak w pracach nad dalszym szkoleniem swojej SI w tym zakresie.

Sztuczna inteligencja w ochronie przed złośliwym oprogramowaniem.

Jeden z udziałowców i partnerów Facebooka – firma Microsoft – również stara się wykorzystać dobrodziejstwa SI do ochrony swoich użytkowników. W jaki sposób, skoro – nie licząc wspomnianego wyżej Xbox Live – firma nie oferuje żadnej usługi społecznościowej niezwiązanej z produktywnością? Faktycznie, SI Microsoftu szkolona jest raczej w zupełnie innych dziedzinach. Chroni jednak użytkowników Windows przed złośliwym oprogramowaniem.

Wbudowana w system operacyjny Microsoftu usługa Windows Defender wykorzystuje SI do analizy działań, jakie są wykonywane na komputerze lub tablecie użytkownika. Nie polega więc tylko na znanych próbkach złośliwego oprogramowania, ale potrafi wykrywać działania dla niego charakterystyczne bez wiedzy o jego specyfice. Ukryty keylogger? Makro w dokumencie tekstowym, które stara się pobrać plik z Internetu? Windows Defender od razu się uaktywnia widząc takie działania i przeprowadza dokładniejszą analizę, by móc, w razie czego, proaktywnie powstrzymać działanie nieznanego mu malware’u.

Facebook sztuczna inteligencja

Google stosuje podobne sztuczki w swojej usłudze pocztowej. Stosowane przez niego algorytmy SI wykrywają w Gmailu potencjalne ataki phishingowe i niechciane reklamy. Nie tylko na podstawie potężnej bazy danych w chmurze Google’a, ale również dzięki stosownym algorytmom, które są w stanie wykryć nowe, nieznane wcześniej formy nękania użytkowników. Gmail rozpoznaje nawet załączniku z ransomware i polimorficznym malware. Efektem ubocznym działania tego algorytmu są sięgające kilku dziesiątych sekundy opóźnienia w dostarczaniu poczty.

Niestety, tych efektów ubocznych jest więcej. W tym jeden szczególny.

Jestem przekonany, że już wychwyciliście pewien wspólny motyw tego tekstu. SI, by nas chronić, czyta nasze maile, przegląda nasze dane, analizuje nasze zachowania. Nie tylko Facebook szkoli ją w ten sposób. Robią to prawie wszyscy, którzy mogą i mają ku temu możliwości.

Naturalnie, jest to wszystko obostrzone odpowiednimi paragrafami. Usługodawcy informatyczni muszą przestrzegać prawa. Są też zobowiązani do przestrzegania własnych regulaminów, a każde naruszenie jest piętnowane przez czujne media. Czy to wystarczający zawór bezpieczeństwa, by wpuścić SI do naszej intymności?

Do odpowiedzi na to pytanie brakuje mi kompetencji. Z jednej strony przecież to wszystko służy naszemu dobru. Dane są chronione przed wirusami, dzieci są chronione przed molestowaniem, samobójcom ratuje się życie a propagandowe i kłamliwe fake-news coraz skuteczniej zwalczane. Przykłady można mnożyć.

Chcemy waszego dobra, rzekł wódz. Poddani w popłochu zaczęli więc ukrywać swoje dobra.

A co do tych zaworów bezpieczeństwa, przepisów i regulaminów… pamiętacie skandal z 2011 roku, w którym wyszło na jaw, że telefony iPhone i te z Androidem przechowują w swojej pamięci historię naszych ostatnich lokalizacji geograficznych? Byliśmy oburzeni, że jakieś urządzenie rejestruje to, gdzie jesteśmy. Skrajnie oburzeni.

Siedem lat.

Prawie co do dnia, siedem lat od wybuchu powyższej afery śledzenie wszystkich naszych poczynań przez maszyny to coś dla większości z nas absolutnie naturalnego. Firmy się już nie wstydzą tego, że nas śledzą. Chwalą się tym. Mapy Google niedawno wysłały mi radosnego maila, którego fragment widzicie poniżej:

Facebook sztuczna inteligencja

Tu nie trzeba snuć wizji na temat zyskującej świadomość SI, która niczym SkyNet z Terminatora przemocą zmusza ludzkość do poddaństwa. Sami się dobrowolnie jej poddajemy, redukując swoją prywatność do minimum. Czasami wręcz nieświadomie, bo kto by czytał te wszystkie regulaminy. Ignorancja statystycznego internauty doszła do tego stopnia, że Zuckerberg podczas przesłuchania musiał tłumaczyć Bardzo Poważnym Kongresmenom jak działa Internet (senatorze, wyświetlamy reklamy to chyba cytat roku).

I faktycznie, SI jest zbyt głupia i prymitywna, by móc nam zagrozić. Jej właściciele i operatorzy… to już zupełnie inna bajka. Na razie jest skrajnie wątpliwe, by zarząd Facebooka, Google’a czy Microsoftu miał jakieś złowrogie zamiary względem ludzkości.

Kto mi zagwarantuje, że ten stan rzeczy się utrzyma za, na przykład, 20 lat?

Musisz przeczytać:

Dołącz do dyskusji

Advertisement