REKLAMA

Nie wiem, czy chcę żyć w świecie, gdzie sztuczna inteligencja składa kondolencje

Dzień, w którym sztuczna inteligencja składa człowiekowi kondolencje to dzień, w którym została przekroczona pewna człowieczo-robotyczna granica. Dzień, w którym sztuczny głos mówi, że mu przykro i że zmarły ojciec użytkownika na pewno był fantastycznym człowiekiem to dzień, w którym mam ochotę wyrzucić wszystkie komputery za okno.

01.04.2016 19.04
Sztuczna Inteligencja
REKLAMA
REKLAMA

W ciągu dosłownie tygodnia świat technologiczny oszalał na punkcie botów wszelakich. Te przecież nie są nowe, ale fiasko Tay od Microsoftu czy prezentacja botów do Skype’a ożywiła dyskusję i zainteresowanie botami. Przy okazji przypomniała też o sobie sztuczna inteligencja. W tym miejscu pojawia się tysiąc pytań o przyszłość interakcji człowieka z komputerem, ale też o to, kto będzie kontrolował boty i SI?

Microsoft twierdzi, że boty będą platformą przyszłości - jak aplikacje, tyle że zamiast wybierać odpowiednie przyciski i funkcje, będziemy mówić lub pisać do odpowiednich botów, by wykonywać akcje.

Sztuczna inteligencja to nie nowość.

Przecież na podobnej zasadzie działa Cortana, Siri czy Google Now, asystent M od Facebooka czy boty na stronach internetowych, pomagające w obsłudze. Różnią się skalą, możliwościami i podejściem. Asystenci są zazwyczaj bardziej rozwinięci i nastawieni na odczytywanie kontekstu, uczenie się użytkownika, jego zwyczajów i zbieranie o nim danych. Boty, jak te zaprezentowane przez Microsoft w ramach “conversations as a platform”, to narzędzia skierowane na wykonanie konkretnych zadań, do których są stworzone.

Nic jednak nie stoi na przeszkodzie, by Siri, Google Now czy Cortana dostając od użytkownika zadanie, na przykład kupienie biletu na konkretny pociąg, zamiast korzystać  z własnych narzędzi zwróciły się do takiego bota a’la te od Microsoftu i zarezerwowały bilet przez niego.

Maszyna współpracująca z maszyną dla dobra człowieka. Boty ze sztuczną inteligencją rozmawiające ze sobą w swoim własnym języku, by wykonywać za nas czynności.

Tay przeszła małe robotyczne “załamanie nerwowe” - po tym, jak ludzie nauczyli ją jak być rasistką, Tay doznała małych poprawek by wrócić, oznajmić światu, że pali marihuanę przed policją a potem zawiesić się i zaspamować Twittera.

Boty i sztuczne, uczące się inteligencje, to wytwory człowieka i musimy o tym pamiętać. Nie myślą, nie czują, są trochę jak mówiące papugi, które powtarzają to, co usłyszą. Jednak pojawia się bardzo ważne pytanie: czy boty, które mają być naszą przyszłością mają mieć ograniczenia w tym, czego się nauczą? Czy mają nie przyjmować pewnych wiadomości, ignorować inne, czy mają mieć poglądy? A jeśli tak, to jakie? Kto za nie będzie odpowiadał? Kto decyduje, czy bot ma być rasistą, czy może pacyfistą? Czy bot ma wspierać działania wojenne w Syrii, mieć zdanie o Palestynie? Jeśli tak, to czy ma przyjąć to zdanie z analiz konkretnych stron internetowych, czy może ma być wbudowane przez twórców? Czy rozwój takiej sztucznej inteligencji, która opanuje świat nawet w bardziej bezosobowej funkcji nie będzie oznaczał cenzury, manipulacji informacją, zamknięcia w bańce informacyjnej?

Być może świat przyszłości będzie wyglądał tak, jak w dziesiątkach filmów science-fiction, w których komputerów niemal nie widać, a mimo to są wszechobecne dzięki głosowej interakcji z człowiekiem. Boty na Skypie i wizja przyszłości Microsoftu przybliżają nas do tego momentu.

Warto jednak pamiętać, że istnieją dwa skrajne podejścia do sztucznej inteligencji. Jedno, prezentowane przez Google Now, zakłada bezosobowe algorytmy, które z jak najmniejszą dozą emocji wykonują akcje i prezentują informacje. Drugie uskuteczniane przez Siri, Cortanę czy Tay, upodabnia robota do człowieka - pozwala mu żartować, przedrzeźniać się, wchodzić w interakcje na bardziej osobistym poziomie.

To emocjonalne podejście może faktycznie sprawia, że czujemy się lepiej z botami i sztuczną inteligencją, chociaż nie jestem tego pewna. Personalny poziom znajomości z robotem jest… dziwny.

Jeszcze dziwniej jest, gdy bezosobowy dotychczas robot postanawia przeczytać kawałek maila dotyczącego śmierci ojca użytkownika i robi to w momencie, gdy użytkownik wyszukuje zdjęcia z miasta, w którym jego ojciec zginął w wypadku. Mnie przechodzą ciarki.

Człowiek momentalnie zdaje sobie sprawę, jak potężne narzędzia tworzymy.

Robot potrafi odczytać kontekst z maila sprzed prawie 6 lat i powiedzieć tym swoim dziwnym głosem coś dogłębnie emocjonalnego. Nawet jeśli tylko to przeczytał.

Każdy nowy bot, każdy nowy pomysł, by stworzyć z nich przyszłość, to krok w stronę świata, w którym nie jestem pewna, czy chcę istnieć.

REKLAMA

Nie chcę, by boty przypominały mi o śmierci bliskich, nie chcę, żeby udawały współczucie, nie chcę, żeby wyręczały mnie w zadaniach, jeśli ma to oznaczać, że będą wchodziły mi w życie w taki dziwnie prawdziwny, a przecież nieprawdziwy sposób.

Niestety wiem, że nie da się tego uniknąć i będę musiała się z tym pogodzić.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA