REKLAMA

Głupi smartfonie, czytaj mi w myślach!

Miałam okazję zobaczyć Xboksa One w akcji. Konsola jak konsola, na dodatek wyglądająca jak magnetowid, ale jedna rzecz wzbudziła moją lekką zazdrość, choć przecież nie mam nawet telewizora. Komendy głosowe Xboksa One to rzecz wspaniała, bo nie dość, że rozpoznaje mowę całkiem sprawnie, to działa na telewizorze - na urządzeniu, na którym sterowanie głosem ma chyba największy sens. Uświadomiło mi to, jak bardzo zmęczona już jestem interfejsami praktycznie wszystkich urządzeń, zwłaszcza tych mobilnych, które posiadam.

02.12.2013 13.19
Głupi smartfonie, czytaj mi w myślach!
REKLAMA

Kilka dni temu w sieci zaczęły pojawiać się pierwsze wrażenia i opisy smartfona Jolla z Sailfish OS - bazującym na MeeGo systemie operacyjnym. Oprócz umożliwiania uruchamiania aplikacji z Androida, Sailfish OS ma jedną, naprawdę ciekawą rzecz odziedziczoną po Nokii N9. Chodzi o poruszanie się po systemie całkowicie za pomocą gestów. Nokia N9 była jednym z pierwszych urządzeń, które nie potrzebowało żadnych przycisków fizycznych, ani do blokady ekranu, ani do poruszania się po interfejsie. Gesty zaadaptowały potem inne systemy, w tym BlackBerry OS, jednak w Nokii N9 z MeeGo było to rozwiązanie świetne. Czytam kolejny komentarz, że Sailfish OS może być ciężki w obsłudze, przynajmniej na początku.

REKLAMA

Ciężki w obsłudze. CIĘŻKI W OBSŁUDZE.

Ciekawa byłabym eksperymentu. Kilka grup jakichś rdzennych mieszkańców terenów oderwanych od zaawansowanej technologicznie cywilizacji, ludzi, którzy ze smartfonami nie mieli styczności, dostałoby smartfony z różnymi systemami - czystym Androidem, iOS-em, Windows Phone czy właśnie Jolla OS. Nie dość, że musieliby zrozumieć, o co chodzi w samym posiadaniu i używaniu takiego urządzenia, to na dodatek niezwykle interesujące byłoby obserwowanie, jak radzą sobie z interfejsem.

Najciekawsze byłoby, gdyby po przyzwyczajeniu do jednego rozwiązania wymienić grupom kontrolnym urządzenia na sprzęty z innym systemem operacyjnym. Co stałoby się, gdyby osoba, która używała wyłącznie iOS dostała urządzenie z Androidem, a ta, która miała kontakt tylko z Androidem dostała smartfona z Jolla OS?

Co by się stało, gdyby człowiek używający tylko Jolla OS dostał nagle smartfona z przyciskami?

Chodzi o zwyczajne sprawdzenie, czy przyzwyczajenia hamują nas i jak mocno spowalniają rozwój. Chyba każdy z nas zna kogoś, kto kupuje dany telefon bo "miałem wcześniej Nokię/Samsunga/cokolwiek i umiem obsługiwać, to kolejny będzie ten sam".

jolla sailfish ui

Przyzwyczajenia to część problemu Windowsa 8, Nokii i innych, to w ogóle problem każdego interfejsu i każdego rozwiązania. Nowe jest wrogiem starszego, w szczególności wśród nieśledzących nowinek mas.

Jednak mimo przyczajeń, które odgrywają również u mnie ogromną rolę i które powodują często mimowolne sceptyczne podejście do nowości, mam już nieco dosyć dzisiejszych sposobów obsługi smartfonów, komputerów i ogólnie urządzeń elektronicznych.

Weźmy laptopa, takiego klasycznego, na którym piszę ten tekst. Używam do tego klawiatury, wspomagam się skrótami klawiszowymi oraz touchpadem, którym kontroluję kursor. Ten archaiczny sposób interakcji z urządzeniem, wespół z myszką, jest przecież kompletnie nielogiczny. Uwarunkowany lata temu poziomem rozwoju technologicznego zakorzenił się tak mocno, że wszelkie nowości nie miały nawet szans wejść do powszechnego użycia.

A dlaczego nielogiczny i nienaturalny? Bo wygląda mniej więcej tak: na ekranie wyświetlają się elementy, z którymi chcemy wejść w interakcje. By to zrobić, trzeba położyć dłoń na całkowicie innym od ekranu elemencie, by wprowadzić coś na ekran lub poruszać na ekranie kursorem. Czyli interakcje rozgrywają się na wyświetlaczu, ale kontrolowane są przez elementy zewnętrzne i de facto z ekranem i treściami na nim nie mamy bezpośredniego, prócz wzrokowego, kontaktu.

Nic dziwnego, że ludzie starsi czy ci uczący się po raz pierwszy obsługi komputera mają problem ze zrozumieniem, jak to wszystko działa.

Wydawałoby się, że rozwiązaniem tego problemu staną się ekrany dotykowe. Dzięki nim dotykamy bezpośrednio wyświetlanych treści - tekstu, obrazów czy przycisków. Wielodotyk dał też bliższe naturalnym odruchom możliwości interakcji z ekranem. Chcąc coś obrócić, “łapiemy” to dwoma palcami i przekręcami. Chcąc coś przybliżyć przyciągamy to rozsunięciem palców, w analogii to przybliżania do oczu.

Dotyk bardziej niż kursor i klawiatura przypomina odruchy realnego świata, gdzie by otworzyć klamkę łapiemy ją w dłoń czy by wcisnąć przycisk popychamy go palcem.

Jednak dotykowe ekrany to wciąż nie “to”. Następnym razem chcąc zrobić nawet coś prostego na smartfonie czy tablecie, zwróćcie uwagę, jak wiele uwagi to wymaga. Trzeba przede wszystkim patrzeć na ekran, bo pod palcami nie da się wyczuć krawędzi przycisków i elementów. Nie ma mowy o napisaniu SMS-a jak na starych telefonach z klawiaturami. Ekrany dotykowe ekstremalnie angażują zmysł wzroku i dopóki nie zyskają na skalę masową możliwości imitowania faktury nijak mają się do rzeczywistości. To tylko podróbki odruchów, które nie zapewniają możliwości chwytania i tak dalej. Dotyk na ustawionych pionowo ekranach jest niewygodny...

Przede wszystkim jednak ekrany dotykowe nie rozwiązały jednego z najważniejszych problemów - błyskawicznego wprowadzania informacji do urządzenia.

Znacie to uczucie, gdy piszecie jakiś tekst, ale macie wrażenie, że nawet wyrobione palce nie nadążają z przelewaniem myśli na cyfrowe literki? Albo gdy chcecie szybko zmienić jakieś ustawienie w telefonie czy znaleźć jakieś zdjęcie i w tym celu musicie przebijać się przez kolejne miejsca w systemie, machać kciukiem tu, tam, z dużym ekranem po którym palec śmiga jak szalony? W takich momentach ma się wrażenie, że urządzenie nie nadąża za potrzebami i człowiek uświadamia sobie, że to żaden smartfon, a cegła napakowana elektroniką.

Wspomniany we wstępie Xbox One zachwycił mnie łatwością rozpoznawania mowy, która jakieś dziesięć razy przewyższa interfejsy głosowe znane z różnych smart TV. Działając na telewizorze robi to wrażenie. W końcu zwykle siedzimy przed TV na kanapie, wygodnie i w domowym zaciszu. Tu nikomu nie przeszkadza, że powiemy do telewizora by przypiął Internet Explorera do boku ekranu a na reszcie otworzył YouTube, czy żeby przerwał aktualnie odtwarzany materiał i wrócił do ekranu głównego. Ten typ obsługi konsoli i tym samym telewizora okazuje się wygodniejszy, niż poruszanie się po interfejsie padem, pilotem, myszką, klawiaturą czy gestami.

Obsługa głosem w smartfonie czy tablecie to już inna para kaloszy. Urządzeń tych używamy inaczej, często w biegu i w sytuacjach, w których wydawanie poleceń głosem jest niekomfortowe, nie wspominając już o tym, że zakres komend głosowych jest mocno ograniczony w stosunku do ogromu funkcji. Mój inteligentny telefon nie rozumie polecenia “zrób zdjęcie i ustaw ostrość na drzewo”. Jeszcze.

A nawet, jeśli w końcu będzie to potrafił, to i tak nie jest to rozwiązanie ostateczne.

O przyszłości interakcji z urządzeniami mobilnymi mówi się wiele. Niektórzy planują gesty wykonywane nad ekranem, inni próbują giętkich ekranów i tak dalej. Ogólnie wydaje się, że smartfon przyszłości, przynajmniej najbliższych kilku lat, niekoniecznie będzie smartfonem, za to poszerzy możliwość sposobu wchodzenia w interakcję o kilka elementów.

shutterstock_130780547

Interfejs głosowy - to już mamy i widzimy w postaci Siri czy Google Now. Docelowo smartfon ma wybudzać się po wypowiedzeniu komendy (jak Xbox) i rozumieć mowę naturalną w stopniu wystarczającym, by nie było konieczności patrzenia na ekran.

Czujniki - to zaczynamy już też obserwować. Motorola, Samsung, Apple i kolejne aplikacje trzecie wykorzystują zestaw wbudowanych w urządzenia czujników do przewydywania potrzeb i jako komendy. GPS, żyroskopy, czujniki położenia, głosu, śledzenie wzroku, NFC, podczerwień, bluetooth - to wszystko zaczyna być wyokorzystywane do komunikacji pomiędzy urządzeniami i do poznawania zachowań i potrzeb użytkownika. Dzięki temu smartfon za kilka lat będzie wykonywał polecenia zanim je wydamy.

Nowe formy - giętkie ekrany, które nie dość, że zwiększą odporność na awarie, to na dodatek mogą służyć jako… Sposób interakcji z urządzeniem. Może to objawić się na przykład w bransoletce czy zegarku, który po odpowiednim ściśnięciu wykonuje odpowiednie polecenie i tak dalej.

Rozpoznawanie gestów, twarzy - na Google Glass tworzone są aplikacje, które reagują na przykład a mrugnięcia okiem. Co, jeśli urządzenie oprócz mrugnięcia potrafiloby rozpoznać inne drobne gesty, na przykład dłoni?

Cała magia polega na tym, że powyższe sposoby interakcji to nie pojedyncze pomysły i w przyszłości mogłyby zostać wykorzystywane równolegle, w jednym urządzeniu. Ciężko będzie nam się do tego przekonać.

Tylko, że wydaje się, iż ostateczna forma kontaktu człowiek-urządzenie będzie inna.

Taka forma, o której marzą od dawna futuryści, która rozpala naukowców i wyobraźnię ludzi.

Chodzi oczywiście o interfejs mózg-komputer (brain-computer interface, BCI).

Ten ma pozwalać na bezpośrednią komunikację mózgu z urządzeniem. BCI, wykorzystywany i rozwijany najczęściej w medycznym i rehabilitacyjnym kontekście (to z BCI korzysta Stephen Hawking), w przyszłości może też umożliwiać telepatię (brain-computer-brain interface), a już dziś komercyjnie zaczęto wykorzystywać go na przykład do kontroli gier. intendiX®SOCI — Screen Overlay Control Interface pozwala na zagranie w WoWa czy Angry Birds przy pomocy mózgu, a jeśli chodzi o przyszłość urządzeń mobilnych, to może ona kryć się bardziej w projektach typu iBrain.

iBrain, używany obecnie przez Hawkinga, początkowo rozbudowany elektroencefalograf, dziś rozwija się w kierunku prób przełożenia aktywności mózgowej na polecenia wydawane komputerowi, takie jak pisanie czy uruchamianie aplikacji.

W dziedzinie BCI dzieje się bardzo dużo - co i rusz powstają nowe wynalazki i produkty, takie na przykład jak kocie uszy reagujące na aktywność mózgu. Bo dlaczego nie?

Jednak najciekawsze dopiero przed nami. Jeśli udałoby się sprawić, że mózg porozumiewałby się bezproblemowo z systemem komputerowym, a mówiąc po staremu “czytał myśli”, to mogłoby się okazać, że powstałoby z tego idealne urządzenie mobilne. Idealne urządzenie w ogóle!

Zamiast klikać, mówić, machać rękami wystarczyłoby pomyśleć, że chce się wysłać maila, “podyktować” go w myślach i potwierdzić wysyłanie i tak dalej i dalej…

Tak, marzę sobie i wybiegam marzeniami daleko w przyszłość, ale to dlatego, że mam czasem ochotę rzucić smartfonem o podgłogę, zirytowana tym, że inteligentne niby urządzenie tak bardzo mnie nie rozumie.

REKLAMA

Niech czyta mi w myślach!

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA