Google zadba o to, żeby Asystent ułatwił życie osobom niedosłyszącym i głuchym

News/Oprogramowanie 07.05.2019
Google zadba o to, żeby Asystent ułatwił życie osobom niedosłyszącym i głuchym

Google zadba o to, żeby Asystent ułatwił życie osobom niedosłyszącym i głuchym

Jedną z nowości prezentowanych na Google I/O 2019 były nowe funkcje Androida i Asystenta zaprojektowane z myślą o osobach niepełnosprawnych. Duży nacisk położony został na osoby, które mają problemy ze słuchem.

Ponieważ sam nie słyszę tak dobrze, jak bym sobie tego życzył, nowości zaprezentowane przez Google’a niezwykle mi się spodobały. Nie jestem zresztą sam – szacuje się, że na całym świecie podobne problemy ma blisko pół miliarda ludzi. Gigant z Mountain View z myślą o nas przygotował nowe funkcje.

Dołączą one do Live Transcribe.

Pierwszym z narzędzi, o których mówił Google, jest istniejący już Live Transcribe. Osoby, które mają problemy ze słuchem, mogą uruchomić tę funkcję, która na ekranie będzie w czasie rzeczywistym pokazywać transkrypcję wypowiedzi osoby w naszym otoczeniu. To jednak już było. Ciekawsze były inne elementy prezentacji.

Live Caption, czyli napisy dosłownie do wszystkiego.

To prawdziwa nowość, która pozwala generować napisy do każdego materiału audio albo wideo – i to lokalnie. Wystarczy odpalić film, przytrzymać przycisk głośności i wybrać nową ikonkę w wyskakującym menu, a na ekranie pojawi się pasek z napisami generowanymi w czasie rzeczywistym.

Dzięki temu można dodać napisy nie tylko do klipów wideo znalezionych w sieci, ale również do tych, które nagraliśmy sami lub dostaliśmy od znajomych. Świetne! Google zaś przypomina, że materiał audio nigdy nie opuszcza telefonu. Live Caption działa w dodatku w całym systemie, nie tylko w wybranych aplikacjach.

Live Relay, czyli Asystent jako Sekretarka.

Jeszcze większe wrażenie robi funkcja Live Relay. Dzięki niej Asystent może stać się prawdziwą sekretarką. Może odbierać w imieniu użytkownika telefony i w czasie rzeczywistym pokazywać transkrypcję kwestii, które wypowiada osoba po drugiej stronie słuchawki.

Posiadacz smartfona nie musi odpowiadać na te kwestie – wystarczy, że odpisze, a asystent w jego imieniu przeczyta tę odpowiedź. Wydaje mi się to nawet dużo ciekawsze niż futurystyczny Google Duplex, który w teorii ma wyręczyć nas całkowicie.

Project Euphonia

Czwartym z elemenetów, o którym wspominał przedstawiciel Google’a podczas konferencji I/O 2019, jest Project Euphonia. Firma postanowiła, że spróbuje zadbać o to, by rozpoznawać mowę nie tylko u osób, które mówią głośno i wyraźnie, ale również i u tych, którzy ze względu na niepełnosprawność mówią niewyraźnie.

Dołącz do dyskusji