Radary, kamery i aktualizacje, czyli jak Autopilot Tesli przewidział wypadek

Artykuł/Motoryzacja 02.01.2017
Radary, kamery i aktualizacje, czyli jak Autopilot Tesli przewidział wypadek

W ostatnim tygodniu 2016 roku do Internetu trafił film nagrany przez Hansa Noordsija, holenderskiego użytkownika Tesli Model X. Na nagraniu widać, że Tesla ostrzega przed kolizją (sygnałem dźwiękowym) i wykonuje hamowanie, podczas gdy dla kierowcy niebezpieczeństwo nie było jeszcze widoczne przez kolejny ułamek sekundy.

Ułamki sekund mogą na drodze zaważyć o życiu i zdrowiu kierowcy i pasażerów, dlatego takie ostrzeżenie jest wyjątkowo cenne. Jak to się stało, że wbudowany w Teslę X Autopilot, był w stanie przewidzieć zbliżającą się kolizję pojazdów?

Nie byłoby to możliwe bez aktualizacji oprogramowania Autopilota, której Tesla dokonała we wrześniu. Wtedy to do komputerów pokładowych samochodów Tesli trafiła wersja 8 firmware’u, w której znalazły się usprawnienia skupione głównie wokół funkcji Autopilota.

Autopilot z kolei pojawił się w Teslach w 2014 roku, kiedy to wprowadzono do egzemplarzy samochodów dodatkowy, radarowy sensor, który miał uzupełniać dane pochodzące z kamer i systemu analizy obrazu.

W wersji 8. zdecydowano się w określonych przypadkach umożliwić podejmowanie decyzji o niebezpieczeństwie na podstawie samych danych z radaru – bez konieczności potwierdzenia wizualnego z kamery. Powyższy film najwyraźniej pokazuje taką właśnie sytuację.

Analiza danych z radaru pokazuje zupełnie inny obraz niż ten z kamer.

Przede wszystkim niektóre z przeszkód, które są nieprzezroczyste dla oka kamery (np. mgła), nie przeszkadzają obrazowi radarowemu. Z drugiej zaś strony wiele obiektów widocznych w kamerze nie jest przez radar wykrywanych (drewno lub plastik).

Kolejną cechą obrazu radarowego analizowanego przez system pokładowy Tesli jest fakt używania tzw. odbić. Większość metalowych obiektów (a więc np. typowa karoseria samochodowa) powoduje odbicie sygnału radarowego, podobnie jak lustro odbija światło. Umożliwia to czasami uzyskanie obrazu „zza” innego obiektu – co programiści Tesli uwzględnili przy pisaniu oprogramowania w wersji 8.

Obraz generowany przez radar jest aktualizowany w pamięci komputera pokładowego co 1/10 sekundy. Program następnie próbuje przewidzieć pozycje obiektów wobec siebie na podstawie porównania kolejnych obrazów. Aby zapobiec „false positives”, czyli np. nieuzasadnionemu hamowaniu przed znakiem drogowym znajdującym się nad autostradą, gdy droga prowadzi w dół, lub przed małym, ale widocznym na radarze obiektem (np. puszką po coli), w procesie decyzyjnym oprogramowanie Tesli wspiera się danymi z floty. Gdy inne samochody tego producenta jechały w tym miejscu bez Autopilota, obraz radarowy zawierał domniemaną przeszkodę, a kierowca nie zahamował i pojechał swobodnie dalej, jest szansa że przeszkoda zostanie zignorowana.

Analiza sytuacji na drodze na podstawie takich informacji nie jest w 100% niezawodna. Być może nigdy taka nie będzie – wciąż nie można wyręczyć kierowcy całkowicie w kierowaniu pojazdem. Można jednak próbować go maksymalnie wesprzeć w podejmowaniu decyzji na drodze – filmik z Holandii jest doskonałym tego przykładem.

Teksty, które musisz przeczytać:

Dołącz do dyskusji

MAŁO? CZYTAJ KOLEJNY WPIS...

MAŁO? CZYTAJ KOLEJNY WPIS...

Advertisement