Newsy

Przyszłość przyniesie samochody sterowane za pomocą myśli. Wcześniej jednak autonomiczne pojazdy muszą potrafić analizować otoczenie w sposób podobny do ludzkiego

2019-06-07  |  06:00

Aby wypracować bezpiecznie działające algorytmy sterujące autonomicznymi pojazdami trzeba  nauczyć maszyny analizowania danych o otoczeniu w sposób przypominający ludzki. Systemy muszą być wyposażone w narzędzia markujące działanie kory wzrokowej, odsiewającej z odbieranych przez człowieka bodźców wzrokowych 70 proc. danych nieistotnych w procesie prowadzenia pojazdu. Inżynier firmy NVIDIA przekonuje, że autonomiczne pojazdy odgadujące myśli pasażera to tylko kwestia czasu.

– Na autonomię pojazdów składa się bardzo wiele czynników i bardzo wiele jest tutaj etapów. Musimy zorganizować takiemu pojazdowi percepcję, żeby mógł postrzegać przestrzeń, następnie lokalizację, żeby mógł się zlokalizować,, zaplanować swoją ścieżkę, no i ostatecznie zaaplikować kontrolę tak, żeby tę ścieżkę faktycznie wykonać. I każdy z tych etapów to są oddzielne algorytmy z różnych dziedzin. Obecnie najwięcej jest w tym sztucznej inteligencji – mówi agencji informacyjnej Newseria Innowacje Krzysztof Kudryński z NVIDIA.

Rozwiązania z zakresu sztucznej inteligencji są wykorzystywane przede wszystkim na etapie percepcji, czyli rozpoznawania przestrzeni, w jakiej porusza się samochód autonomiczny. Na graficznych procesorach implementowane są konwolucyjne sieci neuronowe. To takie sieci splotowe, w których układ połączeń pomiędzy neuronami odzwierciedla budowę ludzkiego narządu wzroku. Dzięki temu możliwa jest filtracja obrazów, czyli takie ich przekształcenie, które pozwala m.in. na wydobycie z nich użytecznych informacji. Może to być np. wzmocnienie krawędzi.

– Sztuczna inteligencja w autonomicznych pojazdach najczęściej pojawia się na etapie percepcji dlatego, że mamy aktualnie wielką dominację sieci konwolucyjnych, które wspaniale się implementuje na procesorach graficznych i działa to wtedy bardzo szybko. Można to zoptymalizować, można zmniejszyć precyzję tych obliczeń tak, żeby mogły się wykonywać na robotach, w samochodach, bardzo małych urządzeniach – mówi Krzysztof Kudryński.

Prace związane z dopracowywaniem technologii autonomicznych pojazdów w dużej mierze skupiają się na nauczaniu ich postrzegania przestrzeni na wzór ludzki. Start-up AEye opracowuje inteligentny system wykrywania i zmiany odległości (iDAR), który ma za zadanie zastąpić czujniki LiDAR. Jest to system percepcji, który naśladuje ludzki mózg i jego zdolność do inteligentnego postrzegania otoczenia. Firma wykorzystuje sztuczną inteligencję (SI), aby pomóc samochodom autonomicznym myśleć jak robot, ale rozumieć jak człowiek.

Ludzie przetwarzają w korze wzrokowej około 70 proc. danych przestrzennych i środowiskowych, zanim prześlą dane do mózgu. Ludzka kora wzrokowa filtruje w czasie rzeczywistym informacje, których mózg nie potrzebuje, aby człowiek mógł podejmować skutecznie i szybko decyzje w oparciu o tylko niezbędne dane. Funkcję kory w systemie iDAR pełni technologia Agile LiDAR, pozwalająca na przechwytywanie dużych ilości danych graficznych i przestrzennych oraz ich selekcję w czasie rzeczywistym.

– Chcemy, żeby autonomiczny samochód jeździł sam. Musimy go jednak wytrenować, żeby wiedział np. jadąc po drodze i widząc autobus, że zza niego może wyskoczyć dziecko. Dla nas jest to oczywiste, ale samochód musi dostać zbiór treningowy, w którym pojawi się ten autobus i wychodzące z niego dziecko. Nie możemy wszystkich takich przypadków zaplanować, dlatego lepiej jest najpierw nauczyć go zdrowego rozsądku na jakichś innych etapach i to wszystko połączyć w jedną całość – wyjaśnia ekspert.

Przyszłość motoryzacji należeć może jednak nie tylko do zupełnie autonomicznych pojazdów, lecz takich, którymi będzie można sterować za pomocą fal mózgowych. O tym, że taki kierunek rozwoju procesu sterowania jest możliwy świadczyć może chociażby wdrożenie analizy fal mózgowych w metodach terapeutycznych biofeedback EEG. Jest to metoda terapeutyczna, w której podłącza się elektrody w różnych miejscach na skórze czaszki i uszach. Mają one za zadanie rejestrować poszczególne pasma fal mózgowych. Te z kolei informacje zamieniane są na obraz zrozumiały dla pacjenta.

W ramach biofeedback EEG pacjent ma za zadanie sterowanie aktywnością mózgu tak, by osiągnąć efekt np. wywołania przyspieszenia samochodu widzianego na ekranie.

– Jesteśmy coraz bliżej tego, żeby komputer na podstawie naszych fal mózgowych wiedział o naszej intencji. Jest taka szansa, że jeżeli mocno się skoncentrujemy na jakiejś konkretnej myśli, np. wyobrazimy sobie bardzo mocno mapę i miejsce, w które chcemy jechać, to w przyszłości samochód autonomiczny podchwyci to i będzie mógł nas tam zawieźć. Brzmi jak science fiction, ale jest to naprawdę w zasięgu możliwości – przekonuje Krzysztof Kudryński.

Według Allied Market Research, światowy rynek samochodów autonomicznych osiągnie w 2019 r. wartość ponad 54 mld dol. Do 2026 roku zwiększy jednak swoją wartość ponad dziesięciokrotnie – do poziomu ponad 556 mld dol.

Czytaj także

Kalendarium

Więcej ważnych informacji

Jedynka Newserii

Prawo

Duże projekty fotowoltaiczne w Polsce mocno spowolnione. Największymi problemami nadmierna biurokracja i chaos interpretacyjny

Długotrwałe procedury, nadmierna biurokracja i często niejednoznaczne interpretacje przepisów hamują rozwój fotowoltaiki w Polsce – wynika z raportu Polskiego Stowarzyszenia Fotowoltaiki. Inwestorzy wskazują uzyskanie warunków przyłączenia jako najbardziej problematyczny etap procesu inwestycyjnego. Barierą jest też skala wydanych odmów przyłączenia do sieci, co odstrasza inwestorów. Zmiany są konieczne, zwłaszcza w kontekście dyrektywy RED III, która wskazuje na konieczność przyspieszenia, uproszczenia i ujednolicenia procedur administracyjnych dla inwestycji w OZE.

Konsument

Czterech na 10 Polaków miało do czynienia z deepfake’ami. Cyberprzęstępcy coraz skuteczniej wykorzystują manipulowane treści

Deepfaki, czyli wygenerowane bądź też zmanipulowane przez sztuczną inteligencję zdjęcia, dźwięki lub treści wideo, to jedna z najbardziej kontrowersyjnych technologii naszych czasów. Do jej tworzenia wykorzystywane są zaawansowane algorytmy AI, dlatego użytkownikom coraz trudniej jest odróżnić treści rzeczywiste od fałszywych. Z raportu „Dezinformacja oczami Polaków 2024” wynika, że cztery na 10 badanych osób miało do czynienia z takimi treściami. To o tyle istotne, że deepfaki bywają wykorzystywane do manipulacji, szantażu, niszczenia reputacji, oszustw i wyłudzeń finansowych.

Ochrona środowiska

Państwowa Agencja Atomistyki przygotowuje się do nadzoru nad pierwszą polską elektrownią jądrową. Kluczową kwestią jest bezpieczeństwo

Trwają przygotowania do budowy pierwszej w Polsce elektrowni jądrowej na Pomorzu. Zgodnie z harmonogramem przedstawianym przez rząd fizyczna budowa ma ruszyć w 2028 roku, a początek eksploatacji pierwszego bloku planuje się na 2036 rok. Również Państwowa Agencja Atomistyki przygotowuje się do realizacji zadań związanych z dozorem nad budową, rozruchem i eksploatacją nowej jednostki. Kluczowe są kwestie związane z bezpieczeństwem jądrowym i ochroną radiologiczną obiektu.

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.