Newsy

Polacy chcą zrewolucjonizować proces tworzenia animacji 3D w filmach czy grach. Dzięki uczeniu maszynowemu będzie on tańszy i prostszy niż do tej pory

2021-01-25  |  06:00
Mówi:dr hab. inż. Tomasz Trzciński, adiunkt na Wydziale Elektroniki i Technik Informacyjnych, Politechnika Warszawska
Kacper Kania, doktorant, Politechnika Warszawska

To może być przełom w renderowaniu, czyli automatycznej konwersji modeli szkieletowych na komputerze. Wysokiej jakości animacje są koniecznością w grach wideo czy filmach. Rozwiązania wykorzystywane w wirtualnej czy rozszerzonej rzeczywistości, obrazy generowane komputerowo zajmują dużo czasu, są przy tym drogie. Polacy chcą ułatwić powstawanie awatarów, wykorzystując do tego metodę uczenia się przy niskim poziomie zaawansowania. Z częściowych informacji uda się wówczas wygenerować realistycznie wyglądające wizualizacje.

– Projekt „Realistyczne renderowanie postaci ludzi na podstawie niepełnej informacji” ma rozwiązać problem renderowania, czyli tworzenia grafiki komputerowej. Chcielibyśmy ten obraz generować metodami uczenia maszynowego, generatywnymi sieciami neuronowymi i kontrolować ten obraz – mówi agencji Newseria Innowacje dr hab. inż. Tomasz Trzciński, adiunkt na Wydziale Elektroniki i Technik Informacyjnych z Politechniki Warszawskiej.

Wymagania świata filmu czy gier są coraz większe. Oznacza to konieczność wygenerowania lepszych jakości trójwymiarowych obrazów. Tradycyjnie wykorzystuje się przy tym techniki wirtualnej i rozszerzonej rzeczywistości, także obrazy generowane komputerowo. Wszystkie te techniki są jednak drogie, trudne do skalowania, a przy tym zajmują bardzo dużo czasu. Projekt Politechniki Warszawskiej „Low Shot Realistic Human Rendering from Partial Information” („Realistyczne renderowanie postaci ludzi na podstawie niepełnej informacji”), finansowany przez Microsoft Research Cambridge, może całkowicie zrewolucjonizować renderowanie.

– Niepełna informacja, którą wykorzystujemy, polega na tym, że często podczas np. uchwytywania jakiejś klatki ze zdjęciem osoby nie mamy dostępu do jej pełnej sylwetki. Widzimy tylko część – od pasa w dół albo od pasa w górę, albo tylko ramiona – i w związku z tym chcielibyśmy rozwiązać ten problem przy wykorzystaniu generatywnych sieci neuronowych, takich jak wariacyjne autoenkodery czy architektury pozwalające na pewnego rodzaju domyślanie się reszty postaci przy wykorzystaniu danych, które już wcześniej miały tego typu ujęcia – tłumaczy dr hab. inż. Tomasz Trzciński.

Polacy chcą do renderowania wykorzystać metody Partial Information (częściowe informacje) i Low-shot learning (uczenie się przy niskim poziomie zaawansowania) i w ten sposób tworzyć awatary. Generatywne modele sieci neuronowych pozwolą stworzyć wysokiej jakości wizualizacje postaci oraz animację ich ruchu.

– Moim celem badawczym jest w tym momencie zaproponowanie takiego algorytmu, który byłby w stanie np. wyrenderować całą postać na podstawie tylko częściowych informacji. Lub np. inne zastosowanie w filmach, kiedy zadajemy jakąś trajektorię ruchu postaci, modelu trójwymiarowego i ta postać podąża za nią – wskazuje Kacper Kania, doktorant na Politechnice Warszawskiej.

Według założeń, jak podaje Politechnika Warszawska, z częściowych informacji (np. fragmentu twarzy) i podstawowych, łatwych do zebrania danych, bez wykorzystywania skomplikowanych systemów wymagających wielu powtórzeń (w jednej z opisanych metod człowiek musi użyć 122 wyrażeń i 50 zdań oraz być rejestrowanym przez 40 kamer) – można wygenerować realistycznie wyglądające filmy (np. z pełną twarzą i mimiką oraz naturalnym sposobem mówienia).

– Moje wstępne badania pokazały, że w tej działce brakuje rozwiązań, gdzie zadajemy jakiś ruch i postać podąża za tą trajektorią – to jest jedno. Drugie, okazuje się, że często widząc kogoś idącego na ulicy, jeśli to jest ktoś, kogo znamy, jesteśmy w stanie rozpoznać, że to jest nasz znajomy, po samym ruchu. I staram się też w tych badaniach wykorzystać te informacje – tłumaczy Kacper Kania.

Zazwyczaj praca nad cyfrową postacią rozpoczyna się od skanu 3D twarzy czy ciała prawdziwej osoby wykonującej różne czynności przy wykorzystaniu specjalistycznego sprzętu, który następnie przetwarza grafik. Wymaga to studia przechwytywania ruchu. Tak powstał np. Gollum we Władcy Pierścieni. Rozwiązanie Polaków będzie tańsze, prostsze i szybsze. Pomoże też w sytuacji, gdy np. aktor nie może dokończyć filmu.

– Za pomocą tego rozwiązania będzie można również odzwierciedlić w grach lub filmach, w jaki sposób np. zachowywałyby się postacie historyczne – mówi doktorant na Politechnice Warszawskiej.

Czytaj także

Więcej ważnych informacji

Jedynka Newserii

Jedynka Newserii

Internet

Blisko 330 warszawskich skrzyżowań automatycznie wykrywa pieszych. Radary i inteligentne czujniki zwiększają bezpieczeństwo i płynność ruchu

W stolicy jest już ponad 330 skrzyżowań wyposażonych w detekcję ruchu pieszych, a każdego roku przybywa ich kilkadziesiąt. Przejścia wyposażone w czujniki ruchu, systemy termowizyjne oraz radary sygnalizują gotowość wejścia pieszych na pasy. Dzięki temu nie muszą czekać na zielone światło, pojawia się ono w momencie, kiedy podchodzą do przejścia. System działa też z korzyścią dla kierowców, ponieważ sygnalizacja dostosowuje się do ruchu w trybie wahadłowym, przez co nie trzeba czekać na zielone światło dla kierujących, kiedy przejście dla pieszych jest puste.

Kosmos i lotnictwo

Ekspert: Misja na Księżyc przyspieszy kolonizację Marsa. Już w 2035 roku na Czerwonej Planecie mogą wylądować pierwsi astronauci

Dzięki programowi Artemis NASA do 2024 roku na Księżycu wyląduje pierwsza kobieta i kolejny mężczyzna. Dzięki wykorzystaniu innowacyjnych technologii możliwa ma być eksploracja większej powierzchni Księżyca niż kiedykolwiek wcześniej. Wiedza zdobyta podczas misji na Księżyc zostanie wykorzystana, aby wykonać kolejny gigantyczny skok – wysłanie astronautów na Marsa.  – Po misji na Księżyc będzie taki zakres technologii związanych z lotami w kosmos, zamieszkaniem czy możliwościami produkcyjnymi w kosmosie, że już w 2035–3036 roku spodziewam się pierwszych lotów na Marsa – ocenia Leszek Orzechowski, architekt Space is More.