Newsy

Polacy chcą zrewolucjonizować proces tworzenia animacji 3D w filmach czy grach. Dzięki uczeniu maszynowemu będzie on tańszy i prostszy niż do tej pory

2021-01-25  |  06:00
Mówi:dr hab. inż. Tomasz Trzciński, adiunkt na Wydziale Elektroniki i Technik Informacyjnych, Politechnika Warszawska
Kacper Kania, doktorant, Politechnika Warszawska
  • MP4
  • To może być przełom w renderowaniu, czyli automatycznej konwersji modeli szkieletowych na komputerze. Wysokiej jakości animacje są koniecznością w grach wideo czy filmach. Rozwiązania wykorzystywane w wirtualnej czy rozszerzonej rzeczywistości, obrazy generowane komputerowo zajmują dużo czasu, są przy tym drogie. Polacy chcą ułatwić powstawanie awatarów, wykorzystując do tego metodę uczenia się przy niskim poziomie zaawansowania. Z częściowych informacji uda się wówczas wygenerować realistycznie wyglądające wizualizacje.

    – Projekt „Realistyczne renderowanie postaci ludzi na podstawie niepełnej informacji” ma rozwiązać problem renderowania, czyli tworzenia grafiki komputerowej. Chcielibyśmy ten obraz generować metodami uczenia maszynowego, generatywnymi sieciami neuronowymi i kontrolować ten obraz – mówi agencji Newseria Innowacje dr hab. inż. Tomasz Trzciński, adiunkt na Wydziale Elektroniki i Technik Informacyjnych z Politechniki Warszawskiej.

    Wymagania świata filmu czy gier są coraz większe. Oznacza to konieczność wygenerowania lepszych jakości trójwymiarowych obrazów. Tradycyjnie wykorzystuje się przy tym techniki wirtualnej i rozszerzonej rzeczywistości, także obrazy generowane komputerowo. Wszystkie te techniki są jednak drogie, trudne do skalowania, a przy tym zajmują bardzo dużo czasu. Projekt Politechniki Warszawskiej „Low Shot Realistic Human Rendering from Partial Information” („Realistyczne renderowanie postaci ludzi na podstawie niepełnej informacji”), finansowany przez Microsoft Research Cambridge, może całkowicie zrewolucjonizować renderowanie.

    – Niepełna informacja, którą wykorzystujemy, polega na tym, że często podczas np. uchwytywania jakiejś klatki ze zdjęciem osoby nie mamy dostępu do jej pełnej sylwetki. Widzimy tylko część – od pasa w dół albo od pasa w górę, albo tylko ramiona – i w związku z tym chcielibyśmy rozwiązać ten problem przy wykorzystaniu generatywnych sieci neuronowych, takich jak wariacyjne autoenkodery czy architektury pozwalające na pewnego rodzaju domyślanie się reszty postaci przy wykorzystaniu danych, które już wcześniej miały tego typu ujęcia – tłumaczy dr hab. inż. Tomasz Trzciński.

    Polacy chcą do renderowania wykorzystać metody Partial Information (częściowe informacje) i Low-shot learning (uczenie się przy niskim poziomie zaawansowania) i w ten sposób tworzyć awatary. Generatywne modele sieci neuronowych pozwolą stworzyć wysokiej jakości wizualizacje postaci oraz animację ich ruchu.

    – Moim celem badawczym jest w tym momencie zaproponowanie takiego algorytmu, który byłby w stanie np. wyrenderować całą postać na podstawie tylko częściowych informacji. Lub np. inne zastosowanie w filmach, kiedy zadajemy jakąś trajektorię ruchu postaci, modelu trójwymiarowego i ta postać podąża za nią – wskazuje Kacper Kania, doktorant na Politechnice Warszawskiej.

    Według założeń, jak podaje Politechnika Warszawska, z częściowych informacji (np. fragmentu twarzy) i podstawowych, łatwych do zebrania danych, bez wykorzystywania skomplikowanych systemów wymagających wielu powtórzeń (w jednej z opisanych metod człowiek musi użyć 122 wyrażeń i 50 zdań oraz być rejestrowanym przez 40 kamer) – można wygenerować realistycznie wyglądające filmy (np. z pełną twarzą i mimiką oraz naturalnym sposobem mówienia).

    – Moje wstępne badania pokazały, że w tej działce brakuje rozwiązań, gdzie zadajemy jakiś ruch i postać podąża za tą trajektorią – to jest jedno. Drugie, okazuje się, że często widząc kogoś idącego na ulicy, jeśli to jest ktoś, kogo znamy, jesteśmy w stanie rozpoznać, że to jest nasz znajomy, po samym ruchu. I staram się też w tych badaniach wykorzystać te informacje – tłumaczy Kacper Kania.

    Zazwyczaj praca nad cyfrową postacią rozpoczyna się od skanu 3D twarzy czy ciała prawdziwej osoby wykonującej różne czynności przy wykorzystaniu specjalistycznego sprzętu, który następnie przetwarza grafik. Wymaga to studia przechwytywania ruchu. Tak powstał np. Gollum we Władcy Pierścieni. Rozwiązanie Polaków będzie tańsze, prostsze i szybsze. Pomoże też w sytuacji, gdy np. aktor nie może dokończyć filmu.

    – Za pomocą tego rozwiązania będzie można również odzwierciedlić w grach lub filmach, w jaki sposób np. zachowywałyby się postacie historyczne – mówi doktorant na Politechnice Warszawskiej.

    Czytaj także

    Kalendarium

    Więcej ważnych informacji

    Jedynka Newserii

    Jedynka Newserii

    Venture Cafe Warsaw

    IT i technologie

    Nowy ośrodek w Krakowie będzie wspierać innowacje dla NATO. Połączy start-upy i naukowców z sektorem obronności

    Połączenie najzdolniejszych naukowców oraz technologicznych start-upów z firmami z sektora obronnego i wojskowego – to główny cel akceleratora, który powstaje w Krakowie. Będzie on należał do natowskiej sieci DIANA, która z założenia ma służyć rozwojowi technologii służących zarówno w obronności, jak i na rynku cywilnym w krajach sojuszniczych NATO. Eksperci liczą na rozwiązania wykorzystujące m.in. sztuczną inteligencję, drony czy technologie kwantowe. Dla sektora to szansa na pozyskanie innowacji na skalę światową, a dla start-upów szansa na wyjście na zagraniczne rynki i pozyskanie środków na globalny rozwój.

    Farmacja

    Sztuczna inteligencja pomaga odkrywać nowe leki. Skraca czas i obniża koszty badań klinicznych

    Statystycznie tylko jedna na 10 tys. cząsteczek testowanych w laboratoriach firm farmaceutycznych pomyślnie przechodzi wszystkie fazy badań. Jednak zanim stanie się lekiem rynkowym, upływa średnio 12–13 lat. Cały ten proces jest nie tylko czasochłonny, ale i bardzo kosztowny – według EFPIA przeciętne koszty opracowania nowego leku sięgają obecnie prawie 2 mld euro. Wykorzystanie sztucznej inteligencji pozwala jednak obniżyć te koszty i skrócić cały proces. – Dzięki AI preselekcja samych cząsteczek, które wchodzą do badań klinicznych, jest o wiele szybsza, co zaoszczędza nam czas. W efekcie pacjenci krócej czekają na nowe rozwiązania terapeutyczne – mówi Łukasz Hak z firmy Johnson & Johnson Innovative Medicine, która wykorzystuje AI w celu usprawnienia badań klinicznych i opracowywania nowych, przełomowych terapii m.in. w chorobach rzadkich.

    Edukacja

    Skutki zbyt długich sesji gier wideo mogą być bolesne. Naukowcy rekomendują, aby nie przekraczać 3 godz. dziennie [DEPESZA]

    Zmęczenie oczu, ból głowy, pleców, dłoni i nadgarstka to dolegliwości najczęściej zgłaszane przez osoby regularnie grające w gry komputerowe. Na podstawie ankiety przeprowadzonej na grupie niemal tysiąca dorosłych osób amerykańscy naukowcy ustalili, że regularne sesje gier trwające co najmniej 3 godz. najbardziej przyczyniają się do powstania takich dolegliwości. Co ciekawe, u osób będących lub planujących zostać e-sportowcami natężenie dolegliwości nie rośnie gwałtownie, jak należałoby przypuszczać. Może to mieć związek z bardziej świadomym doborem sprzętu i lepszym zrozumieniem znaczenia ergonomii.

    Szkolenia

    Akademia Newserii

    Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.