Newsy

Deepfake: Manipulacja coraz groźniejsza i bardziej zaawansowana. Sztuczna inteligencja może już spreparować wypowiedź nawet zmarłej osoby

2020-10-13  |  06:00

Dynamiczny rozwój rozwiązań z zakresu uczenia maszynowego oraz algorytmów sztucznej inteligencji doprowadził do wytworzenia się nowej dziedziny nauki bazującej na technologii deepfake. Wykorzystanie zbiorów Big Data w zakresie przetwarzania i analizy informacji wizualnych oraz dźwiękowych pozwala wykorzystać inteligentne algorytmy do zautomatyzowanego procesu syntezowania zdjęć i mowy. Technologia pozwala m.in. generować obrazy oraz dźwięki imitujące brzmienie i wygląd znanych oraz nieistniejących osób.

– Analizujemy i łączymy coraz więcej danych, dzięki czemu można wytwarzać różnego rodzaju sztuczne dane. W Techmo zajmujemy się głównie syntezowaniem głosów, robiliśmy przymiarki takich komunikatów jak prezydent Obama mówiący w języku polskim. Tutaj jest bardzo duże pole do różnego rodzaju nadużyć. Łatwo wytworzyć komunikat audio znanej osoby i powiedzieć jej głosem coś, czego nigdy nie powiedziała. Wygenerowanie wywiadu z kimś, kto nie istnieje, nie jest w tej chwili żadnym problemem – mówi agencji informacyjnej Newseria Innowacje dr hab. Bartosz Ziółko, prezes zarządu Techmo.

Mimo że technologia deepfake zrodziła się w internecie i jest powszechnie wykorzystywana m.in. do zamieniania twarzy aktorów w materiałach filmowych, jej potencjał wykracza daleko poza aspekty rozrywkowe. Wykorzystując zdobycze sztucznej inteligencji w procesie zautomatyzowanej obróbki danych wizualno-dźwiękowych, można syntezować sztuczne dane imitujące konkretne obiekty bądź odgłosy.

Firma Techmo wykorzystała tę technologię, aby usprawnić autorskie rozwiązania z zakresu syntezowania mowy. Inżynierowie sięgnęli po algorytmy uczenia maszynowego, aby wyszkolić sztuczną inteligencję w procesie imitowania mowy wskazanego użytkownika. Dzięki temu firma może tworzyć personalizowane boty głosowe, które imitują brzmienie wybranej osoby. Algorytmy Techmo analizują dźwięki źródłowe dostarczone przez klienta i na tej podstawie tworzą profil syntezowania danego głosu.

– Technologia deepfake potrzebuje danych i algorytmów. I obie te części w ostatnich latach nabrały zupełnie nowych wymiarów, są dużo większe bazy zdjęć, nagrań wideo czy audio. To jest bardzo szybko rosnąca branża. Są też różnego rodzaju algorytmy oparte na sieciach neuronowych, temu trendowi sprzyja też coraz silniejsza architektura komputerów, coraz większe możliwości przetwarzania danych – zauważa ekspert.

Potencjał tej technologii docenili także inżynierowie firmy Nvidia. Zaprojektowali narzędzie Maxine, które jest zdolne do generowania obrazów typu deepfake na potrzeby wideorozmów. Oprogramowanie analizuje obraz z kamery komputerowej i w czasie rzeczywistym przetwarza go w taki sposób, aby rozmówca wyglądał jak najkorzystniej podczas rozmowy. Algorytmy potrafią przeskalować stream do wyższej rozdzielczości, zwiększyć płynność nagrania, a nawet obrócić twarz w taki sposób, aby rozmówca mówił prosto do kamery.

O krok dalej poszli twórcy aplikacji Avatarify, która umożliwia użytkownikom Skype’a, Zooma oraz Slacka wcielenie się niemal w dowolną osobę podczas rozmowy. Oprogramowanie analizuje obraz przechwycony przez kamerę i wykorzystuje dane analityczne opisujące ruchy mimiczne rozmówcy w procesie animowania statycznego obrazu. Tym samym zasilając bazę danych aplikacji dowolnym zdjęciem, można wcielić się w zilustrowaną postać.

– Siła mediów jest duża, a fałszywe komunikaty mają silne oddziaływanie. Pod kątem reklamowym i kreowania światopoglądu jest duże pole do popisu, komercjalizowalność tego typu technik jest spora. Czasami łatwiej wygenerować nieprawdziwe treści, niż tworzyć prawdziwe, za którymi trzeba chodzić, analizować i odpowiednio przygotować. Są też inne zastosowania, jak np. generowanie wypowiedzi osób już nieżyjących. To mogą być zarówno osoby, które niedawno zmarły, a jest planowana kontynuacja serialu, czy jakiejś gry, mogą to być też komunikaty osób historycznych – wymienia Bartosz Ziółko.

Według analityków z firmy Grand View Research wartość globalnego rynku sztucznej inteligencji w 2020 roku wyniesie 62,4 mld dol. Przewiduje się, że do 2027 roku wzrośnie do 733,7 mld dol. przy średniorocznym tempie wzrostu na poziomie 42,2 proc.

Czytaj także

Kalendarium

Więcej ważnych informacji

Jedynka Newserii

Jedynka Newserii

Venture Cafe Warsaw

IT i technologie

Nowy ośrodek w Krakowie będzie wspierać innowacje dla NATO. Połączy start-upy i naukowców z sektorem obronności

Połączenie najzdolniejszych naukowców oraz technologicznych start-upów z firmami z sektora obronnego i wojskowego – to główny cel akceleratora, który powstaje w Krakowie. Będzie on należał do natowskiej sieci DIANA, która z założenia ma służyć rozwojowi technologii służących zarówno w obronności, jak i na rynku cywilnym w krajach sojuszniczych NATO. Eksperci liczą na rozwiązania wykorzystujące m.in. sztuczną inteligencję, drony czy technologie kwantowe. Dla sektora to szansa na pozyskanie innowacji na skalę światową, a dla start-upów szansa na wyjście na zagraniczne rynki i pozyskanie środków na globalny rozwój.

Farmacja

Sztuczna inteligencja pomaga odkrywać nowe leki. Skraca czas i obniża koszty badań klinicznych

Statystycznie tylko jedna na 10 tys. cząsteczek testowanych w laboratoriach firm farmaceutycznych pomyślnie przechodzi wszystkie fazy badań. Jednak zanim stanie się lekiem rynkowym, upływa średnio 12–13 lat. Cały ten proces jest nie tylko czasochłonny, ale i bardzo kosztowny – według EFPIA przeciętne koszty opracowania nowego leku sięgają obecnie prawie 2 mld euro. Wykorzystanie sztucznej inteligencji pozwala jednak obniżyć te koszty i skrócić cały proces. – Dzięki AI preselekcja samych cząsteczek, które wchodzą do badań klinicznych, jest o wiele szybsza, co zaoszczędza nam czas. W efekcie pacjenci krócej czekają na nowe rozwiązania terapeutyczne – mówi Łukasz Hak z firmy Johnson & Johnson Innovative Medicine, która wykorzystuje AI w celu usprawnienia badań klinicznych i opracowywania nowych, przełomowych terapii m.in. w chorobach rzadkich.

Edukacja

Skutki zbyt długich sesji gier wideo mogą być bolesne. Naukowcy rekomendują, aby nie przekraczać 3 godz. dziennie [DEPESZA]

Zmęczenie oczu, ból głowy, pleców, dłoni i nadgarstka to dolegliwości najczęściej zgłaszane przez osoby regularnie grające w gry komputerowe. Na podstawie ankiety przeprowadzonej na grupie niemal tysiąca dorosłych osób amerykańscy naukowcy ustalili, że regularne sesje gier trwające co najmniej 3 godz. najbardziej przyczyniają się do powstania takich dolegliwości. Co ciekawe, u osób będących lub planujących zostać e-sportowcami natężenie dolegliwości nie rośnie gwałtownie, jak należałoby przypuszczać. Może to mieć związek z bardziej świadomym doborem sprzętu i lepszym zrozumieniem znaczenia ergonomii.

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.