Newsy

Deepfake może być nowym etapem wojny informacyjnej. Filmy fałszujące rzeczywistość mogą być wykorzystywane przez wywiady obcych państw

2019-07-29  |  06:00

To może być kolejny etap wojny informacyjnej przed wyborami prezydenckimi w 2020 roku. Technologia deepfake daje praktycznie nieograniczone możliwości, a można ją wykorzystywać domowymi sposobami. Zmanipulowane filmy wideo, dzięki sztucznej inteligencji są nie do odróżnienia od prawdziwych nagrań. Mogą służyć do produkcji na masową skalę fake newsów. Trwają pracę nad oprogramowaniem, które ma pomóc ocenić prawdziwość pojawiających się filmów.

– Deepfake używa bardzo zaawansowanych narzędzi sztucznej inteligencji, które mogą być używane w różnych celach. Generuje zawartość medialną, która nie jest prawdziwa. Może ludzi po prostu oszukiwać, wprowadzać w błąd. To przykład tworzenia fake newsów, przy czym deepfake koncentruje się na generowaniu kontentu wideo – tłumaczy w rozmowie z agencją Newseria Innowacje dr hab. Dominik Ślęzak z Instytutu Informatyki Uniwersytetu Warszawskiego.

Amerykańska Izba Reprezentantów ostrzega, że technologia deepfake może być wykorzystywana przez wywiady wrogich państw i stanowić zagrożenie dla dyskusji publicznej i bezpieczeństwa narodowego USA. O technologii pozwalającej wyprodukować w pełni profesjonalne filmy wideo zrobiło się głośno już w 2017 roku. To wtedy w sieci zaczęły krążyć sfałszowane filmy pornograficzne, gdzie aktorkom cyfrowo podmieniono twarze na te należące do celebrytek. To jednak był dopiero początek.

– Sztuczną inteligencję, a konkretnie sieci neuronowe, można wykorzystać też pozytywnie. To np. ulubiona gra online, gdzie główny bohater może mnie przypominać. Innym przykładem są symulacje w medycynie. Np. możemy mieć bazę danych zapisów wideo przypadków bardzo poważnych schorzeń i spróbować dostosować te zapisy do parametrów nowego pacjenta – wymienia dr hab. Dominik Ślęzak.

Ostatnie przykłady pokazują jednak, że technologia deepfake to przede wszystkim niemal nieograniczone możliwości do wypuszczania fałszywych informacji. Niedawno w internecie można było obejrzeć rzekomą pijaną Nancy Pelosi, spikerkę Izby Reprezentantów. Mówiła niewyraźnie i bardzo powoli, tymczasem okazało się, że po prostu jej wypowiedź została spowolniona o kilkadziesiąt procent. Wcześniej jednak filmik z jej udziałem udostępnił choćby były burmistrz Nowego Jorku Rudy Giuliani. W sieci krążyły też fałszywe nagrania z Barackiem Obamą, Donaldem Trumpem czy Markiem Zuckerbergiem.

– Jeżeli ktoś używa tej technologii bez zgody osób, których zdjęcia są wykorzystywane, np. do tworzenia nieprawdziwych filmów czy właśnie przekręcania czyichś orędzi, czyli nie tylko wyciągania z kontekstu jakiejś wypowiedzi, ale wkładanie w czyjeś usta zupełnie nowych wypowiedzi, to są to narzędzia bardzo niebezpieczne – wskazuje ekspert.

Kilka tygodni temu pojawiła się aplikacja DeepNude. Dzięki niej można było „rozebrać” kobiety – wystarczyło zdjęcie, by dzięki sztucznej inteligencji zobaczyć, jak wygląda ona nago. Po licznych protestach aplikacja została zamknięta, ale w sieci krążą jej kolejne wersje. To tylko przykład aplikacji, która mogła być bardzo pomocna i służyć np. do skanowania ludzi do celów bezpieczeństwa, tymczasem była wykorzystana zupełnie inaczej.

– Sztuczna inteligencja będzie nam dawała coraz silniejsze narzędzia, analizę danych, symulowania rzeczywistości, zmieniania rzeczywistości. Jest to jednak nasza odpowiedzialność, jak będziemy tych narzędzi używać – podkreśla dr Ślęzak.

Pojawiają się aplikacje, które mają pomóc rozpoznać fałszywe materiały. Niektóre bardzo dokładnie sprawdzają mimikę, inne – częstotliwość mrugania i na tej podstawie oceniają stopień prawdopodobieństwa, że nagranie zostało spreparowane. Dopóki jednak nie zostaną opracowane takie przepisy, które pozwolą całkowicie unieszkodliwić technologię, wyścig będzie trwał.

– To podobnie jak w branży cyberbezpieczeństwa. Z jednej strony są hakerzy, którzy atakują nasze maszyny, próbują je zawirusować, a my próbujemy to wykryć i przeciwdziałać. Tak samo w dziedzinie deepfake’a można do tego podejść. Trzeba się nauczyć odróżnić prawdziwy kontent od tego spreparowanego i odpowiednio reagować – mówi dr hab. Dominik Ślęzak.

Czytaj także

Kalendarium

Więcej ważnych informacji

Jedynka Newserii

Jedynka Newserii

Venture Cafe Warsaw

Konsument

Brytyjscy naukowcy dowiedli, że odczuwania szczęścia można się nauczyć. Trzeba jednak stale to ćwiczyć

Sześcioletnie badania, połączone z prowadzeniem kursów uczących tego, jak poprawić samopoczucie i stać się człowiekiem szczęśliwym, wykazały, że stosując odpowiednie strategie, można uzyskać zadowalające rezultaty. Przejście kursu prowadzonego przez naukowców z Uniwersytetu Bristolskiego umożliwia poprawę parametrów świadczących o samopoczuciu nawet o 15 proc. Okazuje się jednak, że zalecane ćwiczenia należy wykonywać trwale – w przeciwnym razie następuje regres do poziomu sprzed ich wdrożenia. Dobre wyniki badań skłoniły ich autora do wydania poradnika. Jego polskojęzyczna wersja ukaże się w maju.

Konsument

Techniki genomowe mogą zrewolucjonizować europejskie rolnictwo i uodpornić je na zmiany klimatu. UE pracuje nad nowymi ramami prawnymi

Techniki genomowe (NTG) pozwalają uzyskiwać rośliny o większej odporności na susze i choroby, a ich hodowla wymaga mniej nawozów i pestycydów. Komisja Europejska wskazuje, że NTG to innowacja, która może m.in. zwiększyć odporność systemu żywnościowego na zmiany klimatu. W tej chwili wszystkie rośliny uzyskane w ten sposób podlegają tym samym, mocno wyśrubowanym zasadom, co GMO. Dlatego w ub.r. KE zaproponowała nowe rozporządzenie dotyczące roślin uzyskiwanych za pomocą technik genomowych. W lutym br. przychylił się do niego Parlament UE, co otworzyło drogę do rozpoczęcia negocjacji z rządami państw UE w Radzie. Wątpliwości wielu państw członkowskich, również Polski, budzi kwestia patentów NGT pozostających w rękach globalnych koncernów, które mogłyby zaszkodzić pozycji europejskich hodowców.

IT i technologie

Nowy ośrodek w Krakowie będzie wspierać innowacje dla NATO. Połączy start-upy i naukowców z sektorem obronności

Połączenie najzdolniejszych naukowców oraz technologicznych start-upów z firmami z sektora obronnego i wojskowego – to główny cel akceleratora, który powstaje w Krakowie. Będzie on należał do natowskiej sieci DIANA, która z założenia ma służyć rozwojowi technologii służących zarówno w obronności, jak i na rynku cywilnym w krajach sojuszniczych NATO. Eksperci liczą na rozwiązania wykorzystujące m.in. sztuczną inteligencję, drony czy technologie kwantowe. Dla sektora to szansa na pozyskanie innowacji na skalę światową, a dla start-upów szansa na wyjście na zagraniczne rynki i pozyskanie środków na globalny rozwój.

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.