Mówi: | prof. Neil Johnson |
Funkcja: | fizyk |
Firma: | Dynamic Online Networks Laboratory, George Washington University |
Tegoroczne wybory na świecie pod ostrzałem dezinformacji i deepfake'ów. Badacze z USA przygotowali mapę źródeł szkodliwych treści
Zbliżające się wybory w ponad 50 krajach, w tym w USA i w Polsce, zachęcą twórców szkodliwych treści do wzmożonego działania z wykorzystaniem sztucznej inteligencji. Najwięcej deepfake’ów prawdopodobnie powstanie latem tego roku. Analitycy sprawdzili, jakie miejsca w cyfrowym świecie są swoistymi inkubatorami dla działań „złych aktorów”, i sporządzili ich mapę. To małe platformy są głównym źródłem powstawania i rozpowszechniania szkodliwych treści. W tym kontekście unijny Akt o usługach cyfrowych można ocenić jako nietrafiony, bo takie małe platformy będą praktycznie poza kontrolą przepisów. Naukowcy sugerują podejmowanie w walce z tym zjawiskiem działań opartych na realistycznych scenariuszach, a całkowite jego wyeliminowanie do takich nie należy. Dlatego lepiej ograniczać skutki dezinformacji.
– Wszyscy mówią o tym, co może osiągnąć sztuczna inteligencja działająca bez kontroli w mediach społecznościowych. Biorąc pod uwagę zagrożenia i tzw. bad actors, czyli „złych aktorów”, oraz wybory, które mają się odbyć w tym roku w wielu krajach, również w Polsce, prawdopodobnie także w Wielkiej Brytanii, a z pewnością w USA i Indiach – głosować będą łącznie 3 mld ludzi – mamy do czynienia z problemem fake newsów i dezinformacji w internecie. Można się zastanawiać, co może pójść nie tak przy wykorzystaniu sztucznej inteligencji i jej możliwości działania przez całą dobę bez ograniczeń co do prędkości, potencjału i zdolności do tworzenia nowych rzeczy w sposób przypominający działania człowieka. Oczywiście wiele może pójść nie tak – mówi w wywiadzie dla agencji Newseria Innowacje prof. Neil Johnson, fizyk z Uniwersytetu Jerzego Waszyngtona, prowadzący Dynamic Online Networks Laboratory, zajmujące się mapowaniem internetu.
Problem zagrożeń, jakie niesie niekontrolowane wykorzystywanie sztucznej inteligencji, został już zauważony przez Unię Europejską. Jednym z narzędzi, które ma służyć kontroli tego zjawiska, jest Akt o usługach cyfrowych (DSA) wchodzący w życie 17 lutego. To tzw. konstytucja internetu, czyli zbiór ogólnounijnych przepisów dotyczących usług cyfrowych, podmiotów działających jako pośrednicy dla konsumentów oraz towarów, usług i treści. Celem wprowadzenia DSA ma być zbudowanie bezpieczniejszego i bardziej sprawiedliwego świata online. W stosunku do największych platform internetowych przepisy zaczęły obowiązywać już w sierpniu ub.r.
To właśnie na różnego typu platformy nowe przepisy nakładają najwięcej obowiązków. Dotyczy to m.in. ich roli w ułatwianiu użytkownikom rozpowszechniania fałszywych, nielegalnych i szkodliwych treści czy dokonywania oszustw w zakresie handlu elektronicznego. W ostatnich latach platformy stały się bowiem najważniejszym miejscem wymiany informacji i poglądów, z którego czerpią setki milionów, a nawet miliardów użytkowników na całym świecie.
Problem polega jednak na tym, że brakuje chociażby jednoznacznych kryteriów, które oznaczałyby to, kiedy zaczynamy mieć do czynienia ze szkodliwą treścią.
– Wszystkie dyskusje nad kierunkami polityki, często prowadzone przez same platformy, które dysponują wiedzą jedynie o sobie, zawsze są oparte na niejednoznacznych kryteriach opisowych odnoszących się do „złych” podmiotów w sieci – zauważa prof. Neil Johnson. – Nasze badanie miało na celu zidentyfikowanie, gdzie kryją się te zagrożenia, gdzie działają szkodliwe podmioty i gdzie są ich społeczności. Wyobraźmy sobie, że chcemy rozwiązać problem związany z ruchem drogowym w Londynie, Nowym Jorku, Warszawie – jak to zrobimy, jeśli nie mamy mapy miasta?
Badacze postanowili więc przeprowadzić ilościową analizę naukową, która miała przewidzieć, w jaki sposób te podmioty będą nadużywać sztucznej inteligencji na całym świecie.
– Jest to pierwsze badanie, w którym przyjrzeliśmy się liczbom i lokalizacji aktywności sztucznej inteligencji na większą skalę. Jeśli obejrzymy nagranie dowolnej dyskusji z udziałem polityków w USA, Europie, Wielkiej Brytanii na temat internetu i sztucznej inteligencji, te dyskusje są mało konkretne i wydaje się, że politycy nie do końca rozumieją, co się dzieje, i nie winię ich za to – próby zgłębienia tej kwestii zajęły mi całe życie, a oni mają dwie godziny, żeby zapoznać się z tematem. Problem jednak polega na tym, że to oni podejmują decyzje – mówi fizyk z Uniwersytetu Jerzego Waszyngtona. – Sztuczna inteligencja w połączeniu z internetem wszystko zmieni, ponieważ jest to nowa technologia stale dostępna od ręki dla wszystkich na całym świecie. Pierwsze badanie na ten temat jest ważne. Byliśmy zaskoczeni, że nikt wcześniej nie zajął się tym zagadnieniem.
Na początek badacze wytypowali kilka podmiotów, które można było sklasyfikować jako „złych aktorów”. Sprawdzili ich powiązania, odbiorców i ich przyjaciół, a następnie stworzyli ich mapę.
– Oczekiwaliśmy, że przez analogię do miasta wszyscy dobrzy ludzie mieszkają w centrum, pośrodku mamy liczną populację, a wszystko, co podejrzane, dzieje się na obrzeżach. Uzyskaliśmy jednak wyniki przeciwne do tego założenia. Obok istnienia dużych platform, takich jak Facebook, X (poprzednio Twitter) czy TikTok, czyli głównych platform zrzeszających ogromne liczby ludzi należących do społeczności skupionych wokół na przykład rodzicielstwa lub ulubionych potraw, są społeczności najczęściej istniejące na mniejszych platformach, połączonych z tymi dużymi. Razem z pozostałymi tworzą one cały ekosystem, w którym sztuczna inteligencja na usługach szkodliwych podmiotów może działać swobodnie – wyjaśnia badacz Dynamic Online Networks Laboratory. – Dwa–trzy miliardy osób na świecie należy do społeczności, na przykład wielbicieli pizzy czy rodziców.
Okazało się, że największe platformy co prawda mają największe znaczenie pod względem potencjalnych szkód, ale już nie pod względem tego, gdzie taka sztuczna inteligencja powstanie oraz gdzie będą działać społeczności „złych aktorów”, szerzących rasizm, nienawiść, skierowanych przeciwko kobietom, rządom czy wyznawcom określonych religii. Badacze odkryli, że takie społeczności będą działać jako rezerwuar szkodliwych treści na mniejszych platformach, takich jak np. Telegram czy Gab. Te natomiast mają nie być objęte przepisami wynikającymi z DSA. W ocenie badaczy jest to więc rozwiązanie nie do końca trafione, które w dodatku teraz mogą powielić także Stany Zjednoczone.
– Ponieważ nie dysponowano mapą przy opracowywaniu przepisów, poczyniono założenie, że większe platformy mają większy wpływ. Jest to jedynie założenie i podobnie jak w każdym innym przypadku w nauce nie można po prostu tworzyć założeń bez ich weryfikacji. Nasze badanie polegało na przetestowaniu tych założeń i wnioski okazały się do niego przeciwne – podkreśla prof. Neil Johnson. – Wszyscy skupiają się na tym, jakie nieprawdziwe treści mogą być rozpowszechniane. Ale nieważne, co to za informacje, najważniejsza jest ich lokalizacja. Ustaliliśmy, gdzie kryją się zagrożenia. Na tej samej zasadzie lokalizacja pojazdów w mieście jest ważniejsza dla zrozumienia ruchu drogowego niż wiedza o tym, że są to dwa samochody BMW i jedna Toyota.
Jak podkreśla ekspert, w dyskusji na temat dezinformacji dominują dwie strategie: całkowite wyeliminowanie lub opanowanie problemu. Jego zdaniem pierwsza jest z góry skazana na porażkę. Takie działanie wymagałoby ogromnej skali szczegółowych i kosztownych działań, bez gwarancji, że to cokolwiek da.
– Przejdźmy więc do drugiej strategii, która polega na opanowaniu problemu. Jest to bardziej kontrowersyjna strategia, ponieważ według większości ludzi trzeba te problemy usunąć, zamiast je opanowywać. Ale jako przykład można podać tu COVID-19 – nie wyeliminowaliśmy go całkowicie, ale można powiedzieć, że go opanowaliśmy. Sedno sprawy polega na tym, że dla rządów, podmiotów czy platform jest to strategia, której powinni unikać. Sprawa jednak została upolityczniona – ale mogę to powiedzieć jako naukowiec na podstawie wyników badań – w sferze politycznej argument, że fałszywe informacje należy usuwać, zawsze będzie brzmiał bardziej szlachetnie, zawsze będzie się wydawać lepszym wyjściem. Problem polega na tym, że bez mapy, a o ile wiem, tylko my taką mapą dysponujemy, poznawszy ten problem od realnej strony, jego usunięcie jest niemożliwe – podkreśla badacz Dynamic Online Networks Laboratory.
Zgodnie z szacunkami poczynionymi w trakcie badania latem tego roku napędzane sztuczną inteligencją działania „złych aktorów” staną się codziennością. Badacze ocenili to na podstawie analogii z podobnymi technologicznie incydentami z 2008 i 2013 roku. Pierwszy dotyczył ataków algorytmicznych na amerykańskie rynki finansowe, a drugi chińskich cyberataków na infrastrukturę USA. To prognoza szczególnie niebezpieczna, zwłaszcza w kontekście zbliżających się wyborów.
– To będą naprawdę interesujące wybory, ponieważ poprzednio mieliśmy do czynienia z kilkoma botami na Twitterze i paroma dziwnymi stronami internetowymi. Nie wiadomo, jaki był ich faktyczny wpływ w wyborach prezydenckich w USA z 2016 i 2020 roku. Teraz sytuacja ze sztuczną inteligencją przedstawia się całkowicie inaczej – można ją wykorzystać na większą skalę, dysponując większą szybkością. Większość populacji USA korzysta z internetu i jeśli sami nie mają kont w mediach społecznościowych, to ma je ich rodzeństwo, rodzice czy dzieci, więc są pod ich pośrednim wpływem. Ten wpływ dotyczy całej populacji, chyba że ktoś mieszka w chacie w samym sercu Montany. Mamy do czynienia z nową technologią i – pomijając ocenę, kto jest tutaj po dobrej, a kto po złej stronie – ci, którzy lepiej się nią posługują, wygrają – ostrzega prof. Neil Johnson. – W krajach, w których w tym roku są wybory, będziemy otrzymywać wiadomości głosowe będące deepfake’ami. Będzie to prawdziwa bitwa w sieci i wyścig zbrojeń, który będzie polegał na tym, kto użyje tej technologii w większym stopniu. Czy takie narzędzia powinny być stosowane? Oczywiście, że nie, ale to nie zmienia faktu, że tak będzie.
Czytaj także
- 2025-03-04: Anna Dec: Za mówienie kontrowersyjnych rzeczy byłam karcona w szkole przez rówieśników. Teraz w pracy jestem za to doceniana
- 2025-03-03: Unia Europejska spóźniona w wyścigu AI. Eksperci apelują o szybsze inwestycje i zaprzestanie regulacji
- 2025-03-13: Inwestycje w sztuczną inteligencję na bardzo niskim poziomie. Potencjał polskich kadr nie jest wykorzystywany
- 2025-02-13: Europa zapowiada ogromne inwestycje w sztuczną inteligencję. UE i USA mają wspólne interesy w obszarze AI
- 2025-03-11: Nowe prawo ograniczy dostęp dzieci do niebezpiecznych treści w sieci. Obecnie większość nastolatków ma dostęp do pornografii czy hazardu
- 2025-02-07: Rola telekomów w upowszechnianiu sztucznej inteligencji rośnie. T-Mobile udostępnia klientom zaawansowaną wyszukiwarkę Perplexity Pro
- 2025-01-24: M. Kobosko: Obowiązkiem Europy jest wspieranie białoruskiej opozycji i wolnych mediów. Najgorszym scenariuszem dla Polski jest wchłonięcie Białorusi przez Rosję
- 2025-01-30: Europosłowie PiS i Konfederacji ostrzegają przed europejską cenzurą. Blokowanie treści w sieci zagraża wolności słowa
- 2025-01-23: M. Gosiewska: Na Białorusi znowu odbędą się pseudowybory. Należy zaostrzyć sankcje uderzające w reżim i firmy europejskie tam obecne
- 2025-01-28: Europoseł AfD: Elon Musk poprawił nasz wizerunek za granicą. Jego wsparcie nam pomaga
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Edukacja

W cyfrowym świecie spada umiejętność koncentracji. Uważność można ćwiczyć od najmłodszych lat
Poziom koncentracji młodzieży funkcjonującej w trybie multiscreeningu spada poniżej poziomu umożliwiającego efektywną naukę – wskazują eksperci NASK. Cyfrowe bodźce sprawiają, że mniejsza jest też zdolność do głębokiego przetwarzania informacji. By poradzić sobie z wyzwaniami, jakie wiążą się z rozwojem cyfrowym, kluczowe jest rozwijanie umiejętności społecznych od najmłodszych lat, m.in. uważności. Fundacja Orange w ramach programu MegaMisja chce budować takie kompetencje u przedszkolaków i młodszych uczniów.
Lotnictwo
Coraz więcej dronów dzieli przestrzeń powietrzną z załogowymi statkami powietrznymi. Powstaje system do koordynacji lotów

Polska Agencja Żeglugi Powietrznej wspólnie z Centrum Informacji Kryzysowej CBK PAN tworzy system, który ma zapewnić bezpieczną koordynację lotów statków załogowych i bezzałogowych. To priorytetowe zadanie, z uwagi na fakt, iż coraz więcej dronów, zarówno używanych przez cywilnych operatorów, jak i służby, operuje w przestrzeni powietrznej. System wykorzysta zarówno potencjał ekspertów, jak i ułatwiające ich pracę rozwiązania informatyczne.
Ochrona środowiska
Enea zapowiada kolejne zielone inwestycje. Do 2035 roku chce mieć prawie 5 GW mocy zainstalowanej w OZE

Sześć farm wiatrowych o mocy 83,5 MW znalazło się w portfolio Grupy Enea. Spółka Enea Nowa Energia kupiła je od European Energy Polska i zapowiada, że to nie koniec tego typu transakcji. Ten rok ma być intensywny dla spółki pod względem rozwoju OZE. Celem strategicznym jest osiągnięcie 2,1 GW mocy zainstalowanej w zielonych źródłach w 2030 roku i 4,9 GW pięć lat później.
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.