Mówi: | prof. Neil Johnson |
Funkcja: | fizyk |
Firma: | Dynamic Online Networks Laboratory, George Washington University |
Tegoroczne wybory na świecie pod ostrzałem dezinformacji i deepfake'ów. Badacze z USA przygotowali mapę źródeł szkodliwych treści
Zbliżające się wybory w ponad 50 krajach, w tym w USA i w Polsce, zachęcą twórców szkodliwych treści do wzmożonego działania z wykorzystaniem sztucznej inteligencji. Najwięcej deepfake’ów prawdopodobnie powstanie latem tego roku. Analitycy sprawdzili, jakie miejsca w cyfrowym świecie są swoistymi inkubatorami dla działań „złych aktorów”, i sporządzili ich mapę. To małe platformy są głównym źródłem powstawania i rozpowszechniania szkodliwych treści. W tym kontekście unijny Akt o usługach cyfrowych można ocenić jako nietrafiony, bo takie małe platformy będą praktycznie poza kontrolą przepisów. Naukowcy sugerują podejmowanie w walce z tym zjawiskiem działań opartych na realistycznych scenariuszach, a całkowite jego wyeliminowanie do takich nie należy. Dlatego lepiej ograniczać skutki dezinformacji.
– Wszyscy mówią o tym, co może osiągnąć sztuczna inteligencja działająca bez kontroli w mediach społecznościowych. Biorąc pod uwagę zagrożenia i tzw. bad actors, czyli „złych aktorów”, oraz wybory, które mają się odbyć w tym roku w wielu krajach, również w Polsce, prawdopodobnie także w Wielkiej Brytanii, a z pewnością w USA i Indiach – głosować będą łącznie 3 mld ludzi – mamy do czynienia z problemem fake newsów i dezinformacji w internecie. Można się zastanawiać, co może pójść nie tak przy wykorzystaniu sztucznej inteligencji i jej możliwości działania przez całą dobę bez ograniczeń co do prędkości, potencjału i zdolności do tworzenia nowych rzeczy w sposób przypominający działania człowieka. Oczywiście wiele może pójść nie tak – mówi w wywiadzie dla agencji Newseria Innowacje prof. Neil Johnson, fizyk z Uniwersytetu Jerzego Waszyngtona, prowadzący Dynamic Online Networks Laboratory, zajmujące się mapowaniem internetu.
Problem zagrożeń, jakie niesie niekontrolowane wykorzystywanie sztucznej inteligencji, został już zauważony przez Unię Europejską. Jednym z narzędzi, które ma służyć kontroli tego zjawiska, jest Akt o usługach cyfrowych (DSA) wchodzący w życie 17 lutego. To tzw. konstytucja internetu, czyli zbiór ogólnounijnych przepisów dotyczących usług cyfrowych, podmiotów działających jako pośrednicy dla konsumentów oraz towarów, usług i treści. Celem wprowadzenia DSA ma być zbudowanie bezpieczniejszego i bardziej sprawiedliwego świata online. W stosunku do największych platform internetowych przepisy zaczęły obowiązywać już w sierpniu ub.r.
To właśnie na różnego typu platformy nowe przepisy nakładają najwięcej obowiązków. Dotyczy to m.in. ich roli w ułatwianiu użytkownikom rozpowszechniania fałszywych, nielegalnych i szkodliwych treści czy dokonywania oszustw w zakresie handlu elektronicznego. W ostatnich latach platformy stały się bowiem najważniejszym miejscem wymiany informacji i poglądów, z którego czerpią setki milionów, a nawet miliardów użytkowników na całym świecie.
Problem polega jednak na tym, że brakuje chociażby jednoznacznych kryteriów, które oznaczałyby to, kiedy zaczynamy mieć do czynienia ze szkodliwą treścią.
– Wszystkie dyskusje nad kierunkami polityki, często prowadzone przez same platformy, które dysponują wiedzą jedynie o sobie, zawsze są oparte na niejednoznacznych kryteriach opisowych odnoszących się do „złych” podmiotów w sieci – zauważa prof. Neil Johnson. – Nasze badanie miało na celu zidentyfikowanie, gdzie kryją się te zagrożenia, gdzie działają szkodliwe podmioty i gdzie są ich społeczności. Wyobraźmy sobie, że chcemy rozwiązać problem związany z ruchem drogowym w Londynie, Nowym Jorku, Warszawie – jak to zrobimy, jeśli nie mamy mapy miasta?
Badacze postanowili więc przeprowadzić ilościową analizę naukową, która miała przewidzieć, w jaki sposób te podmioty będą nadużywać sztucznej inteligencji na całym świecie.
– Jest to pierwsze badanie, w którym przyjrzeliśmy się liczbom i lokalizacji aktywności sztucznej inteligencji na większą skalę. Jeśli obejrzymy nagranie dowolnej dyskusji z udziałem polityków w USA, Europie, Wielkiej Brytanii na temat internetu i sztucznej inteligencji, te dyskusje są mało konkretne i wydaje się, że politycy nie do końca rozumieją, co się dzieje, i nie winię ich za to – próby zgłębienia tej kwestii zajęły mi całe życie, a oni mają dwie godziny, żeby zapoznać się z tematem. Problem jednak polega na tym, że to oni podejmują decyzje – mówi fizyk z Uniwersytetu Jerzego Waszyngtona. – Sztuczna inteligencja w połączeniu z internetem wszystko zmieni, ponieważ jest to nowa technologia stale dostępna od ręki dla wszystkich na całym świecie. Pierwsze badanie na ten temat jest ważne. Byliśmy zaskoczeni, że nikt wcześniej nie zajął się tym zagadnieniem.
Na początek badacze wytypowali kilka podmiotów, które można było sklasyfikować jako „złych aktorów”. Sprawdzili ich powiązania, odbiorców i ich przyjaciół, a następnie stworzyli ich mapę.
– Oczekiwaliśmy, że przez analogię do miasta wszyscy dobrzy ludzie mieszkają w centrum, pośrodku mamy liczną populację, a wszystko, co podejrzane, dzieje się na obrzeżach. Uzyskaliśmy jednak wyniki przeciwne do tego założenia. Obok istnienia dużych platform, takich jak Facebook, X (poprzednio Twitter) czy TikTok, czyli głównych platform zrzeszających ogromne liczby ludzi należących do społeczności skupionych wokół na przykład rodzicielstwa lub ulubionych potraw, są społeczności najczęściej istniejące na mniejszych platformach, połączonych z tymi dużymi. Razem z pozostałymi tworzą one cały ekosystem, w którym sztuczna inteligencja na usługach szkodliwych podmiotów może działać swobodnie – wyjaśnia badacz Dynamic Online Networks Laboratory. – Dwa–trzy miliardy osób na świecie należy do społeczności, na przykład wielbicieli pizzy czy rodziców.
Okazało się, że największe platformy co prawda mają największe znaczenie pod względem potencjalnych szkód, ale już nie pod względem tego, gdzie taka sztuczna inteligencja powstanie oraz gdzie będą działać społeczności „złych aktorów”, szerzących rasizm, nienawiść, skierowanych przeciwko kobietom, rządom czy wyznawcom określonych religii. Badacze odkryli, że takie społeczności będą działać jako rezerwuar szkodliwych treści na mniejszych platformach, takich jak np. Telegram czy Gab. Te natomiast mają nie być objęte przepisami wynikającymi z DSA. W ocenie badaczy jest to więc rozwiązanie nie do końca trafione, które w dodatku teraz mogą powielić także Stany Zjednoczone.
– Ponieważ nie dysponowano mapą przy opracowywaniu przepisów, poczyniono założenie, że większe platformy mają większy wpływ. Jest to jedynie założenie i podobnie jak w każdym innym przypadku w nauce nie można po prostu tworzyć założeń bez ich weryfikacji. Nasze badanie polegało na przetestowaniu tych założeń i wnioski okazały się do niego przeciwne – podkreśla prof. Neil Johnson. – Wszyscy skupiają się na tym, jakie nieprawdziwe treści mogą być rozpowszechniane. Ale nieważne, co to za informacje, najważniejsza jest ich lokalizacja. Ustaliliśmy, gdzie kryją się zagrożenia. Na tej samej zasadzie lokalizacja pojazdów w mieście jest ważniejsza dla zrozumienia ruchu drogowego niż wiedza o tym, że są to dwa samochody BMW i jedna Toyota.
Jak podkreśla ekspert, w dyskusji na temat dezinformacji dominują dwie strategie: całkowite wyeliminowanie lub opanowanie problemu. Jego zdaniem pierwsza jest z góry skazana na porażkę. Takie działanie wymagałoby ogromnej skali szczegółowych i kosztownych działań, bez gwarancji, że to cokolwiek da.
– Przejdźmy więc do drugiej strategii, która polega na opanowaniu problemu. Jest to bardziej kontrowersyjna strategia, ponieważ według większości ludzi trzeba te problemy usunąć, zamiast je opanowywać. Ale jako przykład można podać tu COVID-19 – nie wyeliminowaliśmy go całkowicie, ale można powiedzieć, że go opanowaliśmy. Sedno sprawy polega na tym, że dla rządów, podmiotów czy platform jest to strategia, której powinni unikać. Sprawa jednak została upolityczniona – ale mogę to powiedzieć jako naukowiec na podstawie wyników badań – w sferze politycznej argument, że fałszywe informacje należy usuwać, zawsze będzie brzmiał bardziej szlachetnie, zawsze będzie się wydawać lepszym wyjściem. Problem polega na tym, że bez mapy, a o ile wiem, tylko my taką mapą dysponujemy, poznawszy ten problem od realnej strony, jego usunięcie jest niemożliwe – podkreśla badacz Dynamic Online Networks Laboratory.
Zgodnie z szacunkami poczynionymi w trakcie badania latem tego roku napędzane sztuczną inteligencją działania „złych aktorów” staną się codziennością. Badacze ocenili to na podstawie analogii z podobnymi technologicznie incydentami z 2008 i 2013 roku. Pierwszy dotyczył ataków algorytmicznych na amerykańskie rynki finansowe, a drugi chińskich cyberataków na infrastrukturę USA. To prognoza szczególnie niebezpieczna, zwłaszcza w kontekście zbliżających się wyborów.
– To będą naprawdę interesujące wybory, ponieważ poprzednio mieliśmy do czynienia z kilkoma botami na Twitterze i paroma dziwnymi stronami internetowymi. Nie wiadomo, jaki był ich faktyczny wpływ w wyborach prezydenckich w USA z 2016 i 2020 roku. Teraz sytuacja ze sztuczną inteligencją przedstawia się całkowicie inaczej – można ją wykorzystać na większą skalę, dysponując większą szybkością. Większość populacji USA korzysta z internetu i jeśli sami nie mają kont w mediach społecznościowych, to ma je ich rodzeństwo, rodzice czy dzieci, więc są pod ich pośrednim wpływem. Ten wpływ dotyczy całej populacji, chyba że ktoś mieszka w chacie w samym sercu Montany. Mamy do czynienia z nową technologią i – pomijając ocenę, kto jest tutaj po dobrej, a kto po złej stronie – ci, którzy lepiej się nią posługują, wygrają – ostrzega prof. Neil Johnson. – W krajach, w których w tym roku są wybory, będziemy otrzymywać wiadomości głosowe będące deepfake’ami. Będzie to prawdziwa bitwa w sieci i wyścig zbrojeń, który będzie polegał na tym, kto użyje tej technologii w większym stopniu. Czy takie narzędzia powinny być stosowane? Oczywiście, że nie, ale to nie zmienia faktu, że tak będzie.
Czytaj także
- 2025-04-10: Na platformach sprzedażowych mogą się znajdować szkodliwe produkty. Dotyczy to całego rynku online
- 2025-04-14: Nowe technologie podstawą w reformowaniu administracji. Będą też kluczowe w procesie deregulacji
- 2025-04-15: Obciążenia regulacyjne uderzają w branżę nowych technologii i start-upy. To może hamować innowacje
- 2025-04-16: Sztuczna inteligencja napędza innowacje, ale pochłania ogromne ilości prądu. Rośnie potrzeba bardziej energooszczędnych rozwiązań
- 2025-03-04: Anna Dec: Za mówienie kontrowersyjnych rzeczy byłam karcona w szkole przez rówieśników. Teraz w pracy jestem za to doceniana
- 2025-03-03: Unia Europejska spóźniona w wyścigu AI. Eksperci apelują o szybsze inwestycje i zaprzestanie regulacji
- 2025-03-13: Inwestycje w sztuczną inteligencję na bardzo niskim poziomie. Potencjał polskich kadr nie jest wykorzystywany
- 2025-02-13: Europa zapowiada ogromne inwestycje w sztuczną inteligencję. UE i USA mają wspólne interesy w obszarze AI
- 2025-03-11: Nowe prawo ograniczy dostęp dzieci do niebezpiecznych treści w sieci. Obecnie większość nastolatków ma dostęp do pornografii czy hazardu
- 2025-02-07: Rola telekomów w upowszechnianiu sztucznej inteligencji rośnie. T-Mobile udostępnia klientom zaawansowaną wyszukiwarkę Perplexity Pro
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Handel

Piwo bezalkoholowe stanowi już 6,5 proc. sprzedaży browarów. Konsumenci świadomie ograniczają spożycie alkoholu
W 2024 roku polscy konsumenci kupowali ponad 1 mln butelek i puszek piwa 0,0% dziennie. Przez ostatnią dekadę rynek tych piw urósł pod względem wolumenu 10-krotnie. Branża inwestuje w innowacje w segmencie piw bezalkoholowych, wzmacniając nie tylko smak, ale również ich wartości odżywcze. Piwa 0,0% wpisują się w coraz popularniejszy, zwłaszcza wśród młodszego pokolenia, trend NoLo (no alcohol low alcohol), co może okazać się furtką do ograniczenia konsumpcji alkoholu.
Transport
Ataki cybernetyczne na kolej stają się coraz częstsze. Hakerzy zwykle chcą doprowadzić do paraliżu

W pierwszym kwartale tego roku hakerzy zaatakowali systemy sprzedaży biletów w polskiej i ukraińskiej kolei. Zagrożenia wiążą się jednak również z atakami na systemy zasilania i zarządzania ruchem. Wszystkie tego typu zdarzenia mają jeden cel – mniejszy lub większy paraliż transportu kolejowego, co w obecnej sytuacji geopolitycznej przekłada się na bezpieczeństwo strategiczne. W wielu przypadkach wciąż najsłabszym ogniwem jest człowiek – albo dlatego, że nienależycie chroni hasła i dostęp do urządzeń, albo dlatego, że nadane mu uprawnienia są nieadekwatnie szerokie w stosunku do realnych potrzeb.
Edukacja
Polska nauka potrzebuje różnych źródeł finansowania. Trwają rozmowy o zmianach w systemie

– Finansowanie polskiej nauki wymaga zmian, ale do tego potrzeba politycznej woli i odwagi – ocenia prof. dr hab. Grzegorz Mazurek, rektor Akademii Leona Koźmińskiego. Wśród propozycji wymienia stworzenie systemu zachęt dla biznesu do inwestowania w naukę i edukację, wyznaczenie strategicznych obszarów badań, na które będą trafiały fundusze, czy rozliczanie instytucji naukowych z wykorzystania publicznych pieniędzy. W ramach cyklu „Porozmawiajmy o polskiej nauce” MNiSW w ostatnich miesiącach prowadzi konsultacje ze środowiskiem akademickim i badawczym na temat stojących przed sektorem wyzwań i możliwych do wdrożenia rozwiązań, nie tylko dotyczących finansowania.
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.