Newsy

Cyberprzestępcy sięgają po sztuczną inteligencję do łamania zabezpieczeń. Zagrożone są nie tylko komputery, lecz także sprzęt AGD i samochody

2019-06-24  |  06:00

Dynamiczny rozwój rozwiązań z zakresu uczenia maszynowego oraz analizy big data doprowadził do wykształcenia się wysoce zaawansowanych algorytmów sztucznej inteligencji. Po tę technologię coraz częściej sięgają cyberprzestępcy, widząc w niej wartościowe narzędzie do łamania zabezpieczeń oraz wykradania danych. Źródłem ataku mogą się stać nie tylko nasze komputery, zagrożone są wszystkie urządzenia podłączone do sieci i komunikujące się bezprzewodowo: sprzęt gospodarstwa domowego, gadżety do noszenia, a nawet inteligentne samochody.

Sztuczna inteligencja wciąż nie jest wykorzystywana przez cyberprzestępców na masową skalę, jednak już dziś pojawiają się pierwsze próby wykorzystania technologii SI w atakach hakerskich. Firma Darktrace zidentyfikowała złośliwe oprogramowanie, które jest w stanie imitować sposób wypowiadania się konkretnego człowieka, aby zwiększyć wiarygodność e-maili zachęcających do pobrania trojana. Wspomniany atak podzielony był na dwie fazy. W pierwszej cyberprzestępcy włamali się na stację roboczą firmy po tym, jak jeden z pracowników otworzył zainfekowanego e-maila. Następie bot wykorzystujący technologię sztucznej inteligencji przeskanował komputer ofiary, aby nauczyć się jej stylu wypowiedzi. W ten sposób przygotował się do rozesłania e-maili do kolejnych ofiar, które na pierwszy rzut oka wyglądały tak, jakby były napisane przez człowieka, a nie maszynę.

– Cyberprzestępczość w obszarze sztucznej inteligencji dopiero raczkuje. Progres adopcji tej technologii będzie jednak bardzo szybki. Same zabezpieczenia używają sztucznej inteligencji, nauczania maszynowego, co się świetnie sprawdza w cyberbezpieczeństwie i przez to hakerzy mają utrudnione zadanie i muszą dużo manualnych, powtarzalnych czynności wykonać, aby złamać te zabezpieczenia. I oni też używają sztucznej inteligencji i innych rozwiązań tego typu – mówi agencji informacyjnej Newseria Innowacje Wojciech Maciejewski, dyrektor rozwoju firmy Grey Wizard.

Coraz częściej zwraca się uwagę na zagrożenia związane z rozwojem sztucznej inteligencji. Komisja Europejska postanowiła wyjść naprzeciw potencjalnym zagrożeniom i rozpoczęła prace pilotażowe w zakresie etycznego rozwoju narzędzi wykorzystujących sztuczną inteligencję. Na jesieni ruszą prace nad stworzeniem sieci ośrodków innowacji cyfrowych, które pomogą badać potencjał i zagrożenia związane ze sztuczną inteligencją.

Jednym z najważniejszych celów ataków cyberprzestępców w najbliższych latach mogą być nie komputery, a urządzenia wchodzące w skład internetu rzeczy, które komunikują się ze sobą przy wykorzystaniu algorytmów sztucznej inteligencji. Według badań przeprowadzonych przez firmę analityczną Bain & Company w latach 2017–2021 średnioroczne tempo wzrostu branży IoT wyniesie aż 50 proc., a w 2021 roku ten segment gospodarki będzie warty aż 520 mld dol. Upowszechnienie się sieci 5G może przyspieszyć rozwój tej branży, a co za tym idzie – zachęcić cyberprzestępców do łamania zabezpieczeń IoT, aby przejąć kontrolę nad inteligentnymi asystentami i uzyskać dostęp do wszystkich urządzeń działających w danej odnodze internetu rzeczy.

– Uruchomienie sieci 5G wpłynie na przepustowość i na to, że będzie więcej urządzeń typu IoT podłączonych do sieci. Jeżeli te wszystkie urządzenia będą zarażone przez hakerów, a tak się dzieje z reguły na świecie, tak samo jak komputery są zarażane, to skala ataków będzie coraz większa. Bo dzisiaj nie atakują już normalne komputery, żeby sparaliżować jakąś sieć, tylko atakują lodówki, kamery, mikrofalówki, wszystko, co jest podłączone do internetu i jest małym komputerem – wskazuje ekspert.

Specjaliści ds. cyberbezpieczeństwa zwracają także uwagę na to, że na ataki ze strony hakerów nie są przygotowani producenci samochodów wykorzystujących systemy SI. Inżynierowie z Pen Test Partners odkryli w inteligentnych systemach alarmowych Pandora oraz Viper groźne luki bezpieczeństwa. Hakerzy mogliby je wykorzystać, aby przejąć zdalną kontrolę nad pojazdem sparowanym z aplikacją.  

– Autonomiczne samochody będą bezpieczniejsze niż te kierowane przez ludzi. Tak jak powiedział Elon Musk, te samochody muszą być bezpieczniejsze, bo inaczej nie będą się sprzedawać. Obecnie w tych samochodach jest trochę za dużo zautomatyzowanych części. Ostatnio np. klamki nie otworzyły się podczas pożaru. Niestety, jest to proces prób i błędów, który musimy przejść – twierdzi Wojciech Maciejewski.

Według analityków z firmy Allied Market Research wartość globalnego rynku cyberbezpieczeństwa w 2017 roku wyniosła niemal 105 mld dol. Przewiduje się, że do 2025 roku wzrośnie ona do 259 mld dol. przy średniorocznym tempie wzrostu na poziomie 12 proc.

Czytaj także

Kalendarium

Więcej ważnych informacji

Jedynka Newserii

Prawo

Duże projekty fotowoltaiczne w Polsce mocno spowolnione. Największymi problemami nadmierna biurokracja i chaos interpretacyjny

Długotrwałe procedury, nadmierna biurokracja i często niejednoznaczne interpretacje przepisów hamują rozwój fotowoltaiki w Polsce – wynika z raportu Polskiego Stowarzyszenia Fotowoltaiki. Inwestorzy wskazują uzyskanie warunków przyłączenia jako najbardziej problematyczny etap procesu inwestycyjnego. Barierą jest też skala wydanych odmów przyłączenia do sieci, co odstrasza inwestorów. Zmiany są konieczne, zwłaszcza w kontekście dyrektywy RED III, która wskazuje na konieczność przyspieszenia, uproszczenia i ujednolicenia procedur administracyjnych dla inwestycji w OZE.

Konsument

Czterech na 10 Polaków miało do czynienia z deepfake’ami. Cyberprzęstępcy coraz skuteczniej wykorzystują manipulowane treści

Deepfaki, czyli wygenerowane bądź też zmanipulowane przez sztuczną inteligencję zdjęcia, dźwięki lub treści wideo, to jedna z najbardziej kontrowersyjnych technologii naszych czasów. Do jej tworzenia wykorzystywane są zaawansowane algorytmy AI, dlatego użytkownikom coraz trudniej jest odróżnić treści rzeczywiste od fałszywych. Z raportu „Dezinformacja oczami Polaków 2024” wynika, że cztery na 10 badanych osób miało do czynienia z takimi treściami. To o tyle istotne, że deepfaki bywają wykorzystywane do manipulacji, szantażu, niszczenia reputacji, oszustw i wyłudzeń finansowych.

Ochrona środowiska

Państwowa Agencja Atomistyki przygotowuje się do nadzoru nad pierwszą polską elektrownią jądrową. Kluczową kwestią jest bezpieczeństwo

Trwają przygotowania do budowy pierwszej w Polsce elektrowni jądrowej na Pomorzu. Zgodnie z harmonogramem przedstawianym przez rząd fizyczna budowa ma ruszyć w 2028 roku, a początek eksploatacji pierwszego bloku planuje się na 2036 rok. Również Państwowa Agencja Atomistyki przygotowuje się do realizacji zadań związanych z dozorem nad budową, rozruchem i eksploatacją nowej jednostki. Kluczowe są kwestie związane z bezpieczeństwem jądrowym i ochroną radiologiczną obiektu.

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.