Newsy

Cyberprzestępcy wykorzystają do wykradania danych sztuczną inteligencję. Technologia, by pozostać nierozpoznaną, będzie udawać żywego człowieka

2018-11-02  |  06:24

Dynamiczny rozwój sztucznej inteligencji może się obrócić przeciwko ludziom. Przestępcy mogą wykorzystać systemy inteligentne oraz narzędzia automatyzujące do przeprowadzenia ataków na coraz szerszą skalę. Zagrożenie może również przyjść ze strony asystentów głosowych, którzy mogą do nas dzwonić i podając się za konsultantów telefonicznych, wykradać nasze wrażliwe dane. Technologia jest już na tyle zaawansowana, że trudno rozpoznać, czy rozmówcą jest człowiek czy maszyna.

– W chwili obecnej jesteśmy świadkami znacznej automatyzacji cyberprzestępczości. Dzięki dostępności różnorodnych narzędzi wiele osób przekazuje złośliwe oprogramowanie i wykonuje powiązane z tym czynności, nie zdając sobie nawet sprawy, w jaki sposób to wszystko działa – alarmuje w rozmowie z agencją informacyjną Newseria Innowacje Juraj Malcho, dyrektor ds. technologii z firmy ESET.

Firma Neustar przeprowadziła w październiku badania wśród 301 specjalistów IT zajmujących się tematyką bezpieczeństwa informacji, aby się dowiedzieć, jak zapatrują się na rozwój technologii sztucznej inteligencji. Choć 87 proc. ankietowanych stwierdziło, że widzą w SI narzędzie, które pomoże walczyć z cyberprzestępczością, to aż 82 proc. obawia się, że może doprowadzić do narodzin nowych, niebezpiecznych form ataków ze strony hakerów. Połowa badanych stwierdziła, że SI może posłużyć do wykradania danych osobowych, a 16 proc. respondentów stwierdziło, że może zdestabilizować działania biznesowe oraz zwiększyć koszty związane z zapewnieniem bezpieczeństwa sieci.

Specjaliści z ZeroFOX postanowili sprawdzić, czy sztuczna inteligencja rzeczywiście może ułatwić pracę cyberprzestępcom. Naukowcy wykorzystali technologię uczenia maszynowego do pokazania botowi SNAP_R, jak zachowują się użytkownicy Twittera. Następnie sprawdzono, w jaki sposób łatwiej będzie rozprzestrzenić szkodliwe linki – za pośrednictwem człowieka czy maszyny. Sztuczna inteligencja działała znacznie szybciej, infekując w tym samym czasie czterokrotnie więcej użytkowników niż haker.

– Automatyzacja ataków odbywać się będzie poprzez chatboty czy też linguboty. Obecnie ktoś musi podnieść słuchawkę, zadzwonić i wykorzystać pewne tricki psychologiczne, aby uzyskać od rozmówcy określone dane. Niebawem możemy mieć do czynienia ze zautomatyzowanymi, cyfrowymi specjalistami poszukującymi konkretnych informacji. Wykorzystując w tym celu odpowiednie zwroty i formy odpowiedzi, będą postępować tak, jak doskonali psycholodzy. Myślę, że jest to szczególnie niebezpiecznie, zwłaszcza że w grę wchodzą dziesiątki tego rodzaju ataków dziennie – przewiduje Juraj Malcho.

Szczególnie niebezpieczna może się okazać technologia, która w założeniu ma ułatwiać nam życie. Asystent głosowy Google Duplex, wykorzystując technologię uczenia maszynowego, może prowadzić rozmowę w taki sposób, że rozmówca nie rozpozna, że ma do czynienia z maszyną. Sztuczna inteligencja mówi płynnie, przytakuje rozmówcy i kiedy wyszukuje odpowiedzi na bardziej skomplikowane pytania – wzdycha. Google Duplex stworzono po to, aby wyręczyła nas np. w rezerwowaniu stolików czy umawianiu spotkać w firmach, które nie prowadzą systemu rezerwacji online.

W rękach cyberprzestępców narzędzie może się zamienić w maszynę do wyłudzania danych. Można wykorzystać je do podszywania się pod przedstawicieli banków czy jednostek państwowych. W przygotowaniu są kolejne technologie, które z jednej strony mają przyspieszać obliczenia i ułatwiać nam życie, ale z drugiej mogą się stać poważnym zagrożeniem.

– Być może w ciągu 10 lat w użyciu znajdą się komputery kwantowe, które całkowicie zmienią znane nam w tej chwili oblicze kryptografii. Gdybym jednak miał spojrzeć na najbliższe trzy do pięciu lat, to myślę, że nastąpią zmiany związane z większą automatyzacją określonych rodzajów ataków. Skupiłbym się tutaj na działaniach, które korzystają lub wiążą się z użyciem sztucznej inteligencji czy uczenia maszynowego – mówi ekspert.

Brytyjska sieć handlowa Marks & Spencer już teraz wykorzystuje sztuczną inteligencje na infoliniach. Kiedy klienci dzwonią do firmy, chatbot Twilio prosi o zadanie pytania. System rozpoznawania mowy wysyła zapytanie do sztucznej inteligencji Google Dialogflow, która analizuje jej treść i decyduje, z jakim oddziałem połączyć danego klienta. Na podobnej zasadzie mogą działać asystenci głosowi od cyberprzestępców. Tyle że zamiast przekierowywać rozmowę na inny numer, poprowadzą ją tak, aby wyłudzić nasze dane osobowe.

W 2017 roku wartość rynku asystentów głosowych wyniosła niemal 1,7 mld dol. Eksperci z Research and Markets szacują, że do 2023 roku branża będzie rozwijała się w tempie 32 proc. średniorocznie, aż osiągnie wartość 9 mld dol.

Czytaj także

Kalendarium

Więcej ważnych informacji

Jedynka Newserii

Prawo

Duże projekty fotowoltaiczne w Polsce mocno spowolnione. Największymi problemami nadmierna biurokracja i chaos interpretacyjny

Długotrwałe procedury, nadmierna biurokracja i często niejednoznaczne interpretacje przepisów hamują rozwój fotowoltaiki w Polsce – wynika z raportu Polskiego Stowarzyszenia Fotowoltaiki. Inwestorzy wskazują uzyskanie warunków przyłączenia jako najbardziej problematyczny etap procesu inwestycyjnego. Barierą jest też skala wydanych odmów przyłączenia do sieci, co odstrasza inwestorów. Zmiany są konieczne, zwłaszcza w kontekście dyrektywy RED III, która wskazuje na konieczność przyspieszenia, uproszczenia i ujednolicenia procedur administracyjnych dla inwestycji w OZE.

Konsument

Czterech na 10 Polaków miało do czynienia z deepfake’ami. Cyberprzęstępcy coraz skuteczniej wykorzystują manipulowane treści

Deepfaki, czyli wygenerowane bądź też zmanipulowane przez sztuczną inteligencję zdjęcia, dźwięki lub treści wideo, to jedna z najbardziej kontrowersyjnych technologii naszych czasów. Do jej tworzenia wykorzystywane są zaawansowane algorytmy AI, dlatego użytkownikom coraz trudniej jest odróżnić treści rzeczywiste od fałszywych. Z raportu „Dezinformacja oczami Polaków 2024” wynika, że cztery na 10 badanych osób miało do czynienia z takimi treściami. To o tyle istotne, że deepfaki bywają wykorzystywane do manipulacji, szantażu, niszczenia reputacji, oszustw i wyłudzeń finansowych.

Ochrona środowiska

Państwowa Agencja Atomistyki przygotowuje się do nadzoru nad pierwszą polską elektrownią jądrową. Kluczową kwestią jest bezpieczeństwo

Trwają przygotowania do budowy pierwszej w Polsce elektrowni jądrowej na Pomorzu. Zgodnie z harmonogramem przedstawianym przez rząd fizyczna budowa ma ruszyć w 2028 roku, a początek eksploatacji pierwszego bloku planuje się na 2036 rok. Również Państwowa Agencja Atomistyki przygotowuje się do realizacji zadań związanych z dozorem nad budową, rozruchem i eksploatacją nowej jednostki. Kluczowe są kwestie związane z bezpieczeństwem jądrowym i ochroną radiologiczną obiektu.

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.