Mówi: | Sebastian Stefanowski |
Firma: | Inetum Polska |
Sztuczna inteligencja wykrywa zagrożenia 60 razy szybciej niż człowiek. W wyniku pandemii algorytmy coraz częściej zabezpieczać będą także prywatne komputery
Najskuteczniejsze rozwiązania z zakresu cyberbezpieczeństwa są wspierane przez sztuczną inteligencję. Dzięki algorytmom są w stanie wykryć zagrożenia w zaledwie kilka sekund – kilkadziesiąt razy szybciej, niż zrobiłby to człowiek. Czynnik ludzki jest też uznawany za największą lukę wykorzystywaną przez hakerów. Problem uwydatnił się w wyniku przemodelowania dużej części gospodarki na pracę zdalną. W jej wyniku aż 70 proc. firm poniosło straty związane z naruszeniami ochrony danych. Jak przewidują eksperci, sytuacja pandemiczna wpłynie na wdrożenie w prywatnych komputerach zabezpieczeń dotychczas instalowanych w sprzęcie firmowym.
– Moduły sztucznej inteligencji polegają na analizie danych, na oddzieleniu zachowań bezpiecznych od zachowań niebezpiecznych i niestandardowych. Innymi słowy, każde zachowanie, które może być uznane za niebezpieczne i może być wykryte przez człowieka, może być również wykryte przez algorytm sztucznej inteligencji na podstawie tych samych danych. Algorytm jednak zrobi to znacznie szybciej – przekonuje w rozmowie z agencją informacyjną Newseria Innowacje Sebastian Stefanowski, dyrektor Działu Practice w Inetum Polska.
Sztuczna inteligencja jest zdolna do przetwarzania miliardów rekordów danych, pochodzących zarówno z baz, jak i źródeł nieustrukturyzowanych, jak np. blogi. SI uczy się rozpoznawania zagrożeń poprzez uczenie maszynowe. Gromadzi informacje, a potem określa profil zagrożeń, występujących na przykład w szkodliwych plikach czy podejrzanych adresach IP. W efekcie wykrywa zagrożenia nawet 60-krotnie szybciej niż człowiek – analiza trwa zaledwie kilka sekund.
– Podstawą dobrego algorytmu sztucznej inteligencji są dane. Zbieranie danych bardzo często kojarzy się z utratą prywatności i postrzegane jest jako pewne niebezpieczeństwo. Dane można jednak zbierać w sposób anonimowy. Trzeba mieć również świadomość tego, że zyski z zabezpieczeń opartych na sztucznej inteligencji mogą znacznie przewyższać koszty związane z ryzykiem utraty danych. Każdy zgodziłby się udzielić danych na temat swoich zachowań na przykład bankowi – po to, żeby zabezpieczyć w ten sposób swoje konto – wskazuje Sebastian Stefanowski.
Algorytmy SI stanowią podstawę działania platformy SafeGuard Cyber, która zapewnia ochronę przed atakami m.in. w social media oraz w cyfrowych kanałach B2B. Platforma samodzielnie wykrywa przychodzące szkodliwe pliki i zabezpiecza wrażliwe dane przed nieautoryzowanym udostępnieniem. Z rozwiązania korzysta m. in. koncern kosmetyczny Johnson & Johnson, farmaceutyczni giganci, tacy jak Novartis i Abbott, a także amerykański Bank of Tampa.
– Większość przedsiębiorstw korzysta już z modułów sztucznej inteligencji. Tak naprawdę zależy to od poziomu dojrzałości firmy. Poziom podstawowy to są po prostu filtry, np. antyspamowe czy wykrywające podejrzane załączniki w poczcie informatycznej. Następnym poziomem są różnego rodzaju moduły analizy ruchu sieciowego. Prym w takich technikach wiodą dostawcy chmur. Prawie każdy z nich ma już gotowe rozwiązania, które mogą wykrywać i alarmować o niestandardowych i niebezpiecznych zachowaniach, i może je udostępniać swoim klientom, Najwyższym poziomem jest analiza zachowań użytkowników w aplikacjach – wymienia dyrektor Działu Practice w Inetum Polska.
Sztuczna inteligencja wykorzystywana jest jednak nie tylko do projektowania zabezpieczeń, lecz także przy przygotowywaniu ataków cybernetycznych. Może być używana na przykład do ciągłego monitorowania sieci w celu wykrywania nowych luk, które mogą potem wykorzystać hakerzy. SI używana jest także do manipulowania danymi, a także do przeprowadzania ataków socjotechnicznych.
– To nieustanny wyścig zbrojeń. Obie strony – i strona zabezpieczająca, i strona, która atakuje – korzystają z algorytmów sztucznej inteligencji. Fakt, że w pandemii nasiliła się liczba cyberataków, zmusi przedsiębiorstwa do inwestycji większych pieniędzy w systemy zabezpieczeń, co na pewno pociągnie za sobą rozwój tej branży, czyli rozwój systemów cyberbezpieczeństwa opartych na sztucznej inteligencji – przewiduje Sebastian Stefanowski.
Z „Raportu z badania kosztów naruszeń ochrony danych” wynika, że średni koszt łączny wynikający z tych naruszeń wynosi 3,86 mln dol. Branżą najbardziej dotkniętą atakami była ochrona zdrowia. Co ciekawe, w raporcie z poprzedniego roku koszt był nieco wyższy i wyniósł 3,92 mln dol. Jak jednak zaznaczają autorzy raportu, spadek ten jest tylko teoretyczny. Raport uwydatnia problem pogłębiających się różnic między kosztami naruszeń ponoszonymi przez organizacje inwestujące w bardziej zaawansowane procesy zabezpieczające, takie jak automatyzacja, a kosztami ponoszonymi przez firmy inwestujące w tańsze zabezpieczenia.
Nie bez wpływu na sytuację pozostała pandemia koronawirusa. Z raportu IBM wynika, że w wyniku wdrożenia pracy zdalnej koszt naruszeń ochrony danych zwiększył się o 137 tys. dol. Zjawisko to zaobserwowało 70 proc. ankietowanych. 76 proc. zgłaszało, że w wyniku pracy zdalnej wydłużył się czas potrzebny na wykrycie i powstrzymanie potencjalnego zagrożenia.
– Konsekwencją tego, co zadziało się w roku 2020, będzie to, że środek ciężkości myślenia o zabezpieczeniach przesunie się z zabezpieczeń systemów komputerowych w sieciach firmowych na zabezpieczenia systemów komputerowych w sieciach prywatnych. Innymi słowy, te algorytmy sztucznej inteligencji, które są teraz dostępne jedynie dla dużych firm, staną się popularne i trafią jako zabezpieczenia dla normalnych komputerów prywatnych w domach prywatnych. Będzie to prosta konsekwencja tego, że większość z pracowników w niektórych branżach przestawiła się na pracę zdalną – wskazuje dyrektor Działu Practice w Inetum Polska.
Czytaj także
- 2025-04-29: Rozwój sztucznej inteligencji drastycznie zwiększa zapotrzebowanie na energię. Rozwiązaniem są zrównoważone centra danych
- 2025-04-28: Niepewna sytuacja zwracanych do Skarbu Państwa gruntów dzierżawnych. To może się wiązać z likwidacją infrastruktury rolniczej i miejsc pracy
- 2025-05-05: Państwowa Agencja Atomistyki przygotowuje się do nadzoru nad pierwszą polską elektrownią jądrową. Kluczową kwestią jest bezpieczeństwo
- 2025-04-22: Kwestie bezpieczeństwa priorytetem UE. Polska prezydencja ma w tym swój udział
- 2025-04-23: Ogromna baza magazynowa zbóż w Wielkopolsce do likwidacji. Pracę może stracić kilkaset osób
- 2025-04-08: Projekt unijnego budżetu po 2027 roku będzie przedstawiony w lipcu. Polska może odegrać istotną rolę w pracach nad nim
- 2025-04-10: Na platformach sprzedażowych mogą się znajdować szkodliwe produkty. Dotyczy to całego rynku online
- 2025-04-09: Wzrost wydatków na obronność ma być priorytetem nowego wieloletniego budżetu UE. Nie będzie jednak cięć w polityce spójności
- 2025-04-14: Nowe technologie podstawą w reformowaniu administracji. Będą też kluczowe w procesie deregulacji
- 2025-04-15: Obciążenia regulacyjne uderzają w branżę nowych technologii i start-upy. To może hamować innowacje
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Prawo

Duże projekty fotowoltaiczne w Polsce mocno spowolnione. Największymi problemami nadmierna biurokracja i chaos interpretacyjny
Długotrwałe procedury, nadmierna biurokracja i często niejednoznaczne interpretacje przepisów hamują rozwój fotowoltaiki w Polsce – wynika z raportu Polskiego Stowarzyszenia Fotowoltaiki. Inwestorzy wskazują uzyskanie warunków przyłączenia jako najbardziej problematyczny etap procesu inwestycyjnego. Barierą jest też skala wydanych odmów przyłączenia do sieci, co odstrasza inwestorów. Zmiany są konieczne, zwłaszcza w kontekście dyrektywy RED III, która wskazuje na konieczność przyspieszenia, uproszczenia i ujednolicenia procedur administracyjnych dla inwestycji w OZE.
Konsument
Czterech na 10 Polaków miało do czynienia z deepfake’ami. Cyberprzęstępcy coraz skuteczniej wykorzystują manipulowane treści

Deepfaki, czyli wygenerowane bądź też zmanipulowane przez sztuczną inteligencję zdjęcia, dźwięki lub treści wideo, to jedna z najbardziej kontrowersyjnych technologii naszych czasów. Do jej tworzenia wykorzystywane są zaawansowane algorytmy AI, dlatego użytkownikom coraz trudniej jest odróżnić treści rzeczywiste od fałszywych. Z raportu „Dezinformacja oczami Polaków 2024” wynika, że cztery na 10 badanych osób miało do czynienia z takimi treściami. To o tyle istotne, że deepfaki bywają wykorzystywane do manipulacji, szantażu, niszczenia reputacji, oszustw i wyłudzeń finansowych.
Ochrona środowiska
Państwowa Agencja Atomistyki przygotowuje się do nadzoru nad pierwszą polską elektrownią jądrową. Kluczową kwestią jest bezpieczeństwo

Trwają przygotowania do budowy pierwszej w Polsce elektrowni jądrowej na Pomorzu. Zgodnie z harmonogramem przedstawianym przez rząd fizyczna budowa ma ruszyć w 2028 roku, a początek eksploatacji pierwszego bloku planuje się na 2036 rok. Również Państwowa Agencja Atomistyki przygotowuje się do realizacji zadań związanych z dozorem nad budową, rozruchem i eksploatacją nowej jednostki. Kluczowe są kwestie związane z bezpieczeństwem jądrowym i ochroną radiologiczną obiektu.
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.