AI może nie zabrać Polakom pracy, ale ukraść PESEL i pozbawić oszczędności
38 proc. Polaków, którzy mają doświadczenia z wykorzystaniem sztucznej inteligencji (AI), obawia się, że w przyszłości mogą zostać zastąpieni przez nią w pracy. Jeszcze większy odsetek, bo aż 43 proc., jest przekonany, że ta technologia zawsze udziela odpowiedzi zgodnych z prawdą. Ten fakt coraz częściej wykorzystują cyberprzestępcy. Używają oni AI m.in. do wyłudzania danych osobowych czy loginów i haseł do różnych kont oraz aplikacji, w tym bankowych. Oszuści podszywają się też np. pod członków najbliższej rodziny przy pomocy fałszywego głosu, stworzonego w oparciu o sztuczną inteligencję. Metody różne, cel ten sam – wyłudzenie pieniędzy.
O ile dywagacje o tym, kto straci pracę przez sztuczną inteligencję, a kto dzięki niej zyska, przypominają na razie wróżenie z fusów, to zagrożenia związane z jej wykorzystaniem przez cyberprzestępców są bardzo realne. Z badania Deloitte Digital Consumer Trends 2023 na próbie ponad 2 tys. polskich internautów w wieku od 18 do 65 lat wynika, że 47 proc. z tego grona słyszało o generatywnej sztucznej inteligencji, a ponad połowa z tej grupy przynajmniej raz z niej korzystała.
Niepokojące jest to, że 43 proc. respondentów, którzy mają doświadczenie w używaniu AI, błędnie sądzi, że zawsze udziela ona odpowiedzi obiektywnych i zgodnych z prawdą. W zderzeniu z powszechnym jej wykorzystywaniem przez cyberprzestępców będzie to niechybnie prowadziło do tego, że coraz częściej będziemy padali ofiarą wyłudzeń. Prokuratura Krajowa nie prowadzi co prawda na razie statystyk spraw, w których posłużono się sztuczną inteligencję (AI) lub uczeniem maszynowym (ML), ale na podstawie analizy zaistniałych już przypadków przewiduje, że oszuści będą stosować coraz częściej tę technologię nie tylko do zdobycia dostępów do kont bankowych lub systemów biznesowych, lecz także profili w mediach społecznościowych, stalkowania czy pisania fałszywych e-maili i SMS-ów w celu wyłudzenia danych osobowych.
Phishing niemal idealny
– Kreatywność cyberprzestępców jest bardzo duża, zapewne jeszcze nie raz zostaniemy zaskoczeni ich pomysłami. Jednym z najprostszych zastosowań sztucznej inteligencji do wyłudzenia danych osobowych jest phishing, czyli wysyłanie e-maili podszywających się pod jakąś instytucję, w których jesteśmy proszeni o podanie danych osobowych, albo przekierowywani do fałszywych stron internetowych. Dotychczas można je było łatwo odróżnić, bo z reguły zawierały mnóstwo błędów gramatycznych czy ortograficznych. Wykorzystanie modeli językowych to eliminuje. Można AI nauczyć stosowania określonego stylu i zrobi to bezbłędnie – ostrzega Bartłomiej Drozd, ekspert serwisu ChronPESEL.pl.
To jednak nie wszystko. W ubiegłym roku Zespół Reagowania na Incydenty Bezpieczeństwa Komputerowego Komisji Nadzoru Finansowego (CSIRT KNF) ostrzegał m.in. przed wprowadzającymi w błąd reklamami platform inwestycyjnych, w których podszywano się pod znane instytucje lub osoby, w tym polityków. W kwietniu 2023 r. oszuści najczęściej wykorzystywali wizerunek Baltic Pipe (30 proc.), PGNiG (26 proc.), Tesli (11 proc.), spółek Skarbu Państwa (4 proc.) i banków (3 proc.).
– Takie reklamy zamieszczane w mediach społecznościowych również przekierowywały do fałszywych podstron z formularzami wymagającymi np. rejestracji. Pozyskane w ten sposób dane mogą prędzej czy później zostać wykorzystane do wyłudzeń – dodaje Bartłomiej Drozd.
Przykłady można mnożyć. W 2023 roku pojawiły się reklamy stworzone przy pomocy AI, które prowadziły do oficjalnego sklepu Google Play. Zachęcano w nich do pobrania niebezpiecznej aplikacji, której instalacja pozwoliłaby przestępcom przejąć kontrolę nad komputerem czy smartfonem. W ten sposób mogą oni uzyskać dostęp do znajdujących się na urządzeniu danych osobowych czy loginów i haseł do kont bankowych. Z kolei Naukowa i Akademicka Sieć Komputerowa (NASK) ostrzegała przed oszustami podszywającymi się pod Allegro, którzy wysyłali e-maile sugerujące otrzymanie od serwisu premii lojalnościowej.
Nie udostępniaj własnego głosu w mediach społecznościowych
Cyberprzestępcy stosują również technikę deepfake, która przy użyciu sztucznej inteligencji umożliwia nie tylko stworzenie fałszywych filmów i obrazów, lecz także podszycie się pod członka najbliższej rodziny. Wystarczy, że oszuści będą mieć dostęp do nagrania głosowego z naszym udziałem, które pozyskają np. z mediów społecznościowych. Niestety przed tym zjawiskiem jest się bardzo trudno uchronić.
Z ankiety przeprowadzonej przez McAfee na ponad 7000 respondentów z siedmiu krajów wynika, że 53 proc. z nich dzieli się swoim głosem w Internecie przynajmniej raz w tygodniu. Z kolei 10 proc. ankietowanych osobiście doświadczyło próby oszustwa z wykorzystaniem fałszywego głosu w oparciu o sztuczną inteligencję, a kolejne 15 proc. zna osobę, która była celem takiego ataku. W Polsce na razie żadna instytucja nie prowadzi odrębnych statystyk dla przestępstw, w których wykorzystano AI. Jednak bez wątpienia jest to bardzo poważny problem, skoro ostrzega przed nim Instytut Wymiaru Sprawiedliwości, CSIRT KNF czy NASK.
Zwycięstwo dla całej branży: Axis dodaje obsługę standardu kodowania AV1
Zakłady przemysłowe inwestują w nowoczesne instalacje przeciwpożarowe
DORA uderza w fintechy: Czy nowe przepisy zagrożą innowacyjnym firmom?
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Jedynka Newserii
Handel
Konsumenci w sieci narażeni na długą listę manipulacyjnych praktyk sprzedażowych. Zagraniczne platformy wymykają się unijnym regulacjom
Wraz z pojawieniem się na polskim i europejskim rynku platform sprzedażowych spoza UE rośnie też liczba przypadków stosowania tzw. dark patterns, czyli manipulacyjnych technik sprzedażowych. Nowe regulacje UE – w tym rozporządzenie w sprawie jednolitego rynku usług cyfrowych oraz akt o usługach cyfrowych – mają lepiej chronić przed nimi konsumentów, a podmiotom stosującym takie praktyki będą grozić wysokie kary finansowe. Problemem wciąż pozostaje jednak egzekwowanie tych przepisów od zagranicznych platform, które wymykają się europejskim regulacjom. – To jest w tej chwili bardzo duże wyzwanie dla całego rynku cyfrowego, że w praktyce regulacje nie dotyczą w takim samym stopniu wszystkich graczy – mówi Teresa Wierzbowska, prezeska Związku Pracodawców Prywatnych Mediów.
Ochrona środowiska
Zdjęcia satelitarne dobrym źródłem wiedzy o zmianach klimatycznych. Ich zaletami są ujęcie dużego obszaru i regularność dokumentowania
Szczegółowe raportowanie zachodzących przez ostatnie pół wieku zmian klimatycznych i przewidywanie tego, jak warunki życia na Ziemi będą się zmieniały w najbliższych dekadach, stało się możliwe dzięki zdjęciom dostarczanym przez satelity. Z punktu obserwacyjnego, jakim jest orbita okołoziemska, od 1972 roku uzyskuje się dane dotyczące dużych powierzchni. Dzięki nim naukowcy wiedzą m.in. to, że za około pięć lat średnia temperatura regularnie zacznie przekraczać punkt ocieplenia 1,5 stopnia i potrafią wywnioskować, jak wpłynie to na poziom wód w morzach.
IT i technologie
W Krakowie powstało centrum operacyjne cyberbezpieczeństwa. Sektor małych i średnich firm zyska dostęp do specjalistycznych usług [DEPESZA]
Security Operations Center, które zostało uruchomione w ramach Centrum Technologicznego Hitachi w Krakowie, ma zapewnić firmom dostęp do usług specjalistów w zakresie cyberbezpieczeństwa, bez konieczności tworzenia własnych działów IT. Dla przedsiębiorstw outsourcing tego typu zadań jest rozwiązaniem, które pozwala uniknąć wysokich nakładów inwestycyjnych, zabezpieczyć się przed coraz intensywniejszymi atakami hakerów, a także sprostać wymogom legislacyjnym.
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.