AI może nie zabrać Polakom pracy, ale ukraść PESEL i pozbawić oszczędności
38 proc. Polaków, którzy mają doświadczenia z wykorzystaniem sztucznej inteligencji (AI), obawia się, że w przyszłości mogą zostać zastąpieni przez nią w pracy. Jeszcze większy odsetek, bo aż 43 proc., jest przekonany, że ta technologia zawsze udziela odpowiedzi zgodnych z prawdą. Ten fakt coraz częściej wykorzystują cyberprzestępcy. Używają oni AI m.in. do wyłudzania danych osobowych czy loginów i haseł do różnych kont oraz aplikacji, w tym bankowych. Oszuści podszywają się też np. pod członków najbliższej rodziny przy pomocy fałszywego głosu, stworzonego w oparciu o sztuczną inteligencję. Metody różne, cel ten sam – wyłudzenie pieniędzy.
O ile dywagacje o tym, kto straci pracę przez sztuczną inteligencję, a kto dzięki niej zyska, przypominają na razie wróżenie z fusów, to zagrożenia związane z jej wykorzystaniem przez cyberprzestępców są bardzo realne. Z badania Deloitte Digital Consumer Trends 2023 na próbie ponad 2 tys. polskich internautów w wieku od 18 do 65 lat wynika, że 47 proc. z tego grona słyszało o generatywnej sztucznej inteligencji, a ponad połowa z tej grupy przynajmniej raz z niej korzystała.
Niepokojące jest to, że 43 proc. respondentów, którzy mają doświadczenie w używaniu AI, błędnie sądzi, że zawsze udziela ona odpowiedzi obiektywnych i zgodnych z prawdą. W zderzeniu z powszechnym jej wykorzystywaniem przez cyberprzestępców będzie to niechybnie prowadziło do tego, że coraz częściej będziemy padali ofiarą wyłudzeń. Prokuratura Krajowa nie prowadzi co prawda na razie statystyk spraw, w których posłużono się sztuczną inteligencję (AI) lub uczeniem maszynowym (ML), ale na podstawie analizy zaistniałych już przypadków przewiduje, że oszuści będą stosować coraz częściej tę technologię nie tylko do zdobycia dostępów do kont bankowych lub systemów biznesowych, lecz także profili w mediach społecznościowych, stalkowania czy pisania fałszywych e-maili i SMS-ów w celu wyłudzenia danych osobowych.
Phishing niemal idealny
– Kreatywność cyberprzestępców jest bardzo duża, zapewne jeszcze nie raz zostaniemy zaskoczeni ich pomysłami. Jednym z najprostszych zastosowań sztucznej inteligencji do wyłudzenia danych osobowych jest phishing, czyli wysyłanie e-maili podszywających się pod jakąś instytucję, w których jesteśmy proszeni o podanie danych osobowych, albo przekierowywani do fałszywych stron internetowych. Dotychczas można je było łatwo odróżnić, bo z reguły zawierały mnóstwo błędów gramatycznych czy ortograficznych. Wykorzystanie modeli językowych to eliminuje. Można AI nauczyć stosowania określonego stylu i zrobi to bezbłędnie – ostrzega Bartłomiej Drozd, ekspert serwisu ChronPESEL.pl.
To jednak nie wszystko. W ubiegłym roku Zespół Reagowania na Incydenty Bezpieczeństwa Komputerowego Komisji Nadzoru Finansowego (CSIRT KNF) ostrzegał m.in. przed wprowadzającymi w błąd reklamami platform inwestycyjnych, w których podszywano się pod znane instytucje lub osoby, w tym polityków. W kwietniu 2023 r. oszuści najczęściej wykorzystywali wizerunek Baltic Pipe (30 proc.), PGNiG (26 proc.), Tesli (11 proc.), spółek Skarbu Państwa (4 proc.) i banków (3 proc.).
– Takie reklamy zamieszczane w mediach społecznościowych również przekierowywały do fałszywych podstron z formularzami wymagającymi np. rejestracji. Pozyskane w ten sposób dane mogą prędzej czy później zostać wykorzystane do wyłudzeń – dodaje Bartłomiej Drozd.
Przykłady można mnożyć. W 2023 roku pojawiły się reklamy stworzone przy pomocy AI, które prowadziły do oficjalnego sklepu Google Play. Zachęcano w nich do pobrania niebezpiecznej aplikacji, której instalacja pozwoliłaby przestępcom przejąć kontrolę nad komputerem czy smartfonem. W ten sposób mogą oni uzyskać dostęp do znajdujących się na urządzeniu danych osobowych czy loginów i haseł do kont bankowych. Z kolei Naukowa i Akademicka Sieć Komputerowa (NASK) ostrzegała przed oszustami podszywającymi się pod Allegro, którzy wysyłali e-maile sugerujące otrzymanie od serwisu premii lojalnościowej.
Nie udostępniaj własnego głosu w mediach społecznościowych
Cyberprzestępcy stosują również technikę deepfake, która przy użyciu sztucznej inteligencji umożliwia nie tylko stworzenie fałszywych filmów i obrazów, lecz także podszycie się pod członka najbliższej rodziny. Wystarczy, że oszuści będą mieć dostęp do nagrania głosowego z naszym udziałem, które pozyskają np. z mediów społecznościowych. Niestety przed tym zjawiskiem jest się bardzo trudno uchronić.
Z ankiety przeprowadzonej przez McAfee na ponad 7000 respondentów z siedmiu krajów wynika, że 53 proc. z nich dzieli się swoim głosem w Internecie przynajmniej raz w tygodniu. Z kolei 10 proc. ankietowanych osobiście doświadczyło próby oszustwa z wykorzystaniem fałszywego głosu w oparciu o sztuczną inteligencję, a kolejne 15 proc. zna osobę, która była celem takiego ataku. W Polsce na razie żadna instytucja nie prowadzi odrębnych statystyk dla przestępstw, w których wykorzystano AI. Jednak bez wątpienia jest to bardzo poważny problem, skoro ostrzega przed nim Instytut Wymiaru Sprawiedliwości, CSIRT KNF czy NASK.
Zwycięstwo dla całej branży: Axis dodaje obsługę standardu kodowania AV1
Zakłady przemysłowe inwestują w nowoczesne instalacje przeciwpożarowe
DORA uderza w fintechy: Czy nowe przepisy zagrożą innowacyjnym firmom?
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Jedynka Newserii
Infrastruktura
Prąd z największej prywatnej inwestycji energetycznej w Polsce popłynie w 2027 roku. Polenergia dostała właśnie potężny zastrzyk finansowania
Polenergia S.A. i Bank Gospodarstwa Krajowego podpisały umowę pożyczki ze środków Krajowego Planu Odbudowy (KPO) na budowę morskich farm wiatrowych. Finansowanie wyniesie 750 mln zł i zostanie wykorzystane do budowy dwóch farm o łącznej mocy 1440 MW. Największa prywatna grupa energetyczna w Polsce realizuje ten projekt z norweskim Equinorem. Prace związane z budową fundamentów turbin na Bałtyku mają się rozpocząć w 2026 roku. Projekty offshorowe będą jednym z filarów nowej strategii Polenergii, nad którą spółka właśnie pracuje.
Przemysł
Polskie firmy przemysłowe bardziej otwarte na technologie. Sztuczną inteligencję wdrażają z ostrożnością [DEPESZA]
Innowacje cyfrowe w przemyśle, choć wiążą się z kosztami i wyzwaniami, są jednak postrzegane przez firmy jako szansa. To podejście przekłada się na większą otwartość do ich wdrażania i chęć inwestowania. Ponad 90 proc. firm przemysłowych w Polsce, które wprowadziły co najmniej jedno rozwiązanie Przemysłu 4.0, dostrzega wyraźną poprawę efektywności procesów produkcyjnych – wynika z nowego raportu Autodesk. Choć duża jest wśród nich świadomość narzędzi opartych na sztucznej inteligencji, na razie tylko 14 proc. wykorzystuje je w swojej działalności.
Farmacja
Antybiotykooporność coraz poważniejszym problemem. Wyizolowane ze śliny peptydy mogą się sprawdzić w walce z bakteriami wielolekoopornymi
Poszukiwanie alternatyw dla antybiotykoterapii nabiera coraz większego tempa. Duże nadzieje, zwłaszcza w kontekście szczepów wielolekoopornych, naukowcy wiążą z bakteriocynami i bakteriofagami. Badacz z Uniwersytetu Wrocławskiego prowadzi prace nad bakteriocyną, będącą peptydem izolowanym z ludzkiej śliny. Za swoje badania otrzymał Złoty Medal Chemii. Tymczasem problem antybiotykooporności może wynikać w dużej mierze z niewiedzy. Z Eurobarometru wynika, że tylko połowa Europejczyków zdaje sobie sprawę, że antybiotyki nie są skuteczne w walce z wirusami.
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.