Mówi: | Grzegorz Rutkiewicz |
Funkcja: | współzałożyciel i dyrektor zarządzający |
Firma: | Samurai Labs |
Sztuczna inteligencja może moderować wpisy zawierające przemoc jeszcze przed ich publikacją. W przyszłości pozwoli zapobiegać czynom pedofilskim czy agitacji terrorystów
Algorytmy sztucznej inteligencji są już w stanie wykrywać agresywne zachowania w sieci z 97-proc. skutecznością. Pozwala na to sztuczna inteligencja trzeciej fali, która polega na integracji uczenia maszynowego z ingerencją człowieka w schemat działania. Dotychczas SI również wykrywała niebezpieczne zachowania, lecz tylko z 50-proc. skutecznością, więc każdy wysyłany przez nią alert musiał być zatwierdzony przez człowieka. Nowe podejście do budowania algorytmów pomoże nie tylko zapobiegać agresji słownej w sieci, ale również ostrzegać przed możliwą próbą samobójczą, a także działaniem pedofila czy terrorysty.
– Wprowadziliśmy nową metodę sztucznej inteligencji, która pozwala na reagowanie w czasie rzeczywistym. To jest sztuczna inteligencja, która potrafi na bieżąco albo usunąć treść, albo zareagować w inny sposób. Oczywiście najgorsze przekazy powinny zostać zablokowane, zanim dotrą. W zależności od regulaminu danego forum oraz od skali przemocy czy toksyczności danej treści jesteśmy w stanie również napomnieć osobę, która taką treść pisze, i wspomóc kogoś, kto taką treść dostaje, albo włączyć się do rozmowy jako czatbot, który w imieniu forum lub jako tajemniczy użytkownik będzie napominał lub włączał się w moderowanie automatycznie – tłumaczy w rozmowie z agencją informacyjną Newseria Innowacje Grzegorz Rutkiewicz, współzałożyciel i dyrektor zarządzający Samurai Labs.
Dotychczas sztuczna inteligencja mogła być wykorzystywana jako wsparcie w moderowaniu już istniejących w sieci wpisów. SI uczyła się dotąd na gotowych wzorcach, zatem jej sugestie opatrzone były dość dużym, bo aż 50-proc. błędem. Algorytmy stworzone przez Samurai Labs są rewolucyjne, ponieważ opierają się nie tylko na uczeniu maszynowym, lecz także doświadczeniach człowieka. W efekcie margines błędu wynosi zaledwie 3 proc. Dzięki temu sztuczna inteligencja może samodzielnie moderować treści, a nie czekać na interwencję moderatora. Takie podejście do budowania algorytmów nazywane jest neurosymbolicznym lub trzecią falą sztucznej inteligencji.
– Wykracza ona poza to, co jest obecnie standardem sztucznej inteligencji, czyli machine learningu. Machine learning polega na nauczeniu algorytmu, czyli wyuczeniu go na podstawie bardzo dużej ilości danych, które zostały przez ludzi oznaczone. Natomiast nie ma możliwości ręcznego zaingerowania w jego mechanizm tak, żeby uznać jakieś wyjątki, dodać nowe dane. Rozwinięcie takiego algorytmu odbywa się tylko przez kolejne iteracje uczenia go na coraz większych próbach danych. W naszym podejściu łączymy uczenie maszynowe z działaniem mechanizmu zaprojektowanego przez ludzi, w który możemy ingerować i na bieżąco uczyć go, wspomagając proces decyzyjny wiedzą ekspertów – wyjaśnia Grzegorz Rutkiewicz.
Trzecia fala sztucznej inteligencji została wykorzystana m.in. przez kalifornijski start-up do zbudowania platformy cyberbezpieczeństwa MixMode. Jest ona w stanie wykrywać ataki zero-day bez podpisu w czasie rzeczywistym. SI tworzy w MixMode ewoluującą, opartą na zachowaniu linię bazową sieci, co sprawia, że nie trzeba tworzyć reguł dla alertów.
Nowe podejście do budowania algorytmów wykorzystują także Polacy. I to nie tylko do wykrywania przemocy i wzmacniania zabezpieczeń sieci.
– Możemy także identyfikować innego rodzaju zagrożenia. W tym momencie rozwijamy również możliwość detekcji zachowań pedofilskich w internecie. Potrafimy też wykrywać myśli samobójcze wśród użytkowników internetu. Jeżeli jest osoba, która – co jest szczególnie istotne teraz w czasie pandemii koronawirusa – pisze, że szuka sposobu, żeby zakończyć swoje życie, to są sygnały, które wysyła światu. Jesteśmy je w stanie zidentyfikować i możemy sprawić, że taki automat, który będzie analizował bardzo duże ilości danych z różnych forów czy mediów społecznościowych, będzie w stanie to wychwycić i w porę kogoś zaalarmować. Chcemy także w niedalekiej przyszłości wykrywać te same treści w rozmowach głosowych. Będziemy też rozszerzać ich detekcję na przykład pod kątem nowych zagrożeń – zapowiada ekspert z Samurai Labs.
Według Mordor Intelligence światowy rynek sztucznej inteligencji w cyberbezpieczeństwie osiągnął w 2020 roku przychody na poziomie ponad 5 mld dol. Do 2026 roku rynek ma zwiększyć swoją wartość do ponad 14 mld dol.
Czytaj także
- 2025-04-07: Księża zgłaszają duże poczucie zagrożenia. Połowa badanych doświadczyła agresji w ostatnim roku
- 2025-04-14: Nowe technologie podstawą w reformowaniu administracji. Będą też kluczowe w procesie deregulacji
- 2025-04-15: Obciążenia regulacyjne uderzają w branżę nowych technologii i start-upy. To może hamować innowacje
- 2025-03-21: Rośnie zainteresowanie białymi rybami jak dorsz czy mintaj. W Polsce zaledwie 5–10 proc. sprzedaży pochodzi ze zrównoważonych połowów
- 2025-03-05: Sztuczna inteligencja usprawni załatwianie spraw urzędowych. Polski model językowy PLLuM zadebiutuje w mObywatelu
- 2025-04-16: Sztuczna inteligencja napędza innowacje, ale pochłania ogromne ilości prądu. Rośnie potrzeba bardziej energooszczędnych rozwiązań
- 2025-03-18: Sylwia Bomba: W liceum nikt nie miał odwagi prosto w oczy nazwać mnie grubasem. Ale jak szłam korytarzem, to czułam śmiechy za moimi plecami
- 2025-03-03: Unia Europejska spóźniona w wyścigu AI. Eksperci apelują o szybsze inwestycje i zaprzestanie regulacji
- 2025-03-13: Inwestycje w sztuczną inteligencję na bardzo niskim poziomie. Potencjał polskich kadr nie jest wykorzystywany
- 2025-02-21: Trzy lata wojny w Ukrainie. UE i kraje członkowskie przeznaczyły na wsparcie dla Ukrainy ponad 134 mld euro
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Prawo

UE lepiej przygotowana na reagowanie na klęski żywiołowe. Od czasu powodzi w Polsce pojawiło się wiele usprawnień
Na tereny dotknięte ubiegłoroczną powodzią od rządu trafiło ponad 4 mld zł. Pierwsze formy wsparcia, w tym zasiłki, pomoc materialna czy wsparcie dla przedsiębiorców, pojawiły się już w pierwszych dniach od wystąpienia kataklizmu. Do Polski ma też trafić 5 mld euro z Funduszu Spójności UE na likwidację skutków powodzi. Doświadczenia ostatnich lat powodują, że UE jest coraz lepiej przygotowana, by elastycznie reagować na występujące klęski żywiołowe.
Bankowość
Phishing największym cyberzagrożeniem. Przestępcy będą coraz częściej sięgać po AI, by skutecznie docierać do potencjalnych ofiar

Choć liczba zablokowanych przez CyberTarczę fałszywych stron internetowych wyłudzających dane spadła w ubiegłym roku z 360 tys. do 305 tys., to wciąż najczęstszym typem ataku, po jaki sięgają cyberprzestępcy, jest phishing. Ten trend prawdopodobnie utrzyma się w najbliższych latach, m.in. dlatego że sztuczna inteligencja umożliwia hakerom dużo łatwiejsze podszywanie się pod cudzą tożsamość. Choć CyberTarcza działająca w sieci Orange Polska skutecznie chroni internautów przed atakami, to wciąż jednak to właśnie człowiek jest ich głównym celem.
Medycyna
Komisja Europejska pracuje nad nową dyrektywą tytoniową. Papierosy w Polsce mogą znacznie podrożeć

W Brukseli trwa dyskusja nad zmianami w unijnej dyrektywie tytoniowej. Minimalna stawka akcyzy na paczkę papierosów w UE może wzrosnąć nawet dwukrotnie: z 1,8 euro do 3,6 euro. Doprowadziłoby to do wyrównania cen papierosów pomiędzy państwami UE. Wzrost cen byłby najbardziej dotkliwy dla palaczy z tych państw, które przystąpiły do UE w 2004 roku, w tym Polski, z uwagi na znacznie niższy udział akcyzy w cenie paczki papierosów niż nowe minima unijne. Nad Wisłą paczka papierosów mogłaby kosztować nawet ok. 40 zł. Nowa dyrektywa tytoniowa może zostać otwarta już podczas duńskiej prezydencji w Radzie Unii Europejskiej.
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.