Mówi: | Aleksandra Przegalińska |
Funkcja: | Massachusetts Institute of Technology |
Naukowcy alarmują: oparta na sztucznej inteligencji broń autonomiczna to zagrożenie dla ludzkości. Nad rozwojem SI potrzebna jest większa kontrola
Z jednej strony ułatwienia w codziennym życiu, poprawa bezpieczeństwa na drodze, oszczędności energii czy lepsza diagnostyka medyczna, a z drugiej – prace nad bronią autonomiczną, które prowadzą do powstawania maszyn mających zabijać ludzi. Nad takimi systemami pracuje m.in. Rosja i Izrael. Zdaniem ekspertów sztuczna inteligencja może być równie pożyteczna, co groźna. To, jaka będzie w przyszłości, zależy od użytkowników i tego, kto nad jej rozwojem będzie pracował. Jej rozwój wydaje się jednak nieunikniony.
Projektowane systemy LAW (Lethal Autonomous Weapons) konstruowane są do przeprowadzania ataków na cele wojskowe (ludzi i instalacje) bez operatora zarówno w powietrzu, na lądzie, pod wodą, jak i w kosmosie. To oznacza, że taka maszyna może sama zidentyfikować i zlikwidować cel, bez ingerencji człowieka. Na świecie co najmniej kilka państw opracowuje tego typu broń. Według doniesień prasowych Rosjanie pracują nad autonomiczną torpedą nuklearną „Status 6”, Izrael zaś opracowuje zabójcze roboty o rozmiarze much.
Jak do tej pory użycie tego typu broni bez ludzkiego nadzoru jest uznawane za nielegalne – ostateczną komendę musi wydać człowiek. Istnieją jednak wyjątki, w postaci autonomicznych systemów obronnych.
– Chcemy wykorzystywać sztuczną inteligencję do tego, żeby zrobić lepszą diagnostykę medyczną, żeby lepiej wykrywać choroby, żeby uczyć się nowych rzeczy. Taka silna obliczeniowa maszyna może nam wskazać inne kierunki myślenia, które dla nas są niedostępne, ale nie chcemy, żeby ona zabijała ludzi. Przed nami jest teraz czas segmentacji tej dziedziny na to, co chcemy robić, a czego nie chcemy robić – mówi w rozmowie z agencją informacyjną Newseria Innowacje Aleksandra Przegalińska z Massachusetts Institute of Technology.
W wystosowanym przez grupę ponad stu naukowców liście otwartym do ONZ zawarto prośbę o działania zapobiegające dalszym pracom naukowców nad rozwojem broni autonomicznej, czyli robotów wojennych działających w oparciu o sztuczną inteligencję. W gronie sygnatariuszy tego listu znalazł się między innymi Elon Musk.
To kolejna już próba zwrócenia uwagi na zagrożenia związane z niewłaściwym rozwojem tej technologii, wzbudzająca dyskusję o tym, w jakim kierunku zmierza sztuczna inteligencja. Właściciel firm Tesla i SpaceX uznał sztuczną inteligencję za największe zagrożenie dla ludzkości. Podobnymi opiniami dzielili się ze światem astrofizyk Stephen Hawking oraz Bill Gates, twórca Microsoftu.
– Jeżeli ten projekt, jako społeczeństwa, oddamy bardzo wąskiej grupie naukowców i ekspertów, to będzie to projekt, którego nie można nadzorować i on na pewno może być potencjalnie groźny. Każda technologia jest potencjalnie groźna – twierdzi Aleksandra Przegalińska.
Zupełnie odmienne zdanie na temat sztucznej inteligencji ma Mustafa Suleyman – współzałożyciel przejętej przez Google firmy DeepMind, która pracuje nad stworzeniem cyfrowego mózgu. Według niego nowa technologia pomoże w przyszłości rozwiązać największe problemy ludzkości, takie jak dostęp do wody pitnej, ryzyka finansowe na giełdzie czy nierówności społeczne.
Sztuczna inteligencja jest młodą dziedziną technologii. Po raz pierwszy tego terminu użyto w 1955 roku. Od tego czasu stała się ona jedną z tych dziedzin, na których rozwój kładzie się największy nacisk. Superkomputery są już zdolne wygrywać w potyczkach szachowych z zawodnikami najwyższej klasy, a dzięki głębokiemu uczeniu maszynowemu możliwe jest powstawanie tworów takich, jak na przykład Jane AI, będąca komputerowym osobistym trenerem motywującym użytkownika do podejmowania aktywności fizycznej.
– Sztuczna inteligencja pokazała się już do tej pory w bardzo wielu pozytywnych zastosowaniach. Jest prawie wszędzie, w wielu operacjach finansowych, w systemach rekomendacji, w internecie, w sieciach społecznościowych. Choć zdarza się, że może być użyta w niewłaściwych celach, to jeśli będzie projektem rozproszonym w społeczeństwie, jest mniejsza szansa na to, że będzie nadużywana czy używana negatywnie – uspokaja badaczka z MIT.
Według analityków Markets and Markets wartość rynku sztucznej inteligencji w 2017 roku wyniosła 16 mld dol. Do 2025 roku tempo średniorocznego wzrostu ma wynieść ponad 36 proc., by osiągnąć wartość 190 mld dol.
Czytaj także
- 2025-04-14: Nowe technologie podstawą w reformowaniu administracji. Będą też kluczowe w procesie deregulacji
- 2025-04-15: Obciążenia regulacyjne uderzają w branżę nowych technologii i start-upy. To może hamować innowacje
- 2025-04-16: Sztuczna inteligencja napędza innowacje, ale pochłania ogromne ilości prądu. Rośnie potrzeba bardziej energooszczędnych rozwiązań
- 2025-03-03: Unia Europejska spóźniona w wyścigu AI. Eksperci apelują o szybsze inwestycje i zaprzestanie regulacji
- 2025-03-13: Inwestycje w sztuczną inteligencję na bardzo niskim poziomie. Potencjał polskich kadr nie jest wykorzystywany
- 2025-03-03: Drony coraz częściej wykorzystywane w akcjach ratowniczych. Państwowa Straż Pożarna tworzy grupy dronowe w całej Polsce
- 2025-02-13: Europa zapowiada ogromne inwestycje w sztuczną inteligencję. UE i USA mają wspólne interesy w obszarze AI
- 2025-02-19: Biomimetyczny dron z nogami sprawdzi się w dostawach i misjach ratunkowych. Technologia inspirowana jest wronami
- 2025-02-07: Rola telekomów w upowszechnianiu sztucznej inteligencji rośnie. T-Mobile udostępnia klientom zaawansowaną wyszukiwarkę Perplexity Pro
- 2025-02-06: Rząd pracuje nad nowymi warunkami testowania pojazdów autonomicznych. Do dopuszczenia ich do ruchu jeszcze daleka droga
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Prawo

UE lepiej przygotowana na reagowanie na klęski żywiołowe. Od czasu powodzi w Polsce pojawiło się wiele usprawnień
Na tereny dotknięte ubiegłoroczną powodzią od rządu trafiło ponad 4 mld zł. Pierwsze formy wsparcia, w tym zasiłki, pomoc materialna czy wsparcie dla przedsiębiorców, pojawiły się już w pierwszych dniach od wystąpienia kataklizmu. Do Polski ma też trafić 5 mld euro z Funduszu Spójności UE na likwidację skutków powodzi. Doświadczenia ostatnich lat powodują, że UE jest coraz lepiej przygotowana, by elastycznie reagować na występujące klęski żywiołowe.
Bankowość
Phishing największym cyberzagrożeniem. Przestępcy będą coraz częściej sięgać po AI, by skutecznie docierać do potencjalnych ofiar

Choć liczba zablokowanych przez CyberTarczę fałszywych stron internetowych wyłudzających dane spadła w ubiegłym roku z 360 tys. do 305 tys., to wciąż najczęstszym typem ataku, po jaki sięgają cyberprzestępcy, jest phishing. Ten trend prawdopodobnie utrzyma się w najbliższych latach, m.in. dlatego że sztuczna inteligencja umożliwia hakerom dużo łatwiejsze podszywanie się pod cudzą tożsamość. Choć CyberTarcza działająca w sieci Orange Polska skutecznie chroni internautów przed atakami, to wciąż jednak to właśnie człowiek jest ich głównym celem.
Medycyna
Komisja Europejska pracuje nad nową dyrektywą tytoniową. Papierosy w Polsce mogą znacznie podrożeć

W Brukseli trwa dyskusja nad zmianami w unijnej dyrektywie tytoniowej. Minimalna stawka akcyzy na paczkę papierosów w UE może wzrosnąć nawet dwukrotnie: z 1,8 euro do 3,6 euro. Doprowadziłoby to do wyrównania cen papierosów pomiędzy państwami UE. Wzrost cen byłby najbardziej dotkliwy dla palaczy z tych państw, które przystąpiły do UE w 2004 roku, w tym Polski, z uwagi na znacznie niższy udział akcyzy w cenie paczki papierosów niż nowe minima unijne. Nad Wisłą paczka papierosów mogłaby kosztować nawet ok. 40 zł. Nowa dyrektywa tytoniowa może zostać otwarta już podczas duńskiej prezydencji w Radzie Unii Europejskiej.
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.