Newsy

Przyszłość rynku technologicznego zależeć będzie od sztucznej inteligencji. Jej rozwój powinien być jednak ściśle kontrolowany

2020-10-19  |  06:00
Mówi:dr hab. inż. Jordi Mongay Batalla
Funkcja:prof. Politechniki Warszawskiej, Wydział Elektroniki i Technik Informacyjnych
  • MP4
  • Przedstawiciele świata nauki i technologii pokładają ogromne nadzieje w procesach, systemach oraz urządzeniach wykorzystujących potencjał sztucznej inteligencji. Choć wciąż nie udało się wypracować prawdziwej SI, która będzie zdolna do w pełni samodzielnego myślenia, już teraz naukowcy oraz inżynierowie optują za wdrożeniem reguł moralnych, które pozwolą rozwijać tę dziedzinę technologii w sposób bezpieczny i kontrolowany.

    – Sztuczna inteligencja będzie następną rewolucją technologiczną. Narzędzia Google rozpoznają głos i odpowiadają nam, a to wszystko działa na podstawie algorytmów. W Chinach policjanci mają okulary, które analizują twarze i szukają przestępców, a ci mogą być złapani w bardzo krótkim czasie dzięki algorytmom rozpoznawania twarzy. Oczywiście w Europie działanie takiej technologii jest niemożliwe, bo mamy przepisy RODO, które nie pozwalają na coś takiego. Ale potencjał tej technologii jest ogromny w każdej dziedzinie życia – podkreśla w rozmowie z agencją Newseria Innowacje dr hab. inż. Jordi Mongay Batalla, prof. Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej.

    Coraz częściej rozważa się wykorzystanie sztucznej inteligencji w procesie tworzenia interfejsów mózg–komputer. Jedne z najgłośniejszych badań w tej materii prowadzi firma Neuralink, która opracowała zautomatyzowaną maszynę do zaszywania elektroniki wewnątrz czaszki pacjenta. Układ Neuralink ma umożliwić przechwytywanie i analizowanie fal mózgowych pacjenta, które zostaną wykorzystane do komunikacji z maszyną np. w celu napędzania protez utraconych kończyn.

    Inżynierowie z OpenAI od 2015 roku pracują nad stworzeniem systemu silnej sztucznej inteligencji, która raz uruchomiona, byłaby w stanie do niezależnego działania bez koordynowania z zewnątrz i byłaby zdolna m.in. do samodzielnego doskonalenia się, wyciągania wniosków oraz przeprowadzania procesów analitycznych. W rozwój tej technologii miliard dolarów zainwestował Microsoft, który chce wykorzystać pierwszą w pełni funkcjonalną silną SI w swojej platformie do obliczeń chmurowych Azure.

    – Sztuczna inteligencja będzie wszędzie w naszym życiu, w niektórych miejscach nawet nie zauważymy jej działania, np. w systemach zarządzania siecią telekomunikacyjną. Rozmowy z samochodem, z komputerem, z robotem będą coraz popularniejsze. Teraz na podstawie sztucznej inteligencji rozwijają się nie tylko interfejsy człowiek–maszyna. Kiedy pies da jakiś dźwięk, to na podstawie algorytmów sztucznej inteligencji spróbujemy stworzyć interfejs maszyna–zwierzę, aby w przyszłości rozmawiać w jakiś sposób z psem – zapowiada prof. Politechniki Warszawskiej.

    Niczym nieskrępowany rozwój sektora sztucznej inteligencji może jednak stanowić duże zagrożenie dla społeczeństwa, czego przykładem jest System Zaufania Społecznego (SCS), dynamicznie rozwijany przez rząd w Pekinie. Władze Chin dążą do pełnego zintegrowania życia obywateli z centralnie sterowanymi, zautomatyzowanymi systemami monitoringu i oceniania. W ramach SCS gromadzi się dane o wydatkach, zarobkach oraz życiu prywatnym obywateli. Działający wbrew prawu mogą w ramach tego systemu zostać obciążeni wyższymi kosztami wynajmu pojazdów, a nawet niewpuszczeni do transportu publicznego.

    O wypracowanie norm prawno-etycznych w zakresie rozwoju sztucznej inteligencji zabiega m.in. Komisja Europejska. W dokumencie „Biała księga w sprawie sztucznej inteligencji. Europejskie podejście do doskonałości i zaufania” zawarto podstawowe założenia dotyczące bezpiecznego inwestowania w tę technologię. Urzędnicy zwracają w niej uwagę m.in. na to, że systemy inteligentne powinny być rozwijane w zgodzie z dobrem obywateli, przedsiębiorstw oraz szeroko rozumianego interesu społecznego. Sztuczna inteligencja powinna zaś respektować wartości takie jak podstawowe prawa człowieka, godność ludzka i ochrona prywatności.

    – Każda technologia może być użyta dobrze lub źle. Proces wdrażania, tworzenia i ulepszenia sztucznej inteligencji musi być równoległy do stworzenia etyki, czyli gdzie i w jaki sposób można stosować sztuczną inteligencję. Powstało na ten temat dużo prac naukowych i politycznych, które nie zostawiają tworzenia sztucznej inteligencji samej sobie, próbują wyznaczać granice jej zastosowań. Postęp technologiczny jest dobry, bo dzięki temu żyjemy dłużej i lepiej niż lata temu. Ale trzeba zadać pytanie, jak towarzyszyć temu procesowi tworzenia, żeby technologia nie uciekła nam z rąk – wskazuje Jordi Mongay Batalla.

    Według analityków z firmy Grand View Research wartość globalnego rynku sztucznej inteligencji w 2020 roku wyniesie 62,4 mld dol. Przewiduje się, że do 2027 roku wzrośnie do 733,7 mld dol. przy średniorocznym tempie wzrostu na poziomie 42,2 proc.

    Czytaj także

    Kalendarium

    Więcej ważnych informacji

    Jedynka Newserii

    Prawo

    Duże projekty fotowoltaiczne w Polsce mocno spowolnione. Największymi problemami nadmierna biurokracja i chaos interpretacyjny

    Długotrwałe procedury, nadmierna biurokracja i często niejednoznaczne interpretacje przepisów hamują rozwój fotowoltaiki w Polsce – wynika z raportu Polskiego Stowarzyszenia Fotowoltaiki. Inwestorzy wskazują uzyskanie warunków przyłączenia jako najbardziej problematyczny etap procesu inwestycyjnego. Barierą jest też skala wydanych odmów przyłączenia do sieci, co odstrasza inwestorów. Zmiany są konieczne, zwłaszcza w kontekście dyrektywy RED III, która wskazuje na konieczność przyspieszenia, uproszczenia i ujednolicenia procedur administracyjnych dla inwestycji w OZE.

    Konsument

    Czterech na 10 Polaków miało do czynienia z deepfake’ami. Cyberprzęstępcy coraz skuteczniej wykorzystują manipulowane treści

    Deepfaki, czyli wygenerowane bądź też zmanipulowane przez sztuczną inteligencję zdjęcia, dźwięki lub treści wideo, to jedna z najbardziej kontrowersyjnych technologii naszych czasów. Do jej tworzenia wykorzystywane są zaawansowane algorytmy AI, dlatego użytkownikom coraz trudniej jest odróżnić treści rzeczywiste od fałszywych. Z raportu „Dezinformacja oczami Polaków 2024” wynika, że cztery na 10 badanych osób miało do czynienia z takimi treściami. To o tyle istotne, że deepfaki bywają wykorzystywane do manipulacji, szantażu, niszczenia reputacji, oszustw i wyłudzeń finansowych.

    Ochrona środowiska

    Państwowa Agencja Atomistyki przygotowuje się do nadzoru nad pierwszą polską elektrownią jądrową. Kluczową kwestią jest bezpieczeństwo

    Trwają przygotowania do budowy pierwszej w Polsce elektrowni jądrowej na Pomorzu. Zgodnie z harmonogramem przedstawianym przez rząd fizyczna budowa ma ruszyć w 2028 roku, a początek eksploatacji pierwszego bloku planuje się na 2036 rok. Również Państwowa Agencja Atomistyki przygotowuje się do realizacji zadań związanych z dozorem nad budową, rozruchem i eksploatacją nowej jednostki. Kluczowe są kwestie związane z bezpieczeństwem jądrowym i ochroną radiologiczną obiektu.

    Szkolenia

    Akademia Newserii

    Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.