Mówi: | dr Aleksandra Przegalińska |
Firma: | Akademia Leona Koźmińskiego, Harvard Labour and Worklife Program, Massachusetts Institute of Technology |
Sztuczna inteligencja wymyka się współczesnemu prawu. Wdrożenie jej na szeroką skalę wymaga uregulowania
– Sztuczna inteligencja jest aktualnie na dosyć wczesnym etapie rozwoju – mówi dr Aleksandra Przegalińska. Mimo to już teraz pojawiają się wątpliwości natury prawnej związane z jej funkcjonowaniem. Eksperci podkreślają, że rządzący powinni ustalić ramy jej funkcjonowania oraz zakres odpowiedzialności, aby obywatele wiedzieli, że systemy autonomiczne są nie tylko skuteczne, lecz także w pełni przejrzyste. Na całym świecie prowadzi się intensywne prace związane z unormowaniem formy funkcjonowania algorytmów sztucznej inteligencji (SI).
– Wbrew dyskursowi publicznemu, gdzie coraz więcej mówi się o sztucznej inteligencji jako o czymś, co już jest bardzo mocno obecne w naszych życiach, SI jest aktualnie na dosyć wczesnym etapie rozwoju. Dopiero teraz zaczynamy budować jakieś kompetencje w tym zakresie. Sztuczna inteligencja, jeśli chodzi o swoją obecność i to, jak wielu usług i produktów staje się podstawą, jak najbardziej się skaluje, ale jeśli chodzi o to, jakie są ambicje naukowe odnośnie do tego, co mogłaby robić, to jesteśmy jeszcze na wczesnym etapie – mówi agencji Newseria Innowacje dr Aleksandra Przegalińska z Akademii Leona Koźmińskiego.
Choć to przedstawiciele branży technologicznej najgłośniej optują za wdrożeniem szeroko zakrojonych rozwiązań z zakresu sztucznej inteligencji, wielu z nich dostrzega zagrożenia, jakie wiążą się z ich upowszechnieniem. Wyzwaniami związanymi z rozwojem zaawansowanych systemów autonomicznych zajmuje się m.in. amerykański Future of Life Institute, wspierany m.in. przez Elona Muska czy Billa Gatesa.
Na początku 2020 roku głośno zrobiło się o aplikacji Clearview AI wykorzystywanej przez amerykańskich stróżów prawa do identyfikowania podejrzanych osób. Oprogramowanie potrafi określić tożsamość poszukiwanego, bazując wyłącznie na jednym zdjęciu – system wykorzystuje algorytm rozpoznawania twarzy oraz crawlery internetowe do zebrania jak największej ilości informacji o poszukiwanym. W tym celu przeszukuje media społecznościowe i analizuje wideoblogi, aby opracować szczegółowy raport personalny na temat danego użytkownika. Firma nie wyklucza, że w przyszłości to narzędzie zostanie skomercjalizowane, dzięki czemu będzie mogło posłużyć do zbierania wrażliwych informacji o internautach, np. na potrzeby kampanii marketingowych.
– Sztuczna inteligencja np. jako broń autonomiczna może być zagrożeniem dla ludzi. Tak samo jak może być zagrożeniem w momencie, kiedy np. systemy na niej oparte kogoś dyskryminują. Ale z drugiej strony stwarza ogromne szanse: SI może np. dokonywać diagnostyki bardzo rzadkich chorób, których ludzie nie są w stanie zdiagnozować. Ma pewne możliwości w zakresie przetwarzania danych, wskazywania ścieżki tego, jak się zachować w poprawny sposób. Trzeba dobrze wyważyć te zagrożenia z dużymi szansami, które SI daje – mówi Aleksandra Przegalińska.
W kontrowersyjną stronę podążyły także badania zespołu OpenAI, który na bazie algorytmu GPT-2 zbudował system autonomicznego generowania tekstów. Pierwsze eksperymenty dowiodły, że artykuły generowane przez algorytm wyglądają na tyle autentycznie, że można pomylić je z treścią stworzoną przez człowieka. W związku z tym OpenAI udostępniło okrojoną wersję algorytmu, aby nikt nie wykorzystał go do szerzenia fałszywych informacji w sieci. Po kilku miesiącach podjęto jednak decyzję o udostępnieniu pełnego kodu źródłowego. Elon Musk, współzałożyciel organizacji, na znak protestu przeciwko podjęciu takiej decyzji zdecydował się opuścić OpenAI.
Coraz częściej wspomina się więc o konieczności uregulowania metod działania inteligentnego oprogramowania.
– Zmienia się bardzo dużo w kwestii prawnych ram funkcjonowania sztucznej inteligencji. Powstaje coraz więcej regulacji i propozycji. Ostatnie dwa lata przyniosły wysyp różnych propozycji od różnych grup interesu: od biznesu, który proponuje własne pomysły na to, jak tę SI poskramiać, poprzez regulacje rządowe, strategie rozwoju SI, jak również to, co np. robi Unia Europejska, która w zakresie udzielania rekomendacji sztuczną inteligencję ma bardzo mocno na uwadze – mówi ekspertka.
Komisja Europejska podjęła decyzję o rozpoczęciu pilotażowego programu etycznego rozwoju i wykorzystania technologii SI. W jego ramach zachęca rządy, przedsiębiorstwa oraz organizacje unijne do dołączenia do europejskiego sojuszu na rzecz SI, programu wspierającego zrównoważone wykorzystanie algorytmów sztucznej inteligencji. Komisja optuje za wprowadzeniem regulacji prawnych, które ustalą ramy bezpiecznego funkcjonowania systemów SI w społeczeństwie.
Odmienne podejście do sztucznej inteligencji prezentuje administracja Donalda Trumpa, która na początku roku wydała oświadczenie, w którym wzywa przedstawicieli unijnych urzędów do unikania wdrażania nadmiernych ograniczeń związanych z funkcjonowaniem SI. Biały Dom twierdzi, że technologie inteligentne powinny działać w ramach elastycznych ram, które pozwolą dynamicznie rozwijać projekty z zakresu uczenia maszynowego.
– Gdybyśmy nie mieli żadnych regulacji dotyczących sztucznej inteligencji, to skutki takiej sytuacji mogłyby być bardzo niedobre i dalekosiężne. Możemy częściowo bazować na regulacjach, które już mamy, i stosować je do SI. Jednak w niektórych przypadkach musimy wymyślić zupełnie nowe, gdyż sztuczna inteligencja może być stosowana do nowych gałęzi działań. Jeśli miałaby być implementowana np. w sądownictwie i wspierać wyroki sądowe, decydować o tym, kto powinien trafić do więzienia, to musi być objęta regulacjami. Musimy domagać się, żeby takie rozwiązania były w pełni transparentne – podkreśla Aleksandra Przegalińska.
Według firmy badawczej Grand View Research wartość globalnego rynku sztucznej inteligencji do 2025 roku wzrośnie do 390,9 mld dol. W najbliższych latach ma się rozwijać w tempie 46,2 proc. w skali roku.
Czytaj także
- 2024-12-18: Inżynierowie z Warszawy pracują nad innowacjami dla całej Grupy Orange. Ich specjalności to AI i cyberbezpieczeństwo
- 2024-12-12: Nowe obowiązki dla e-sklepów. Wchodzi w życie rozporządzenie o bezpieczeństwie produktów
- 2024-12-12: Wdrażanie GenAI może oznaczać nasilenie stresu wśród pracowników. Firmy potrzebują odpowiedniej strategii komunikacyjnej
- 2024-11-26: Sztuczna inteligencja rewolucjonizuje marketing. Narzędzia AI dają drugie życie tradycyjnym formom reklamy
- 2024-12-11: Coraz większa rola sztucznej inteligencji w marketingu. Wirtualni influencerzy na razie pozostają ciekawostką
- 2024-11-27: Sztuczna inteligencja nie zastąpi pisarzy. Nie tworzy literatury, tylko książki dla zabicia czasu
- 2024-11-22: Artur Barciś: Od sztucznej inteligencji dowiedziałem się, że zmarłem na scenie. Dla niej jestem kompletnie nikim
- 2024-10-28: Martyna Wojciechowska: Sztuczna inteligencja zastępująca dziennikarzy i artystów to niepokojący trend. To prowadzi do dezinformacji
- 2024-11-04: Sztuczna inteligencja wzbudza w Polakach głównie ciekawość i obawy. Ponad połowa widzi w niej zagrożenie
- 2024-10-09: Szwedzka Akademia Nauk uhonorowała lata pracy nad sztuczną inteligencją. Nagroda Nobla trafiła do twórców sztucznych sieci neuronowych
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Jedynka Newserii
Infrastruktura
Rekordowa pożyczka z KPO dla Tauronu. 11 mld zł trafi na modernizację i rozbudowę sieci dystrybucji
Bank Gospodarstwa Krajowego i spółka Tauron podpisały umowę pożyczki, dzięki której spółka dostanie 11 mld zł na modernizację i unowocześnienie swojej sieci elektroenergetycznej oraz dostosowanie jej do rosnącej liczby źródeł OZE. To rekordowa kwota i największe jak dotąd finansowanie inwestycji wspierającej transformację energetyczną w Polsce. Środki na ten cel pochodzą z Krajowego Planu Odbudowy i Zwiększenia Odporności.
Infrastruktura
Rolnictwo czekają znaczące inwestycje. Bez nich trudno będzie zapewnić żywność 10 mld ludzi
Zrównoważona produkcja i zabezpieczenie żywności dla rosnącej populacji będą filarami zbliżającej się rewolucji rolniczej. Wysiłki rolników będą nakierowane na ograniczanie zasobów wodnych, śladu węglowego przy jednoczesnym zwiększaniu plonów i ochrony roślin przed szkodnikami. Trudno będzie to osiągnąć bez innowacji – zarówno cyfrowych, jak i biologicznych. Rolnicy w Polsce są otwarci na nowe rozwiązania, ale potrzebują do tego wsparcia eksperckiego i finansowego.
Telekomunikacja
Inżynierowie z Warszawy pracują nad innowacjami dla całej Grupy Orange. Ich specjalności to AI i cyberbezpieczeństwo
– Patrzymy na innowacje globalnie. To oznacza, że Grupa Orange inwestuje tutaj, w Polsce, w 300-osobowy zespół, który tworzy usługi skalowalne wykorzystywane przez całą grupę – mówi Marcin Ratkiewicz, dyrektor Orange Innovation Poland. Poza Francją to największy zespół badawczo-rozwojowy operatora. Polscy inżynierowie specjalizują się m.in. w AI, cyfrowej transformacji biznesu i sieci czy automatyzacji procesów. CERT Orange Polska – czyli jedno z czterech głównych centrów cyberbezpieczeństwa Grupy Orange – wyznacza trendy w tym obszarze dla innych europejskich rynków. Jak wskazuje ekspert, globalne podejście zwiększa efektywność kosztową i buduje kulturę eksperymentowania.
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.