Newsy

Sztuczna inteligencja przetwarza o nas coraz więcej informacji. Rządy i globalne firmy próbują znaleźć równowagę między prywatnością a wygodą użytkowników

2019-06-19  |  06:00
Mówi:Jacek Kotarbiński
Funkcja:ekonomista, autor bloga
Firma:Kotarbinski.com

Obecnie rozwiązania z zakresu sztucznej inteligencji wykorzystywane są powszechnie niemal we wszystkich nowoczesnych technologiach oraz usługach, z których korzystamy. Algorytmy analizują nasze zachowanie w sieci, preferencje konsumenckie, a nawet e-maile w celu wykrycia niebezpiecznych wiadomości. Inżynierowie i politycy pracują nad rozwiązaniami, które pozwolą uregulować systemy przetwarzania dużych zasobów danych, aby uchronić nas przed atakiem ze strony hakerów oraz wykorzystaniem poufnych informacji bez naszej zgody.

– Dane są wykorzystywane przez sztuczną inteligencję i to jest oczywiście związane z postępującą cyfryzacją świata. Problemem jest oczywiście strach przed tym, w jaki sposób te informacje będą wykorzystywane i czy są wykorzystywane. W jaki sposób ci, którzy stanowią prawo, będą dbać o to, żeby te informacje nie były wykorzystywane w niecnych celach. A ludzie boją się chociażby tego, że ekspedientka w sklepie zapyta o kod pocztowy – mówi agencji informacyjnej Newseria Innowacje Jacek Kotarbiński, ekonomista i autor bloga Kotarbinski.com.

Po algorytmy uczące się chętnie sięgają zarówno prywatne przedsiębiorstwa, jak i przedstawiciele administracji publicznej. W związku z tym coraz częściej mówi się o konieczności wypracowania takich rozwiązań i norm prawnych, które z jednej strony umożliwią swobodne funkcjonowanie technologii SI na rynku, z drugiej zaś zagwarantują, że te rozwiązania będą działały z poszanowaniem prywatności użytkowników systemów inteligentnych.

– Chcemy wiedzieć, jak dane będą wykorzystywane, do czego oraz w jakim zakresie jesteśmy w stanie je kontrolować. Natomiast w przeciwieństwie do tego strachu jest sytuacja, gdzie sztuczna inteligencja może się uczyć, jak pozyskiwać o nas informacje i analizować te informacje tylko wtedy, kiedy my tych informacji będziemy jej dostarczać – wskazuje Jacek Kotarbiński.

Ważny krok na tej drodze wykonała firma Google, która wprowadziła szereg rozwiązań umożliwiających kontrolowanie tego, co dzieje się z informacjami powiązanymi z naszym kontem mailowym. Koncern pozwala m.in. przejrzeć, jakie dane udostępniamy poszczególnym aplikacjom oraz samemu ekosystemowi Google, i zadecydować, które mają być przetwarzane. Co więcej, firma planuje nieustannie optymalizować algorytmy uczenia maszynowego, aby zminimalizować liczbę poufnych danych wysyłanych do chmury. Te mają być analizowane bezpośrednio w pamięci urządzenia mobilnego.

Google wdroży także mechanizm cyklicznego czyszczenia informacji, dzięki któremu będziemy mogli ustawić datę ważności wszystkich danych, które przesyłamy do serwisu. Dzięki temu system będzie regularnie usuwał dane historyczne, które nie są wykorzystywane w celu zapewnienia bieżącej obsługi konsumenta.

– Dążymy do wygody, żeby nie kupować już biletów papierowych na samolot, tylko żeby powiedzieć: hej, Siri, czy możesz kupić mi bilet lotniczy z tego miejsca do tego miejsca? I uznajemy, że sprawa w zasadzie jest załatwiona, cały proces będzie zautomatyzowany. Ta sytuacja wygody jest dla nas bardzo przyjazna, natomiast problem pojawia się wtedy, kiedy sztuczna inteligencja np. będzie sprawdzać, czy jesteśmy prawym człowiekiem i z tego powodu np. nie wpuści nas do metra. Ale tutaj dochodzimy już do tematu, w jaki sposób rządy państw będą podchodzić do wykorzystywania sztucznej inteligencji i np. rozpoznawania twarzy na ulicach – mówi ekspert.

Chiński system monitoringu miejskiego bazuje na sieci kamer połączonych, które nieustannie skanują twarze wszystkich przechodniów, rejestrują je i porównują z policyjną bazą osób poszukiwanych. W teorii system ma służyć do wyszukiwania w tłumie przestępców. W praktyce może być wykorzystywany do monitoringu. W przypadku chińskich kamer bezpieczeństwa nikt nie pyta obywateli o to, czy zgadzają się na przetwarzanie danych biometrycznych.

Problematyką dynamicznego rozwoju technologii sztucznej inteligencji zainteresowało się m.in. Ministerstwo Cyfryzacji, które prowadzi prace nad Założeniami do strategii sztucznej inteligencji w Polsce. Dokument ma wskazać wyzwania, jakie w najbliższym czasie staną przed tą branżą, oraz strategiczne cele jej rozwoju, także w zakresie edukacji. Równie ważna rola przypadnie zespołowi GovTech Polska działającemu pod skrzydłami kancelarii premiera. Podmioty działające w ramach tego porozumienia mają doprowadzić do wypracowania skutecznego modelu współpracy administracji publicznej oraz podmiotów zajmujących się zagadnieniami SI.

– Dla nas istotne jest prawo do tego, żeby pozostać w określony sposób anonimowymi. Ważne dla nas jest to, żebyśmy wiedzieli, kto wykorzystuje te dane i do czego. Tego rodzaju mechanizmy już się pojawiają. Myślę, że również ważne jest prawo do bycia zapomnianym, czyli do sytuacji, w której w pewnym momencie podejmujemy decyzję, żeby operator tych danych np. był w stanie skutecznie skasować informacje, które o nas się pojawiają. Chcemy mieć kontrolę nad naszą prywatnością, myślę, że to jest ten kierunek – podkreśla Jacek Kotarbiński.

Według analityków z firmy MarketsandMarkets wartość globalnego rynku sztucznej inteligencji w 2017 roku przekroczyła 16 mld dol. Przewiduje się, że do 2025 roku wzrośnie ona do przeszło 190 mld dol. przy średniorocznym tempie wzrostu na poziomie 36,6 proc.

Czytaj także

Kalendarium

Medycyna

Postęp technologii medycznych i inteligentnego domu wymusza miniaturyzację baterii. Opracowano już ogniwa o grubości mniejszej niż 1 milimetr

Postępująca miniaturyzacja wymusza na producentach baterii opracowywanie coraz to mniejszych ogniw. Coraz popularniejsze na rynku stają się baterie pastylkowe, charakteryzujące się znacznie mniejszymi rozmiarami niż popularne paluszki. Znajdują zastosowanie przede wszystkim w urządzeniach inteligentnego domu czy internetu rzeczy, ale mogą także zrewolucjonizować medycynę. Miniaturowe ogniwa można zastosować m.in. w implantach czy diagnostycznych soczewkach kontaktowych, a także w inteligentnych domowych systemach bezpieczeństwa.

Internet

W erze sieci 5G atak hakerów może mieć katastrofalne skutki. Polska podejmuje działania w celu ochrony usług kluczowych, takich jak dostawy energii

Atak cybernetyczny może być równie zabójczy jak broń nuklearna. Ataki, które miały miejsce w ostatnich latach, m.in. w Europie czy USA, świadczą, że hakerzy są coraz bardziej niebezpieczni. Cyberprzestępcy atakują także w Polsce – w 2018 roku CERT Polska zanotował ponad 3,7 tys. incydentów. Ustawa o krajowym systemie cyberbezpieczeństwa i podpisana deklaracja z USA dotycząca bezpieczeństwa sieci 5G mają zmniejszyć ryzyko ataków. Sieci 5G będą miały bardzo istotny wpływ na funkcjonowanie gospodarki. Istotne jest więc podniesienie wymagań bezpieczeństwa.

 

Internet

Brak systemów bezpieczeństwa i nadzoru to największe wady rynku kryptowalutowego. Korporacje technologiczne walczą o uregulowanie branży

Inwestowanie w rynek kryptowalutowy to ryzykowne przedsięwzięcie. Zdarzają się sytuacje, że fundusze przechowywane w portfelach online mogą nieoczekiwanie zniknąć z konta, a utraconych środków nie sposób odzyskać na drodze prawnej. Przedstawiciele branży finansowej przestrzegają przed inwestowaniem w tej branży, ale jednocześnie widzą potencjał technologii blockchain, na podstawie której funkcjonują kryptowaluty.