Newsy

Trwają prace nad sztuczną inteligencją naśladującą ludzki mózg. Według naukowców technologia w przyszłości może wymknąć się spod kontroli

2021-04-22  |  06:00

Rozwój komputerów kwantowych i inżynierii neuromorficznej może doprowadzić do powstania robotów wyposażonych w ludzkie emocje. Trwają już prace nad tzw. ogólną sztuczną inteligencją, która może osiągnąć zdolności abstrakcyjnego myślenia na ludzkim poziomie. Neurolodzy z Uniwersytetu Kolorado już stworzyli sieć neuronową, która przewiduje odczucia towarzyszące ludziom przeglądającym zdjęcia lub filmy. – Rozwój technologii może spowodować to, że wymknie się ona w pewien sposób spod kontroli – wskazuje Paweł Zarzycki ze SmartLife Robotics.

– Science fiction buduje nasze oczekiwania odnośnie do robotów. Pewnie wiele osób spodziewa się, że roboty mogą posprzątać, ugotować obiad czy odprowadzić dzieci do szkoły. I o ile niestety jeszcze teraz nie jest to możliwe, o tyle funkcje robotów wydają się bardzo utylitarne i w jakiejś odleglejszej przyszłości być może będziemy mogli korzystać z takiej robotyki – mówi w rozmowie z agencją informacyjną Newseria Innowacje Paweł Zarzycki, partner w firmie SmartLife Robotics.

Przykłady robotów towarzyszących człowiekowi w codziennych pracach oczywiście już dziś można znaleźć. Jeżdżące autonomicznie maszyny sprzątają mieszkania czy koszą trawniki, samochody same jeżdżą po ulicach, szefowie kuchni mają wsparcie w robotach kuchennych, a lekarze mogą wykonywać skomplikowane operacje z każdego miejsca na Ziemi, zdalnie operując ramionami robotów medycznych. Niebawem roboty będą też odczytywały ludzkie emocje.

– Budując coraz bardziej złożone i skomplikowane rozwiązania wyposażone w sztuczną inteligencję, które bardzo dobrze nas rozumieją i potrafią odczytać nasz stan emocjonalny, możemy doprowadzić do sytuacji, gdzie roboty będą też przeżywały stany emocjonalne – wskazuje ekspert. – Może się okazać, że w odleglejszej przyszłości takie roboty staną się pełnoprawnym członkiem społeczeństwa. Już dzisiaj rozważamy, jakie konsekwencje prawne może mieć rozwój takiej technologii. Na przykład samodzielnie jeżdżący samochód, który potrąci człowieka na pasach: kto odpowiada, w świetle prawa karnego, za taki wypadek? To samo będzie dotyczyło robotów.

Już teraz powstają algorytmy wyposażające roboty w sztuczną inteligencję umiejącą rozpoznawać emocje. Neurolodzy z Uniwersytetu Kolorado stworzyli sieć neuronową, która przewiduje odczucia towarzyszące ludziom przeglądającym zdjęcia lub filmy. Nauczyła się też przedstawiać emocje w sposób, który jest podobny do biologicznego procesu. Jak wskazuje Paweł Zarzycki, wyposażanie maszyn w emocje może być ryzykowne.

– General artificial intelligence to jest taka sztuczna inteligencja, która co do zasady zachowuje się jak człowiek, czyli potrafi być kreatywna, potrafi rozwiązywać problemy, które dopiero co pojawiły się do rozwiązania – podkreśla partner w firmie SmartLife Robotics. – Rozwój technologii może spowodować to, że wymknie się ona w pewien sposób spod kontroli.

Problem usamodzielnienia się sztucznej inteligencji, tzw. singularity, jest podnoszony przez wielu obecnych popularyzatorów sztucznej inteligencji, m.in. Elona Muska, który wskazuje, żeby zawczasu zapanować nad tym, co powstaje w laboratoriach. Tymczasem trwają dążenia do stworzenia ogólnej sztucznej inteligencji (general artificial intelligence, AGI), która ma osiągnąć zdolności  abstrakcyjnego myślenia na ludzkim poziomie. Nowe osiągnięcia pokazują, że to możliwe. Organizacja DeepMind udowodniła, że algorytm potrafi pokonać człowieka w grach wymagających przewidywania najlepszych scenariuszy. Z kolei OpenAI opracowała algorytm kreujący treści, które trudno odróżnić od tworzonych przez ludzi.

– Na razie trochę przeceniamy sztuczną inteligencję, bo rozwiązania te ciągle są programowane przez człowieka – mówi Paweł Zarzycki. – Chcąc jednak budować rozwiązania, które są coraz bardziej inteligentne, można teoretycznie doprowadzić do takiej sytuacji, kiedy to rozwiązanie będzie chciało się w pewien sposób usamodzielnić. To z punktu widzenia naszej ludzkiej psychiki wydaje się naturalne.

Wielu futurologów przewiduje, że AGI powstanie w najbliższych dziesięcioleciach, a Ray Kurzweil zapowiada, że do 2045 roku osiągnie już tzw. osobliwość, przewyższając zdolności ludzkiego intelektu.

– Ciągle nie rozumiemy naszego własnego mózgu. Nie wiemy, czym jest świadomość, nie rozumiemy do końca emocji. Jest tu wiele zagadek do rozwiązania. Niemniej przyjmując mechanistyczną koncepcję, że my też de facto jesteśmy biologicznymi automatami, to być może uda nam się budować podobne rozwiązania. Technologia rozwija się też w takim obszarze jak neuromorphic computing, czyli sztuczna inteligencja dostaje pomału narzędzia podobne do naszego własnego mózgu, do tego rozwój komputerów kwantowych może spowodować, że rzeczywiście ilość inteligencji dostępnej w urządzeniu wybuchnie na tyle, że dotrzemy do bariery świadomości – mówi partner w firmie SmartLife Robotics.

Czytaj także

Więcej ważnych informacji

Jedynka Newserii

Jedynka Newserii

Kosmos i lotnictwo

Trwają prace nad poszukiwaniem pozaziemskiej inteligencji. Według ekspertów odkrywane co jakiś czas dowody obecności obcych na Ziemi, takie jak UFO, są bezpodstawne

Naukowcy potwierdzili istnienie ponad 4 tys. egzoplanet krążących wokół innych gwiazd w naszej galaktyce. Prawdopodobnie jednak mogą być ich nawet biliony. Jednym z najlepszych narzędzi, jakich naukowcy potrzebują, aby zawęzić poszukiwania światów nadających się do zamieszkania, jest koncepcja „strefy nadającej się do zamieszkania”. Dzięki nowym teleskopom szanse na znalezienie pozaziemskiego życia rosną, choć dotąd żaden nie uwiecznił śladów pozaziemskiej cywilizacji. Potwierdzenie jej istnienia mogłoby być przełomem dla ludzkości, jednak jak dotąd wszelkie rzekome znaki pozostawione przez obcą cywilizację się nie potwierdziły. – UFO nie mają nic wspólnego ze statkami obcych – mówi dr Piotr Witek z Planetarium Centrum Nauki Kopernik.

Robotyka i SI

Sztuczna inteligencja może moderować wpisy zawierające przemoc jeszcze przed ich publikacją. W przyszłości pozwoli zapobiegać czynom pedofilskim czy agitacji terrorystów

Algorytmy sztucznej inteligencji są już w stanie wykrywać agresywne zachowania w sieci z 97-proc. skutecznością. Pozwala na to sztuczna inteligencja trzeciej fali, która polega na integracji uczenia maszynowego z ingerencją człowieka w schemat działania. Dotychczas SI również wykrywała niebezpieczne zachowania, lecz tylko z 50-proc. skutecznością, więc każdy wysyłany przez nią alert musiał być zatwierdzony przez człowieka. Nowe podejście do budowania algorytmów pomoże nie tylko zapobiegać agresji słownej w sieci, ale również ostrzegać przed możliwą próbą samobójczą, a także działaniem pedofila czy terrorysty.