Mówi: | dr hab. Dominik Ślęzak |
Firma: | Instytut Informatyki, UW |
Technologia uczenia maszynowego przyspieszy proces przetwarzania informacji. Wykorzystuje się ją już w walce z fake newsami czy do rozpoznawania chorób we wczesnej fazie rozwoju
Upowszechnienie się sztucznej inteligencji pozwoliło przerzucić żmudny proces analizy dużych zasobów informacji na algorytmy komputerowe. Zastosowanie technologii uczenia maszynowego pozwala wyszkolić sztuczną inteligencję do specjalistycznych zadań analitycznych i wychwytywania wzorów w ramach big data. Tworzy się też algorytmy predykcyjne, które umożliwią m.in. rozpoznawanie fake newsów, zautomatyzowanie procesu wykrywania nowych wirusów czy rozpoznawania chorób w ich wczesnej fazie rozwoju.
– Problem analizy danych to problem bardzo ogólny. Z jednej strony mamy bardzo popularne przykłady jak rozpoznawanie zdjęć. To bardzo dobrze robi np. platforma Google. Ale mamy też wyzwania bardziej skomplikowane, np. odróżnianie newsów prawdziwych od fałszywych. I do tego też można podejść jako do zadania analitycznego: zgromadzić fałszywe i prawdziwe newsy i próbować wytrenować algorytmy sztucznej inteligencji, żeby nauczyły się odróżniać rzeczy prawdziwe od fałszywych. A potem ostrzegać nas przed tymi fałszywymi – mówi agencji informacyjnej Newseria Innowacje dr hab. Dominik Ślęzak pracownik Instytutu Informatyki Uniwersytetu Warszawskiego, prezes firmy QED Software.
Systemy zautomatyzowanej analizy danych zyskują na popularności. Ze sztucznej inteligencji wyszkolonej metodą uczenia maszynowego korzystamy na co dzień np. podczas wyszukiwania zdjęć. Algorytmy Google analizują obrazy zindeksowane w sieci, rozpoznając na nich kluczowe elementy i dopasowując je do naszego zapytania. Z tą technologią eksperymentuje także firma NVIDIA, która rozwija projekt generatywnej sieci neuronowej (GAN) wyspecjalizowanej w analizie i przetwarzaniu obrazu. Inżynierowie szkolą sztuczną inteligencję do interpretowania wzorców wizualnych, które służą do generowania fotorealistycznych obrazów.
Technologię GAN wykorzystano m.in. do tworzenia twarzy nieistniejących osób, modelowania trójwymiarowych obiektów na bazie nagrań czy tworzenia zdjęć krajobrazów na podstawie prostych szkiców.
– Medycyna, bankowość, przemysł – te aspekty, żeby rozpoznawać i odróżniać pewne rzeczy na podstawie danych są popularne w niemal każdej dziedzinie – przekonuje Dominik Ślęzak.
Stworzona przez QED Software platforma Knowledge Pit ma unaocznić potencjał tej technologii. Ma ona formę platformy konkursowej, na której różne firmy mogą przetestować swoje algorytmy analizy informacji. Przedstawiciele różnych gałęzi przemysłu wystawiają na niej dane big data, a zadaniem uczestników platformy jest opracowanie algorytmów predykcyjnych, które będą w stanie wyciągnąć z nich przydatne informacje i odpowiednio je skatalogować. Najefektywniejsze algorytmy mogą być wdrożone przez przedsiębiorstwa.
Platforma Knowledge Pit powstała po to, aby połączyć ze sobą ekspertów od uczenia maszynowego z firmami, które nie wiedzą, w jaki sposób przetwarzać dane w ramach big data.
– W tej chwili organizujemy konkurs we współpracy z firmą z dziedziny cyberbezpieczeństwa. Na podstawie danych ściąganych od swoich klientów ma rozpoznawać ataki internetowe. Celem konkursu jest rozpoznawać na podstawie danych, czy sekwencja zapisów, operacji sieciowych jest atakiem internetowym czy nie. W momencie, gdyby udało się opracować taki model, który odróżnia zwyczajną aktywność sieciową od tej podejrzanej, można wówczas ten model zastosować i pomóc takiej firmie w analizie nowo napływających danych – mówi ekspert.
Sztuczna inteligencja wyspecjalizowana w precyzyjnym wyszukiwaniu wzorców może być użyteczna niemal w każdym sektorze gospodarki. Inżynierowie Amazona wykorzystują ją nie tylko w procesie personalizacji reklam. Dzięki technologii uczenia maszynowego udało im się opracować m.in. oprogramowanie do rozpoznawania nieczytelnego pisma lekarzy. Program nie tylko jest w stanie odczytać niewyraźne zapiski, wyszkolono go także w słownictwie medycznym, dzięki czemu radzi sobie z przepisywaniem recept oraz diagnoz zapisanych odręcznie na pismo maszynowe.
Ciekawym przykładem wykorzystania big data jest współpraca podjęta pomiędzy Family Tree DNA a amerykańskim Federalnym Biurem Śledczym. Firma specjalizująca się w analizie DNA udostępniła FBI anonimowe dane genetyczne swoich klientów, które mogą posłużyć agentom federalnym do odnalezienia przestępców, których nie udało się zlokalizować za pośrednictwem klasycznych metod śledczych.
Z kolei naukowcy z Uniwersytetu Nowego Jorku oraz SRI International opracowali algorytm, który jest w stanie rozpoznać w próbce głosu symptomy zespołu stresu pourazowego. Badacze wyszkolili sztuczną inteligencję przy wykorzystaniu 40 tys. próbek głosowych 129 weteranów wojennych, którzy zmagali się z tym schodzeniem. Dzięki temu udało się stworzyć oprogramowanie, które z 89 proc. skutecznością jest w stanie wskazać objawy PTSD, analizując wyłącznie nagranie dźwiękowe głosu pacjenta.
Na podobnej zasadzie działają inne sztuczne inteligencje stworzone z myślą o branży medycznej. Prezentuje im się duże zasoby danych opisujących osoby cierpiące na jakieś schorzenie, a następnie wykorzystuje się technologię uczenia maszynowego, aby odnaleźć wzorce w big data, które pozwolą stworzyć algorytmy automatycznie rozpoznające symptomy choroby.
– Dane są już używane, żeby np. przewidywać, czym się interesujemy, żeby proponować nam różnego rodzaju produkty w reklamach online. Ale również żeby nam pomagać np. przewidywać schorzenia, sugerować możliwości terapii, doradzać na różne sposoby. Świat danych już z nami zostanie, tych danych będzie coraz więcej i za tym muszą iść dobre i dobrze stosowane narzędzia analizy danych – podsumowuje ekspert.
Według Allied Market Research wartość globalnego rynku sztucznej inteligencji wzrośnie do 169,4 mld w 2025 roku, wykazując średnioroczne tempo wzrostu na poziomie 55,6 proc.
Czytaj także
- 2024-12-18: Inżynierowie z Warszawy pracują nad innowacjami dla całej Grupy Orange. Ich specjalności to AI i cyberbezpieczeństwo
- 2024-12-12: Wdrażanie GenAI może oznaczać nasilenie stresu wśród pracowników. Firmy potrzebują odpowiedniej strategii komunikacyjnej
- 2024-11-26: Sztuczna inteligencja rewolucjonizuje marketing. Narzędzia AI dają drugie życie tradycyjnym formom reklamy
- 2024-12-11: Coraz większa rola sztucznej inteligencji w marketingu. Wirtualni influencerzy na razie pozostają ciekawostką
- 2024-11-27: Sztuczna inteligencja nie zastąpi pisarzy. Nie tworzy literatury, tylko książki dla zabicia czasu
- 2024-11-22: Artur Barciś: Od sztucznej inteligencji dowiedziałem się, że zmarłem na scenie. Dla niej jestem kompletnie nikim
- 2024-10-28: Martyna Wojciechowska: Sztuczna inteligencja zastępująca dziennikarzy i artystów to niepokojący trend. To prowadzi do dezinformacji
- 2024-11-04: Sztuczna inteligencja wzbudza w Polakach głównie ciekawość i obawy. Ponad połowa widzi w niej zagrożenie
- 2024-10-09: Szwedzka Akademia Nauk uhonorowała lata pracy nad sztuczną inteligencją. Nagroda Nobla trafiła do twórców sztucznych sieci neuronowych
- 2024-10-18: Nowe technologie zmieniają pracę statystyków. Mogą poddawać szybkiej analizie duże zasoby informacji
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Jedynka Newserii
Infrastruktura
Prąd z największej prywatnej inwestycji energetycznej w Polsce popłynie w 2027 roku. Polenergia dostała właśnie potężny zastrzyk finansowania
Polenergia S.A. i Bank Gospodarstwa Krajowego podpisały umowę pożyczki ze środków Krajowego Planu Odbudowy (KPO) na budowę morskich farm wiatrowych. Finansowanie wyniesie 750 mln zł i zostanie wykorzystane do budowy dwóch farm o łącznej mocy 1440 MW. Największa prywatna grupa energetyczna w Polsce realizuje ten projekt z norweskim Equinorem. Prace związane z budową fundamentów turbin na Bałtyku mają się rozpocząć w 2026 roku. Projekty offshorowe będą jednym z filarów nowej strategii Polenergii, nad którą spółka właśnie pracuje.
Przemysł
Polskie firmy przemysłowe bardziej otwarte na technologie. Sztuczną inteligencję wdrażają z ostrożnością [DEPESZA]
Innowacje cyfrowe w przemyśle, choć wiążą się z kosztami i wyzwaniami, są jednak postrzegane przez firmy jako szansa. To podejście przekłada się na większą otwartość do ich wdrażania i chęć inwestowania. Ponad 90 proc. firm przemysłowych w Polsce, które wprowadziły co najmniej jedno rozwiązanie Przemysłu 4.0, dostrzega wyraźną poprawę efektywności procesów produkcyjnych – wynika z nowego raportu Autodesk. Choć duża jest wśród nich świadomość narzędzi opartych na sztucznej inteligencji, na razie tylko 14 proc. wykorzystuje je w swojej działalności.
Farmacja
Antybiotykooporność coraz poważniejszym problemem. Wyizolowane ze śliny peptydy mogą się sprawdzić w walce z bakteriami wielolekoopornymi
Poszukiwanie alternatyw dla antybiotykoterapii nabiera coraz większego tempa. Duże nadzieje, zwłaszcza w kontekście szczepów wielolekoopornych, naukowcy wiążą z bakteriocynami i bakteriofagami. Badacz z Uniwersytetu Wrocławskiego prowadzi prace nad bakteriocyną, będącą peptydem izolowanym z ludzkiej śliny. Za swoje badania otrzymał Złoty Medal Chemii. Tymczasem problem antybiotykooporności może wynikać w dużej mierze z niewiedzy. Z Eurobarometru wynika, że tylko połowa Europejczyków zdaje sobie sprawę, że antybiotyki nie są skuteczne w walce z wirusami.
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.