Mówi: | dr hab. Dominik Ślęzak |
Firma: | Instytut Informatyki, UW |
Technologia uczenia maszynowego przyspieszy proces przetwarzania informacji. Wykorzystuje się ją już w walce z fake newsami czy do rozpoznawania chorób we wczesnej fazie rozwoju
Upowszechnienie się sztucznej inteligencji pozwoliło przerzucić żmudny proces analizy dużych zasobów informacji na algorytmy komputerowe. Zastosowanie technologii uczenia maszynowego pozwala wyszkolić sztuczną inteligencję do specjalistycznych zadań analitycznych i wychwytywania wzorów w ramach big data. Tworzy się też algorytmy predykcyjne, które umożliwią m.in. rozpoznawanie fake newsów, zautomatyzowanie procesu wykrywania nowych wirusów czy rozpoznawania chorób w ich wczesnej fazie rozwoju.
– Problem analizy danych to problem bardzo ogólny. Z jednej strony mamy bardzo popularne przykłady jak rozpoznawanie zdjęć. To bardzo dobrze robi np. platforma Google. Ale mamy też wyzwania bardziej skomplikowane, np. odróżnianie newsów prawdziwych od fałszywych. I do tego też można podejść jako do zadania analitycznego: zgromadzić fałszywe i prawdziwe newsy i próbować wytrenować algorytmy sztucznej inteligencji, żeby nauczyły się odróżniać rzeczy prawdziwe od fałszywych. A potem ostrzegać nas przed tymi fałszywymi – mówi agencji informacyjnej Newseria Innowacje dr hab. Dominik Ślęzak pracownik Instytutu Informatyki Uniwersytetu Warszawskiego, prezes firmy QED Software.
Systemy zautomatyzowanej analizy danych zyskują na popularności. Ze sztucznej inteligencji wyszkolonej metodą uczenia maszynowego korzystamy na co dzień np. podczas wyszukiwania zdjęć. Algorytmy Google analizują obrazy zindeksowane w sieci, rozpoznając na nich kluczowe elementy i dopasowując je do naszego zapytania. Z tą technologią eksperymentuje także firma NVIDIA, która rozwija projekt generatywnej sieci neuronowej (GAN) wyspecjalizowanej w analizie i przetwarzaniu obrazu. Inżynierowie szkolą sztuczną inteligencję do interpretowania wzorców wizualnych, które służą do generowania fotorealistycznych obrazów.
Technologię GAN wykorzystano m.in. do tworzenia twarzy nieistniejących osób, modelowania trójwymiarowych obiektów na bazie nagrań czy tworzenia zdjęć krajobrazów na podstawie prostych szkiców.
– Medycyna, bankowość, przemysł – te aspekty, żeby rozpoznawać i odróżniać pewne rzeczy na podstawie danych są popularne w niemal każdej dziedzinie – przekonuje Dominik Ślęzak.
Stworzona przez QED Software platforma Knowledge Pit ma unaocznić potencjał tej technologii. Ma ona formę platformy konkursowej, na której różne firmy mogą przetestować swoje algorytmy analizy informacji. Przedstawiciele różnych gałęzi przemysłu wystawiają na niej dane big data, a zadaniem uczestników platformy jest opracowanie algorytmów predykcyjnych, które będą w stanie wyciągnąć z nich przydatne informacje i odpowiednio je skatalogować. Najefektywniejsze algorytmy mogą być wdrożone przez przedsiębiorstwa.
Platforma Knowledge Pit powstała po to, aby połączyć ze sobą ekspertów od uczenia maszynowego z firmami, które nie wiedzą, w jaki sposób przetwarzać dane w ramach big data.
– W tej chwili organizujemy konkurs we współpracy z firmą z dziedziny cyberbezpieczeństwa. Na podstawie danych ściąganych od swoich klientów ma rozpoznawać ataki internetowe. Celem konkursu jest rozpoznawać na podstawie danych, czy sekwencja zapisów, operacji sieciowych jest atakiem internetowym czy nie. W momencie, gdyby udało się opracować taki model, który odróżnia zwyczajną aktywność sieciową od tej podejrzanej, można wówczas ten model zastosować i pomóc takiej firmie w analizie nowo napływających danych – mówi ekspert.
Sztuczna inteligencja wyspecjalizowana w precyzyjnym wyszukiwaniu wzorców może być użyteczna niemal w każdym sektorze gospodarki. Inżynierowie Amazona wykorzystują ją nie tylko w procesie personalizacji reklam. Dzięki technologii uczenia maszynowego udało im się opracować m.in. oprogramowanie do rozpoznawania nieczytelnego pisma lekarzy. Program nie tylko jest w stanie odczytać niewyraźne zapiski, wyszkolono go także w słownictwie medycznym, dzięki czemu radzi sobie z przepisywaniem recept oraz diagnoz zapisanych odręcznie na pismo maszynowe.
Ciekawym przykładem wykorzystania big data jest współpraca podjęta pomiędzy Family Tree DNA a amerykańskim Federalnym Biurem Śledczym. Firma specjalizująca się w analizie DNA udostępniła FBI anonimowe dane genetyczne swoich klientów, które mogą posłużyć agentom federalnym do odnalezienia przestępców, których nie udało się zlokalizować za pośrednictwem klasycznych metod śledczych.
Z kolei naukowcy z Uniwersytetu Nowego Jorku oraz SRI International opracowali algorytm, który jest w stanie rozpoznać w próbce głosu symptomy zespołu stresu pourazowego. Badacze wyszkolili sztuczną inteligencję przy wykorzystaniu 40 tys. próbek głosowych 129 weteranów wojennych, którzy zmagali się z tym schodzeniem. Dzięki temu udało się stworzyć oprogramowanie, które z 89 proc. skutecznością jest w stanie wskazać objawy PTSD, analizując wyłącznie nagranie dźwiękowe głosu pacjenta.
Na podobnej zasadzie działają inne sztuczne inteligencje stworzone z myślą o branży medycznej. Prezentuje im się duże zasoby danych opisujących osoby cierpiące na jakieś schorzenie, a następnie wykorzystuje się technologię uczenia maszynowego, aby odnaleźć wzorce w big data, które pozwolą stworzyć algorytmy automatycznie rozpoznające symptomy choroby.
– Dane są już używane, żeby np. przewidywać, czym się interesujemy, żeby proponować nam różnego rodzaju produkty w reklamach online. Ale również żeby nam pomagać np. przewidywać schorzenia, sugerować możliwości terapii, doradzać na różne sposoby. Świat danych już z nami zostanie, tych danych będzie coraz więcej i za tym muszą iść dobre i dobrze stosowane narzędzia analizy danych – podsumowuje ekspert.
Według Allied Market Research wartość globalnego rynku sztucznej inteligencji wzrośnie do 169,4 mld w 2025 roku, wykazując średnioroczne tempo wzrostu na poziomie 55,6 proc.
Czytaj także
- 2024-09-04: Centra danych odpowiadają za 2 proc. globalnego zużycia energii, a wkrótce ten udział może się podwoić. Operatorzy szukają sposobów na oszczędności
- 2024-07-22: Awaria CrowdStrike’a miała podobne skutki jak potencjalny cyberatak. Uzależnienie od technologii to ryzyko wyłączenia całych gałęzi gospodarki
- 2024-07-10: Wydawcy polskich mediów liczą na zmiany w przyjętej przez Sejm nowelizacji prawa autorskiego. Ruszają kolejne rozmowy z rządem
- 2024-08-12: Polska kształci za mało specjalistów od sztucznej inteligencji. To bariera w wykorzystaniu tej technologii w gospodarce i nauce
- 2024-07-31: Sztuczna inteligencja wspiera lekarzy przy leczeniu niepłodności. Z rozwiązań polskiej firmy korzystają kliniki na całym świecie
- 2024-07-16: Polskie banki nie zwalniają procesu digitalizacji. Wydatki na technologie stanowią nawet do 70 proc. ich kosztów
- 2024-07-19: Sztuczna inteligencja w nieodpowiednich rękach może stanowić poważne zagrożenie. Potrzebna jest większa świadomość twórców i użytkowników oraz twarde regulacje
- 2024-07-17: Sztuczna inteligencja pomaga identyfikować czynniki ryzyka wypadków samochodowych. Naukowcy za pomocą Google Street View analizują pod tym kątem infrastrukturę drogową
- 2024-07-15: Małe i średnie firmy w UE zbyt wolno się cyfryzują. Polskie przedsiębiorstwa dużo poniżej unijnej średniej
- 2024-06-20: Sztuczna inteligencja rewolucjonizuje edukację. Rynek takich rozwiązań będzie rósł w tempie prawie 40 proc. rocznie
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Jedynka Newserii
Handel
Firmy cierpią z powodu braku przewidywalnej polityki podatkowej. Częste zmiany podważają zaufanie do państwa i zniechęcają inwestorów [DEPESZA]
– Czas na reformę podatków to nie trzy miesiące czy rok, ale cała kadencja. Do tej pory zabrakło odwagi, by to zrobić – ocenia Szymon Parulski, ekspert podatkowy BCC, podczas panelu „Przewidywalność podatkowa dla przedsiębiorstw”, który odbył się podczas Forum Ekonomicznego w Karpaczu. Doradcy podatkowi debatowali o tym, co należy zrobić teraz, gdy sytuacja ekonomiczna zmusiła rząd do szukania nowych źródeł wpływów budżetowych. Wszyscy zgodnie podkreślali potrzebę przewidywalności polityki podatkowej. Ostatnie propozycje zmian w podatku akcyzowym podali jako jej antyprzykład. Cierpią na tym przede wszystkim firmy i inwestycje.
Prawo
Firmy coraz odpowiedzialniej podchodzą do obrotu danymi i e-dokumentami. Rośnie popularność usług, które go zabezpieczają
W latach 2018–2023 zainteresowanie podpisem elektronicznym na polskim rynku zwiększyło się trzykrotnie – wynika z badań przeprowadzonych na zlecenie KIR i ZBP. Polscy przedsiębiorcy coraz powszechniej korzystają też z e-pieczęci, czyli kolejnego narzędzia do potwierdzania autentyczności dokumentów elektronicznych. Rosnąca popularność tzw. usług zaufania wynika z faktu, że firmy aktywnie korzystające z rozwiązań cyfrowych są coraz bardziej świadome zagrożeń wyłudzeniami, oszustwami i atakami hakerskimi.
IT i technologie
Centra danych odpowiadają za 2 proc. globalnego zużycia energii, a wkrótce ten udział może się podwoić. Operatorzy szukają sposobów na oszczędności
Sztuczna inteligencja czy uczenie maszynowe zużywają ogromne ilości energii. Wdrażanie ich w firmach na coraz większą skalę powoduje dynamiczny wzrost zapotrzebowania na usługi centrów danych, a co za tym idzie – również na ilość energii, jakiej potrzebują one do obsługi klientów. Tym bardziej że centra danych także wykorzystują te innowacyjne technologie do usprawnienia funkcjonowania. Duży wzrost zużycia energii powoduje, że centra danych szukają sposobów na jego optymalizację, co ma się przyczynić do zmniejszenia śladu węglowego. Jednym ze sposobów jest wykorzystywanie ciepła wytwarzanego pracą serwerów do celów grzewczych.
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.