Mówi: | dr hab. inż. Tomasz Trzciński |
Funkcja: | adiunkt na Wydziale Elektroniki i Technik Informacyjnych |
Firma: | Politechnika Warszawska |
Polscy naukowcy chcą odkryć zasady funkcjonowania Wszechświata. W pracy wspierają ich algorytmy sztucznej inteligencji i uczenie maszynowe
Zespół polskich naukowców w ramach eksperymentu ALICE w Wielkim Zderzaczu Hadronów w CERN bada algorytmy sztucznej inteligencji wyspecjalizowane w analizie nieuporządkowanych zbiorów Big Data. W ten sposób badacze chcą nie tylko poznać zasady funkcjonowania Wszechświata w skali kwantowej, lecz także usprawnić procesy analizy informacji giełdowych oraz przetwarzanie szerokiego zasobu danych na potrzeby sektora medycznego.
– Badanie oddziaływań między silnie działającymi na siebie cząstkami oparte na korelacji i uczeniu maszynowym to projekt w ramach eksperymentu ALICE w Wielkim Zderzaczu Hadronów w CERN. We współpracy między wieloma jednostkami badawczymi analizowane są kwarki, podstawowe cząstki budujące materię. Nasza grupa stara się odgadnąć i odpowiedzieć na fundamentalne pytania dotyczące tego, z czego powstał Wszechświat, jak po Wielkim Wybuchu wyglądały oddziaływania między ciężkimi kwarkami i jak one ze sobą rozmawiały, tworząc w efekcie wielu przemian dzisiejszą Ziemię w takim stanie, w jakim ona jest – mówi agencji informacyjnej Newseria Innowacje dr hab. inż. Tomasz Trzciński, adiunkt na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej.
Choć nadrzędnym celem projektu „Badanie fundamentalnych własności materii jądrowej w eksperymencie ALICE na Wielkim Zderzaczu Hadronów LHC w CERN” było pozyskanie wiedzy na temat procesów fizycznych zachodzących we wnętrzach gwiazd neutronowych, doświadczenia przeprowadzane w ramach tego programu pozwolą usprawnić proces przetwarzania i analizy dużych, chaotycznych zbiorów informacji.
Eksperymenty przeprowadzone przez polski zespół dowiodły, że zastosowanie narzędzi z zakresu uczenia maszynowego pozwala algorytmom sztucznej inteligencji sprawniej wyszukiwać błędne informacje w obszernych zasobach Big Data. Tym samym dane pozyskane i przetworzone przy wykorzystaniu technologii modelowania generatywnego charakteryzują się wyższą precyzją niż te analizowane za pośrednictwem klasycznych narzędzi badawczych.
– W ramach grantu zajmujemy się wykorzystaniem i rozwojem metod uczenia maszynowego takich jak sieci neuronowe. Eksperyment daje jako rezultaty terabajty danych, które są zbierane podczas zderzeń dwóch wiązek pod ziemią. Kiedy zbieramy te dane w ramach detektorów rejestrujących pole magnetyczne, okazuje się, że część z nich jest nieprawidłowa, wykazuje jakieś anomalie. Standardowym podejściem jest modelowanie tych procesów przy użyciu symulacji takich jak Monte Carlo, ale te symulacje są obciążające, dlatego staramy się wykorzystać modele generatywne, żeby ten proces przyspieszyć – tłumaczy ekspert.
W trakcie projektu zapoczątkowanego w 2017 roku udało się opublikować szereg prac naukowych przybliżających wykorzystanie algorytmów sztucznej inteligencji do katalogowania danych, wychwytywania anomalii oraz nieregularności w zasobach Big Data. Praca Polaków doprowadziła m.in. do upowszechnienia modeli generatywnych w algorytmach wykorzystywanych przez fizyków w procesie analizy rezultatów badań na potrzeby publikacji w takich magazynach naukowych jak „Nature”. Technologię tę wykorzystano m.in. w trakcie prac nad artykułem poświęconym dziwnym kwarkom oraz oddziaływań, jakie zachodzą między nimi.
O potędze algorytmów uczenia maszynowego w procesie analizy Big Data przekonani są także naukowcy z Uniwersytetu Waszyngtońskiego, którzy we współpracy z zespołem Microsoft Research eksperymentują z wykorzystaniem ich w procesach predykcyjnych prognozy pogody. Na bazie archiwalnych danych pogodowych z ostatnich 40 lat opracowali mechanizm przewidywania zmian atmosferycznych z dużą dokładnością przy wykorzystaniu okrojonej liczby informacji. Eksperymentalny algorytm błyskawicznie generuje modele predykcyjne oparte na ściśle wyselekcjonowanych danych. Dzięki temu zużywa w procesie prognozowania aż 7 tys. razy mniej mocy niż klasyczne narzędzia predykcyjne.
Z praktycznych narzędzi do wykrywania anomalii w strumieniu danych korzysta już Elektrownia Łagisza należąca do firmy Tauron. Oprogramowanie analizuje informacje pozyskiwane z czujników przemysłowych i za pośrednictwem algorytmów sztucznej inteligencji poszukuje błędów, które mogą świadczyć o nieprawidłowym działaniu systemu. Narzędzie potrafi także analizować dane historyczne, aby stworzyć modele predykcyjne eksploatacji poszczególnych urządzeń funkcjonujących w sieci.
– Badanie anomalii czy nieregularności w zbiorach danych jest stosowane nie tylko w fizyce wysokich energii. Natomiast fizyka wysokich energii ma swoje specyficzne atrybuty, takie jak parametry fizyczne czy też ich złożoność obliczeniową, które wymagają dostosowania algorytmów. Zastosowanie samych metod można rozszerzyć np. na analizę danych medycznych czy analizę ciągów czasowych, np. podczas badania zachowań na giełdzie czy też w innych miejscach, gdzie szereg czasowy wskazuje jakieś punkty w czasie i anomalie w nim występujące są istotne, żeby je wychwycić – wyjaśnia dr hab. inż. Tomasz Trzciński.
Czytaj także
- 2024-04-30: Miliony Polaków klikają w linki wyłudzające dane i pieniądze. Liczba oszustw w internecie będzie rosnąć
- 2024-05-07: Stworzenie cyfrowego bliźniaka Ziemi coraz bliżej. Pomoże precyzyjniej przewidywać klęski żywiołowe
- 2024-03-28: Postęp technologiczny rewolucjonizuje pracę specjalistów ds. finansów. Stają się strategicznymi doradcami biznesu
- 2024-03-27: Rozporządzenie Parlamentu Europejskiego ws. sztucznej inteligencji będzie ogromną zmianą na tym rynku. Brakuje wciąż regulacji dotyczącej praw autorskich
- 2024-03-19: Banki przypominają dziś firmy softwarowe. Ich funkcjonowanie coraz bardziej oparte na nowych technologiach
- 2024-03-14: M. Boni: Potrzebujemy planu wdrożenia nowego aktu o sztucznej inteligencji. To może być zadanie polskiej prezydencji w UE
- 2024-04-11: Europie nie udaje się dogonić USA i Chin w rozwoju sztucznej inteligencji. Nie wykorzystujemy skali jednolitego rynku cyfrowego
- 2024-03-18: Sztuczna inteligencja coraz bliższa ludzkiemu sposobowi przyswajania wiedzy. Naukowcy opracowali model, który uczy się języka tak jak dzieci
- 2024-02-27: „Antyplagiat” z nową funkcją wykrywania treści pisanych przez sztuczną inteligencję. Dyskusja o regulacjach w tym zakresie nabiera tempa
- 2024-02-29: Prace nad unijnym AI Act na finiszu. W kwestii regulacji sztucznej inteligencji USA czy Chiny nie podążą ścieżką Europy
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Jedynka Newserii
Transport
Mazowieckie lotniska będą mogły wkrótce obsłużyć 40 mln pasażerów rocznie. Trwają przygotowania do modernizacji na Okęciu i w Modlinie
Lotnisko Chopina, które właśnie obchodziło 90. urodziny, może w tym roku obsłużyć nawet 20 mln pasażerów. To o 10 proc. więcej niż rok temu. Aby sprostać rosnącemu ruchowi turystycznemu w kolejnych latach, potrzebne jest jednak zwiększenie przepustowości. Planowana rozbudowa do 2028 roku pozwoli obsługiwać rocznie nawet 30 mln pasażerów. Łącznie z możliwościami lotnisk w Modlinie i Radomiu ma to być ok. 10 mln pasażerów więcej.
Ochrona środowiska
Stworzenie cyfrowego bliźniaka Ziemi coraz bliżej. Pomoże precyzyjniej przewidywać klęski żywiołowe
Na początku czerwca mają zostać uruchomione dwa pierwsze komponenty cyfrowej repliki Ziemi. To inicjatywa Komisji Europejskiej, w ramach której powstaje superzaawansowana symulacja zjawisk, m.in. atmosferycznych i klimatycznych, do jakich dochodzi na Ziemi. Oparte na bogatych zbiorach danych, m.in. ze zdjęć satelitarnych, i ich zaawansowanej analizie narzędzia pozwolą z dwutygodniowym wyprzedzeniem przewidywać zdarzenia pogodowe, precyzując prognozę do obszarów podzielonych na kwadraty o boku zaledwie kilku kilometrów. Będą mogły być wykorzystywane także w planowaniu miast, farm wiatrowych czy w rolnictwie. W tworzeniu rozwiązania bierze udział polski dostawca rozwiązań chmurowych.
Handel
Przygotowania do wdrożenia systemu kaucyjnego idą pełną parą. Przyszli operatorzy przeciwni zmianie daty na 2026 rok
Wkrótce Sejm ma się zająć nowym projektem przepisów dotyczących systemu kaucyjnego, którego start zaplanowano na styczeń 2025 roku. Przedstawione przez Ministerstwo Klimatu i Środowiska zmiany dotyczą m.in. rezygnacji z podatku VAT i wprowadzenia tzw. mechanizmu podążania kaucji za produktem. – Wszystkie te zmiany oceniamy bardzo pozytywnie, one są niezbędnym elementem dla właściwego funkcjonowania przyszłego systemu kaucyjnego – mówi Aleksander Traple, prezes Zwrotka SA. Jak podkreśla, dalsze odkładanie w czasie terminu uruchomienia systemu kaucyjnego jest bezzasadne, ponieważ branża odpadowa, handel detaliczny i szereg innych podmiotów już od dłuższego czasu przygotowują się do jego wdrożenia.
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.