Mówi: | dr hab. inż. Wiesław Cetera |
Firma: | Centrum Rafinacji Informacji |
Opracowana w Polsce technologia rafinacji informacji pozwala przewidzieć wyniki wyborów. Służy także do analizy trendów gospodarczych
Już niemal 4 mld ludzi korzysta obecnie z Internetu na całym świecie. Codziennie wysyłanych jest ponad 172 mld e-maili czy prawie 500 mln tweetów. Informacje zawarte w Internecie są kopalnią wiedzy o użytkownikach, co może być wykorzystywane np. przez firmy reklamowe, ale również do prognozowania społecznych czy gospodarczych trendów. Zaawansowaną analizą danych zajmują się polscy naukowcy z nowo otwartego Centrum Rafinacji Informacji.
– Centrum Rafinacji Informacji zajmuje się dostarczaniem informacji z przestrzeni informacyjnej, która jest odpowiednio obrobiona oraz spreparowana, przygotowana pod kątem użytkownika i jego potrzeb. Ktoś może powiedzieć, że każdy ma „dostęp” do informacji. Natomiast problemem jest dostęp do właściwej informacji i właściwe jej zinterpretowanie. Bez narzędzi informatycznych i technologii informacyjnych, dostęp do tych informacji i ich obrabianie jest bardzo utrudnione – mówi w rozmowie z agencją informacyjną Newseria Innowacje dr hab. inż. Wiesław Cetera z Centrum Rafinacji Informacji.
Rafinacja informacji to technologia wyszukiwania i analizowania w czasie rzeczywistym dużych zbiorów tekstowych. W Centrum Rafinacji Informacji dostępne w sieci informacje będą poddawane zaawansowanej analizie, co pozwoli nie tylko na historyczną ocenę tego, co się wydarzyło, ale ma także umożliwić przygotowanie prognoz dotyczących procesów społecznych, politycznych i gospodarczych. Analizowane są informacje z portali społecznościowych, forów dyskusyjnych oraz wszelkich innych otwartych źródeł zawierających dane ustrukturyzowane, ale także nieustrukturyzowane – bardzo trudne do analizy przy wykorzystaniu tradycyjnych metod i technologii analitycznych.
– Jeśli mówimy o dużych zbiorach, mówimy przede wszystkim o zbiorach nieustrukturyzowanych, tzn. takich, które w przeciwieństwie do zbiorów bazodanowych nie mają jasno określonej struktury, wyróżnionych pól w rekordach itd. Jedyną rzeczą, którą możemy wyróżnić jest np. data, może źródło, a poza tym są to zbiory tekstowe. Czyli przetwarzamy teksty i szukamy tego, co nas w konkretnym zadaniu interesuje – mówi Wiesław Cetera.
W początkowej fazie każdego projektu roboty pobierają informacje z otwartych źródeł. Zebrane w ten sposób dane są oczyszczane (rafinowane) i przeszukiwane pod kątem kluczowych słów oraz powiązań (sentymentów) z wydźwiękiem pozytywnym lub negatywnym. W momencie identyfikacji jakiegoś trendu, naukowcy przechodzą do kolejnego etapu – prognozowania przy wykorzystaniu danych historycznych.
Zespół naukowców CRI prowadzi obecnie zaawansowane analizy dotyczące trendów technologicznych i procesów o największym potencjale innowacyjności na zlecenie Narodowego Centrum Badań i Rozwoju. Centrum dostarcza prognozy dotyczące rozwoju konkretnych technologii, co ułatwia podejmowanie strategicznych decyzji o inwestowaniu środków publicznych.
– Narzędzia, które zostały opracowane, mogą być wykorzystywane do zwykłych badań medioznawczych, które prowadzą różnego rodzaju agencje badań społecznych. Porównując to w aspekcie kosztów, to jest w zasadzie bez porównania, bo my wyniki możemy mieć natychmiast, a co za tym idzie również dużo taniej – twierdzi Wiesław Cetera.
Potencjał tkwiący w Big Data dostrzegły także władze Wrocławia. Agencja Audience Network przygotowując kampanię reklamową miasta do konkursu European Best Destination 2018, wykorzystała narzędzia do profilowania użytkowników Internetu, by w ten sposób dotrzeć do polskich emigrantów. Dzięki zastosowaniu narzędzi do analizy Big Data udało się dotrzeć do blisko 30 tys. użytkowników. Wrocław przegonił w konkursie takie miasta jak Amsterdam, Barcelona czy Paryż, zdobywając 67 proc. wszystkich głosów.
– U zarania wykorzystania rafinacji informacji stały badania prof. Gogołka, który prowadził je w kontekście wyborów prezydenckich. Wyniki, które wtedy otrzymał były bardzo bliskie, jak nie identyczne z tymi, które były w rzeczywistości – przekonuje ekspert.
Analitycy Research Cosmos szacują, że wartość narzędzi analitycznych Big Data ma sięgnąć 9 mld dol. w 2023 roku, przy średniorocznym tempie wzrostu na poziomie 21,15 proc.
Z danych Internet Live Stats wynika, że obecnie z Internetu korzysta już niemal 4 mld ludzi. Codziennie wysyłanych jest niemal 175 mld e-maili i 500 mln tweetów, a ponad 4,5 mld filmów trafia każdego dnia na YouTube.
Czytaj także
- 2025-04-24: Polska nauka potrzebuje różnych źródeł finansowania. Trwają rozmowy o zmianach w systemie
- 2025-03-12: Klienci oczekują od salonów optycznych nie tylko profesjonalnych badań wzroku. Ważne jest także doradztwo w doborze oprawek
- 2025-04-02: Julia Kamińska: Bardzo niepokoi mnie trend odwrotu od sprawdzonych szczepionek ratujących życie. Chciałabym, żeby ludzie ufali naukowcom i nie bali się
- 2025-03-31: Coraz więcej dronów dzieli przestrzeń powietrzną z załogowymi statkami powietrznymi. Powstaje system do koordynacji lotów
- 2025-02-12: Młodzi naukowcy przez niskie płace odchodzą z uczelni. To duże zagrożenie dla rozwoju polskiej gospodarki i technologii
- 2025-01-31: Sztuczna inteligencja pomoże we wczesnym wykrywaniu wrodzonych wad serca. Obecnie rozpoznawalność wynosi 40 proc.
- 2024-12-16: Polscy młodzi chemicy tworzą innowacje na światowym poziomie. Część projektów ma szansę trafić potem do przemysłu
- 2024-12-13: Agencja Badań Medycznych walczy z czasem przy obsłudze konkursów z KPO. Największym problemem są braki kadrowe
- 2024-12-27: Dwa konkursy w Agencji Badań Medycznych w 2025 roku. Do wzięcia 275 mln zł
- 2024-12-17: Polscy badacze pracują nad kwantowym przetwarzaniem sygnału. To rozwiązanie pomoże zapewnić superbezpieczną łączność
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Prawo

Duże projekty fotowoltaiczne w Polsce mocno spowolnione. Największymi problemami nadmierna biurokracja i chaos interpretacyjny
Długotrwałe procedury, nadmierna biurokracja i często niejednoznaczne interpretacje przepisów hamują rozwój fotowoltaiki w Polsce – wynika z raportu Polskiego Stowarzyszenia Fotowoltaiki. Inwestorzy wskazują uzyskanie warunków przyłączenia jako najbardziej problematyczny etap procesu inwestycyjnego. Barierą jest też skala wydanych odmów przyłączenia do sieci, co odstrasza inwestorów. Zmiany są konieczne, zwłaszcza w kontekście dyrektywy RED III, która wskazuje na konieczność przyspieszenia, uproszczenia i ujednolicenia procedur administracyjnych dla inwestycji w OZE.
Konsument
Czterech na 10 Polaków miało do czynienia z deepfake’ami. Cyberprzęstępcy coraz skuteczniej wykorzystują manipulowane treści

Deepfaki, czyli wygenerowane bądź też zmanipulowane przez sztuczną inteligencję zdjęcia, dźwięki lub treści wideo, to jedna z najbardziej kontrowersyjnych technologii naszych czasów. Do jej tworzenia wykorzystywane są zaawansowane algorytmy AI, dlatego użytkownikom coraz trudniej jest odróżnić treści rzeczywiste od fałszywych. Z raportu „Dezinformacja oczami Polaków 2024” wynika, że cztery na 10 badanych osób miało do czynienia z takimi treściami. To o tyle istotne, że deepfaki bywają wykorzystywane do manipulacji, szantażu, niszczenia reputacji, oszustw i wyłudzeń finansowych.
Ochrona środowiska
Państwowa Agencja Atomistyki przygotowuje się do nadzoru nad pierwszą polską elektrownią jądrową. Kluczową kwestią jest bezpieczeństwo

Trwają przygotowania do budowy pierwszej w Polsce elektrowni jądrowej na Pomorzu. Zgodnie z harmonogramem przedstawianym przez rząd fizyczna budowa ma ruszyć w 2028 roku, a początek eksploatacji pierwszego bloku planuje się na 2036 rok. Również Państwowa Agencja Atomistyki przygotowuje się do realizacji zadań związanych z dozorem nad budową, rozruchem i eksploatacją nowej jednostki. Kluczowe są kwestie związane z bezpieczeństwem jądrowym i ochroną radiologiczną obiektu.
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.