Newsy

Opracowana w Polsce technologia rafinacji informacji pozwala przewidzieć wyniki wyborów. Służy także do analizy trendów gospodarczych

2018-08-02  |  06:00
Mówi:dr hab. inż. Wiesław Cetera
Firma:Centrum Rafinacji Informacji
  • MP4
  • Już niemal 4 mld ludzi korzysta obecnie z Internetu na całym świecie. Codziennie wysyłanych jest ponad 172 mld e-maili czy prawie 500 mln tweetów. Informacje zawarte w Internecie są kopalnią wiedzy o użytkownikach, co może być wykorzystywane np. przez firmy reklamowe, ale również do prognozowania społecznych czy gospodarczych trendów. Zaawansowaną analizą danych zajmują się polscy naukowcy z nowo otwartego Centrum Rafinacji Informacji.

    – Centrum Rafinacji Informacji zajmuje się dostarczaniem informacji z przestrzeni informacyjnej, która jest odpowiednio obrobiona oraz spreparowana, przygotowana pod kątem użytkownika i jego potrzeb. Ktoś może powiedzieć, że każdy ma „dostęp” do informacji. Natomiast problemem jest dostęp do właściwej informacji i właściwe jej zinterpretowanie. Bez narzędzi informatycznych i technologii informacyjnych, dostęp do tych informacji i ich obrabianie jest bardzo utrudnione – mówi w rozmowie z agencją informacyjną Newseria Innowacje dr hab. inż. Wiesław Cetera z Centrum Rafinacji Informacji.

    Rafinacja informacji to technologia wyszukiwania i analizowania w czasie rzeczywistym dużych zbiorów tekstowych. W Centrum Rafinacji Informacji dostępne w sieci informacje będą poddawane zaawansowanej analizie, co pozwoli nie tylko na historyczną ocenę tego, co się wydarzyło, ale ma także umożliwić przygotowanie prognoz dotyczących procesów społecznych, politycznych i gospodarczych. Analizowane są informacje z portali społecznościowych, forów dyskusyjnych oraz wszelkich innych otwartych źródeł zawierających dane ustrukturyzowane, ale także nieustrukturyzowane – bardzo trudne do analizy przy wykorzystaniu tradycyjnych metod i technologii analitycznych.

    – Jeśli mówimy o dużych zbiorach, mówimy przede wszystkim o zbiorach nieustrukturyzowanych, tzn. takich, które w przeciwieństwie do zbiorów bazodanowych nie mają jasno określonej struktury, wyróżnionych pól w rekordach itd. Jedyną rzeczą, którą możemy wyróżnić jest np. data, może źródło, a poza tym są to zbiory tekstowe. Czyli przetwarzamy teksty i szukamy tego, co nas w konkretnym zadaniu interesuje – mówi Wiesław Cetera.

    W początkowej fazie każdego projektu roboty pobierają informacje z otwartych źródeł. Zebrane w ten sposób dane są oczyszczane (rafinowane) i przeszukiwane pod kątem kluczowych słów oraz powiązań (sentymentów) z wydźwiękiem pozytywnym lub negatywnym. W momencie identyfikacji jakiegoś trendu, naukowcy przechodzą do kolejnego etapu – prognozowania przy wykorzystaniu danych historycznych.

    Zespół naukowców CRI prowadzi obecnie zaawansowane analizy dotyczące trendów technologicznych i procesów o największym potencjale innowacyjności na zlecenie Narodowego Centrum Badań i Rozwoju. Centrum dostarcza prognozy dotyczące rozwoju konkretnych technologii, co ułatwia podejmowanie strategicznych decyzji o inwestowaniu środków publicznych.

    – Narzędzia, które zostały opracowane, mogą być wykorzystywane do zwykłych badań medioznawczych, które prowadzą różnego rodzaju agencje badań społecznych. Porównując to w aspekcie kosztów, to jest w zasadzie bez porównania, bo my wyniki możemy mieć natychmiast, a co za tym idzie również dużo taniej – twierdzi Wiesław Cetera.

    Potencjał tkwiący w Big Data dostrzegły także władze Wrocławia. Agencja Audience Network przygotowując kampanię reklamową miasta do konkursu European Best Destination 2018, wykorzystała narzędzia do profilowania użytkowników Internetu, by w ten sposób dotrzeć do polskich emigrantów. Dzięki zastosowaniu narzędzi do analizy Big Data udało się dotrzeć do blisko 30 tys. użytkowników. Wrocław przegonił w konkursie takie miasta jak Amsterdam, Barcelona czy Paryż, zdobywając 67 proc. wszystkich głosów.

    – U zarania wykorzystania rafinacji informacji stały badania prof. Gogołka, który prowadził je w kontekście wyborów prezydenckich. Wyniki, które wtedy otrzymał były bardzo bliskie, jak nie identyczne z tymi, które były w rzeczywistości – przekonuje ekspert.

    Analitycy Research Cosmos szacują, że wartość narzędzi analitycznych Big Data ma sięgnąć 9 mld dol. w 2023 roku, przy średniorocznym tempie wzrostu na poziomie 21,15 proc.

    Z danych Internet Live Stats wynika, że obecnie z Internetu korzysta już niemal 4 mld ludzi. Codziennie wysyłanych jest niemal 175 mld e-maili i 500 mln tweetów, a ponad 4,5 mld filmów trafia każdego dnia na YouTube.

    Czytaj także

    Więcej ważnych informacji

    Kalendarium

    Jedynka Newserii

    Jedynka Newserii

    Biotechnologia

    Koronawirusy atakowały już 25 tys. lat temu. Za sprawą postępujących zmian klimatycznych pradawne wirusy mogą znów zagrażać ludzkości

    Pradawne wirusy mogą zagrażać ludzkości. Naukowcy są w stanie ożywić drobnoustroje sprzed dziesiątków tysięcy lat. Topienie się wiecznej zmarzliny w wyniku postępujących zmian klimatycznych może uwalniać długo ukryte choroby i wirusy do środowiska, zagrażając zdrowiu zarówno ludzi, jak i zwierząt. Naukowcy byli w stanie ożywić drobnoustroje sprzed dziesiątków tysięcy lat. Najnowsze badania DNA potwierdzają, że starożytny koronawirus lub blisko spokrewniony patogen wywołał epidemię na terenie Azji około 25 tys. lat temu.

    Kosmos i lotnictwo

    Przełom w obserwacji czarnych dziur. Dane z 19 obserwatoriów mogą pomóc testować ogólną teorię względności Einsteina [DEPESZA]

    Kilka z najpotężniejszych teleskopów na świecie jednocześnie obserwowało supermasywną czarną dziurę w galaktyce M87. To pierwsza czarna dziura, która została bezpośrednio sfotografowana przed dwoma laty. Teraz naukowcy ujawnili dane z 19 obserwatoriów – zarówno na Ziemi, jak również tych w kosmosie, które pozwalają  na głębszy wgląd w czarną dziurę. Nowe obserwacje mogą m.in. pomóc ulepszyć testy ogólnej teorii względności Einsteina.