Newsy

Opracowana w Polsce technologia rafinacji informacji pozwala przewidzieć wyniki wyborów. Służy także do analizy trendów gospodarczych

2018-08-02  |  06:00
Mówi:dr hab. inż. Wiesław Cetera
Firma:Centrum Rafinacji Informacji
  • MP4
  • Już niemal 4 mld ludzi korzysta obecnie z Internetu na całym świecie. Codziennie wysyłanych jest ponad 172 mld e-maili czy prawie 500 mln tweetów. Informacje zawarte w Internecie są kopalnią wiedzy o użytkownikach, co może być wykorzystywane np. przez firmy reklamowe, ale również do prognozowania społecznych czy gospodarczych trendów. Zaawansowaną analizą danych zajmują się polscy naukowcy z nowo otwartego Centrum Rafinacji Informacji.

    – Centrum Rafinacji Informacji zajmuje się dostarczaniem informacji z przestrzeni informacyjnej, która jest odpowiednio obrobiona oraz spreparowana, przygotowana pod kątem użytkownika i jego potrzeb. Ktoś może powiedzieć, że każdy ma „dostęp” do informacji. Natomiast problemem jest dostęp do właściwej informacji i właściwe jej zinterpretowanie. Bez narzędzi informatycznych i technologii informacyjnych, dostęp do tych informacji i ich obrabianie jest bardzo utrudnione – mówi w rozmowie z agencją informacyjną Newseria Innowacje dr hab. inż. Wiesław Cetera z Centrum Rafinacji Informacji.

    Rafinacja informacji to technologia wyszukiwania i analizowania w czasie rzeczywistym dużych zbiorów tekstowych. W Centrum Rafinacji Informacji dostępne w sieci informacje będą poddawane zaawansowanej analizie, co pozwoli nie tylko na historyczną ocenę tego, co się wydarzyło, ale ma także umożliwić przygotowanie prognoz dotyczących procesów społecznych, politycznych i gospodarczych. Analizowane są informacje z portali społecznościowych, forów dyskusyjnych oraz wszelkich innych otwartych źródeł zawierających dane ustrukturyzowane, ale także nieustrukturyzowane – bardzo trudne do analizy przy wykorzystaniu tradycyjnych metod i technologii analitycznych.

    – Jeśli mówimy o dużych zbiorach, mówimy przede wszystkim o zbiorach nieustrukturyzowanych, tzn. takich, które w przeciwieństwie do zbiorów bazodanowych nie mają jasno określonej struktury, wyróżnionych pól w rekordach itd. Jedyną rzeczą, którą możemy wyróżnić jest np. data, może źródło, a poza tym są to zbiory tekstowe. Czyli przetwarzamy teksty i szukamy tego, co nas w konkretnym zadaniu interesuje – mówi Wiesław Cetera.

    W początkowej fazie każdego projektu roboty pobierają informacje z otwartych źródeł. Zebrane w ten sposób dane są oczyszczane (rafinowane) i przeszukiwane pod kątem kluczowych słów oraz powiązań (sentymentów) z wydźwiękiem pozytywnym lub negatywnym. W momencie identyfikacji jakiegoś trendu, naukowcy przechodzą do kolejnego etapu – prognozowania przy wykorzystaniu danych historycznych.

    Zespół naukowców CRI prowadzi obecnie zaawansowane analizy dotyczące trendów technologicznych i procesów o największym potencjale innowacyjności na zlecenie Narodowego Centrum Badań i Rozwoju. Centrum dostarcza prognozy dotyczące rozwoju konkretnych technologii, co ułatwia podejmowanie strategicznych decyzji o inwestowaniu środków publicznych.

    – Narzędzia, które zostały opracowane, mogą być wykorzystywane do zwykłych badań medioznawczych, które prowadzą różnego rodzaju agencje badań społecznych. Porównując to w aspekcie kosztów, to jest w zasadzie bez porównania, bo my wyniki możemy mieć natychmiast, a co za tym idzie również dużo taniej – twierdzi Wiesław Cetera.

    Potencjał tkwiący w Big Data dostrzegły także władze Wrocławia. Agencja Audience Network przygotowując kampanię reklamową miasta do konkursu European Best Destination 2018, wykorzystała narzędzia do profilowania użytkowników Internetu, by w ten sposób dotrzeć do polskich emigrantów. Dzięki zastosowaniu narzędzi do analizy Big Data udało się dotrzeć do blisko 30 tys. użytkowników. Wrocław przegonił w konkursie takie miasta jak Amsterdam, Barcelona czy Paryż, zdobywając 67 proc. wszystkich głosów.

    – U zarania wykorzystania rafinacji informacji stały badania prof. Gogołka, który prowadził je w kontekście wyborów prezydenckich. Wyniki, które wtedy otrzymał były bardzo bliskie, jak nie identyczne z tymi, które były w rzeczywistości – przekonuje ekspert.

    Analitycy Research Cosmos szacują, że wartość narzędzi analitycznych Big Data ma sięgnąć 9 mld dol. w 2023 roku, przy średniorocznym tempie wzrostu na poziomie 21,15 proc.

    Z danych Internet Live Stats wynika, że obecnie z Internetu korzysta już niemal 4 mld ludzi. Codziennie wysyłanych jest niemal 175 mld e-maili i 500 mln tweetów, a ponad 4,5 mld filmów trafia każdego dnia na YouTube.

    Czytaj także

    Kalendarium

    Więcej ważnych informacji

    Jedynka Newserii

    Jedynka Newserii

    Infrastruktura

    Prąd z największej prywatnej inwestycji energetycznej w Polsce popłynie w 2027 roku. Polenergia dostała właśnie potężny zastrzyk finansowania

    Polenergia S.A. i Bank Gospodarstwa Krajowego podpisały umowę pożyczki ze środków Krajowego Planu Odbudowy (KPO) na budowę morskich farm wiatrowych. Finansowanie wyniesie 750 mln zł i zostanie wykorzystane do budowy dwóch farm o łącznej mocy 1440 MW. Największa prywatna grupa energetyczna w Polsce realizuje ten projekt z norweskim Equinorem. Prace związane z budową fundamentów turbin na Bałtyku mają się rozpocząć w 2026 roku. Projekty offshorowe będą jednym z filarów nowej strategii Polenergii, nad którą spółka właśnie pracuje.

    Przemysł

    Polskie firmy przemysłowe bardziej otwarte na technologie. Sztuczną inteligencję wdrażają z ostrożnością [DEPESZA]

    Innowacje cyfrowe w przemyśle, choć wiążą się z kosztami i wyzwaniami, są jednak postrzegane przez firmy jako szansa. To podejście przekłada się na większą otwartość do ich wdrażania i chęć inwestowania. Ponad 90 proc. firm przemysłowych w Polsce, które wprowadziły co najmniej jedno rozwiązanie Przemysłu 4.0, dostrzega wyraźną poprawę efektywności procesów produkcyjnych – wynika z nowego raportu Autodesk. Choć duża jest wśród nich świadomość narzędzi opartych na sztucznej inteligencji, na razie tylko 14 proc. wykorzystuje je w swojej działalności.

    Farmacja

    Antybiotykooporność coraz poważniejszym problemem. Wyizolowane ze śliny peptydy mogą się sprawdzić w walce z bakteriami wielolekoopornymi

    Poszukiwanie alternatyw dla antybiotykoterapii nabiera coraz większego tempa. Duże nadzieje, zwłaszcza w kontekście szczepów wielolekoopornych, naukowcy wiążą z bakteriocynami i bakteriofagami. Badacz z Uniwersytetu Wrocławskiego prowadzi prace nad bakteriocyną, będącą peptydem izolowanym z ludzkiej śliny. Za swoje badania otrzymał Złoty Medal Chemii. Tymczasem problem antybiotykooporności może wynikać w dużej mierze z niewiedzy. Z Eurobarometru wynika, że tylko połowa Europejczyków zdaje sobie sprawę, że antybiotyki nie są skuteczne w walce z wirusami.

    Szkolenia

    Akademia Newserii

    Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.