Newsy

Opracowana w Polsce technologia rafinacji informacji pozwala przewidzieć wyniki wyborów. Służy także do analizy trendów gospodarczych

2018-08-02  |  06:00
Mówi:dr hab. inż. Wiesław Cetera
Firma:Centrum Rafinacji Informacji
  • MP4
  • Już niemal 4 mld ludzi korzysta obecnie z Internetu na całym świecie. Codziennie wysyłanych jest ponad 172 mld e-maili czy prawie 500 mln tweetów. Informacje zawarte w Internecie są kopalnią wiedzy o użytkownikach, co może być wykorzystywane np. przez firmy reklamowe, ale również do prognozowania społecznych czy gospodarczych trendów. Zaawansowaną analizą danych zajmują się polscy naukowcy z nowo otwartego Centrum Rafinacji Informacji.

    – Centrum Rafinacji Informacji zajmuje się dostarczaniem informacji z przestrzeni informacyjnej, która jest odpowiednio obrobiona oraz spreparowana, przygotowana pod kątem użytkownika i jego potrzeb. Ktoś może powiedzieć, że każdy ma „dostęp” do informacji. Natomiast problemem jest dostęp do właściwej informacji i właściwe jej zinterpretowanie. Bez narzędzi informatycznych i technologii informacyjnych, dostęp do tych informacji i ich obrabianie jest bardzo utrudnione – mówi w rozmowie z agencją informacyjną Newseria Innowacje dr hab. inż. Wiesław Cetera z Centrum Rafinacji Informacji.

    Rafinacja informacji to technologia wyszukiwania i analizowania w czasie rzeczywistym dużych zbiorów tekstowych. W Centrum Rafinacji Informacji dostępne w sieci informacje będą poddawane zaawansowanej analizie, co pozwoli nie tylko na historyczną ocenę tego, co się wydarzyło, ale ma także umożliwić przygotowanie prognoz dotyczących procesów społecznych, politycznych i gospodarczych. Analizowane są informacje z portali społecznościowych, forów dyskusyjnych oraz wszelkich innych otwartych źródeł zawierających dane ustrukturyzowane, ale także nieustrukturyzowane – bardzo trudne do analizy przy wykorzystaniu tradycyjnych metod i technologii analitycznych.

    – Jeśli mówimy o dużych zbiorach, mówimy przede wszystkim o zbiorach nieustrukturyzowanych, tzn. takich, które w przeciwieństwie do zbiorów bazodanowych nie mają jasno określonej struktury, wyróżnionych pól w rekordach itd. Jedyną rzeczą, którą możemy wyróżnić jest np. data, może źródło, a poza tym są to zbiory tekstowe. Czyli przetwarzamy teksty i szukamy tego, co nas w konkretnym zadaniu interesuje – mówi Wiesław Cetera.

    W początkowej fazie każdego projektu roboty pobierają informacje z otwartych źródeł. Zebrane w ten sposób dane są oczyszczane (rafinowane) i przeszukiwane pod kątem kluczowych słów oraz powiązań (sentymentów) z wydźwiękiem pozytywnym lub negatywnym. W momencie identyfikacji jakiegoś trendu, naukowcy przechodzą do kolejnego etapu – prognozowania przy wykorzystaniu danych historycznych.

    Zespół naukowców CRI prowadzi obecnie zaawansowane analizy dotyczące trendów technologicznych i procesów o największym potencjale innowacyjności na zlecenie Narodowego Centrum Badań i Rozwoju. Centrum dostarcza prognozy dotyczące rozwoju konkretnych technologii, co ułatwia podejmowanie strategicznych decyzji o inwestowaniu środków publicznych.

    – Narzędzia, które zostały opracowane, mogą być wykorzystywane do zwykłych badań medioznawczych, które prowadzą różnego rodzaju agencje badań społecznych. Porównując to w aspekcie kosztów, to jest w zasadzie bez porównania, bo my wyniki możemy mieć natychmiast, a co za tym idzie również dużo taniej – twierdzi Wiesław Cetera.

    Potencjał tkwiący w Big Data dostrzegły także władze Wrocławia. Agencja Audience Network przygotowując kampanię reklamową miasta do konkursu European Best Destination 2018, wykorzystała narzędzia do profilowania użytkowników Internetu, by w ten sposób dotrzeć do polskich emigrantów. Dzięki zastosowaniu narzędzi do analizy Big Data udało się dotrzeć do blisko 30 tys. użytkowników. Wrocław przegonił w konkursie takie miasta jak Amsterdam, Barcelona czy Paryż, zdobywając 67 proc. wszystkich głosów.

    – U zarania wykorzystania rafinacji informacji stały badania prof. Gogołka, który prowadził je w kontekście wyborów prezydenckich. Wyniki, które wtedy otrzymał były bardzo bliskie, jak nie identyczne z tymi, które były w rzeczywistości – przekonuje ekspert.

    Analitycy Research Cosmos szacują, że wartość narzędzi analitycznych Big Data ma sięgnąć 9 mld dol. w 2023 roku, przy średniorocznym tempie wzrostu na poziomie 21,15 proc.

    Z danych Internet Live Stats wynika, że obecnie z Internetu korzysta już niemal 4 mld ludzi. Codziennie wysyłanych jest niemal 175 mld e-maili i 500 mln tweetów, a ponad 4,5 mld filmów trafia każdego dnia na YouTube.

    Czytaj także

    Kalendarium

    Więcej ważnych informacji

    Jedynka Newserii

    Jedynka Newserii

    Venture Cafe Warsaw

    IT i technologie

    Nowy ośrodek w Krakowie będzie wspierać innowacje dla NATO. Połączy start-upy i naukowców z sektorem obronności

    Połączenie najzdolniejszych naukowców oraz technologicznych start-upów z firmami z sektora obronnego i wojskowego – to główny cel akceleratora, który powstaje w Krakowie. Będzie on należał do natowskiej sieci DIANA, która z założenia ma służyć rozwojowi technologii służących zarówno w obronności, jak i na rynku cywilnym w krajach sojuszniczych NATO. Eksperci liczą na rozwiązania wykorzystujące m.in. sztuczną inteligencję, drony czy technologie kwantowe. Dla sektora to szansa na pozyskanie innowacji na skalę światową, a dla start-upów szansa na wyjście na zagraniczne rynki i pozyskanie środków na globalny rozwój.

    Farmacja

    Sztuczna inteligencja pomaga odkrywać nowe leki. Skraca czas i obniża koszty badań klinicznych

    Statystycznie tylko jedna na 10 tys. cząsteczek testowanych w laboratoriach firm farmaceutycznych pomyślnie przechodzi wszystkie fazy badań. Jednak zanim stanie się lekiem rynkowym, upływa średnio 12–13 lat. Cały ten proces jest nie tylko czasochłonny, ale i bardzo kosztowny – według EFPIA przeciętne koszty opracowania nowego leku sięgają obecnie prawie 2 mld euro. Wykorzystanie sztucznej inteligencji pozwala jednak obniżyć te koszty i skrócić cały proces. – Dzięki AI preselekcja samych cząsteczek, które wchodzą do badań klinicznych, jest o wiele szybsza, co zaoszczędza nam czas. W efekcie pacjenci krócej czekają na nowe rozwiązania terapeutyczne – mówi Łukasz Hak z firmy Johnson & Johnson Innovative Medicine, która wykorzystuje AI w celu usprawnienia badań klinicznych i opracowywania nowych, przełomowych terapii m.in. w chorobach rzadkich.

    Edukacja

    Skutki zbyt długich sesji gier wideo mogą być bolesne. Naukowcy rekomendują, aby nie przekraczać 3 godz. dziennie [DEPESZA]

    Zmęczenie oczu, ból głowy, pleców, dłoni i nadgarstka to dolegliwości najczęściej zgłaszane przez osoby regularnie grające w gry komputerowe. Na podstawie ankiety przeprowadzonej na grupie niemal tysiąca dorosłych osób amerykańscy naukowcy ustalili, że regularne sesje gier trwające co najmniej 3 godz. najbardziej przyczyniają się do powstania takich dolegliwości. Co ciekawe, u osób będących lub planujących zostać e-sportowcami natężenie dolegliwości nie rośnie gwałtownie, jak należałoby przypuszczać. Może to mieć związek z bardziej świadomym doborem sprzętu i lepszym zrozumieniem znaczenia ergonomii.

    Szkolenia

    Akademia Newserii

    Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.