Newsy

Algorytmy rafinacji informacji uporządkują i przeanalizują dane ukryte w internecie. W Google jest tylko 10 proc. wszystkich informacji

2018-08-09  |  06:00

Internet to potężny zbiór informacji, z którego tylko ok. 10 proc. jest zaindeksowana w wyszukiwarce Google. Do pozostałych starają się dotrzeć badacze z Centrum Rafinacji Informacji, którzy dzięki opracowanej technologii są w stanie zebrać, oczyścić i przeanalizować dane z wielu cyfrowych źródeł. Zebrane informacje pozwalają im nie tylko określić zachodzące aktualnie procesy, lecz także prognozować np. preferencje wyborcze, zmiany gospodarcze czy nastroje społeczne.

Internet rozrósł się do takich rozmiarów, że bez pomocy zaawansowanych programów rafinacyjnych przeprowadzenie miarodajnej analizy jest niemożliwe. Do 2020 roku świat wyprodukuje 44 zettabajtów danych (1 zettabajt to bilion gigabajtów). Korzystanie z wyszukiwarki Google w celu monitorowania bieżących trendów w sieci nie wystarczy, aby przeprowadzić wiarygodne badania naukowe.

– Szukamy źródeł internetowych, szukamy różnego rodzaju repozytoriów, dostępu do bibliotek. W niektórych tematach możemy również posiłkować się mediami społecznościowymi, które są otwarte. Może się pojawić zarzut, dlaczego nie korzystamy z Google? W Google znajduje się nie więcej jak 10 proc. tej rzeczywistości wirtualnej, z którą mamy do czynienia, musimy do tych danych dotrzeć samodzielnie, próbujemy to robić i robimy to chyba dosyć skutecznie ­– mówi agencji informacyjnej Newseria Innowacje Wiesław Cetera z Centrum Rafinacji Informacji.

W początkowej fazie każdego projektu roboty pobierają informacje z otwartych źródeł. Dane zbierane są w różnej postaci, a następnie sprowadzane są do postaci cyfrowej. W ten sposób powstają tzw. brudne dane. Po ich oczyszczeniu (rafinacji) przystępuje się do analizy poprzez wyszukiwanie najbardziej istotnych słów oraz powiązanych z nimi innych słów (sentymentów), mających wydźwięk pozytywny lub negatywny.

– Wyszukujemy terminy podstawowe, czyli słowa klucze, artefakty czy słowa słupy, następnie szukamy tego, co wokół nich się znajduje, nie przetwarzamy całości, ale szukamy tego co najważniejsze, i na tej podstawie jesteśmy w stanie określić, czy termin związany z tematem naszych badań zmienia się pozytywnie, negatywnie, rozwija się bądź po prostu zanika. Ta dokładność prognoz jest dosyć duża, bo w przeciwieństwie do badań ankietowych nie mamy do czynienia z populacją 200 czy 1000 badanych, ale przetwarzamy terabajty danych – mówi Wiesław Cetera.

W ramach projektu Culturnomics 2.0, naukowcy z Uniwersytetu Harvarda udowodnili, że algorytmy rafinacyjne sprawdzają się do identyfikacji i przewidywania procesów, które mają dopiero nastąpić. Badacze analizowali informacje upubliczniane przez media tradycyjne i cyfrowe w czasie rzeczywistym w celu określenia nadchodzących zmian społeczno-kulturalnych. Wykorzystując tę technologię, trafnie przewidziano m.in. wybuch rewolucji na Bliskim Wschodzie, ustąpienie prezydenta Egiptu Hosniego Mubaraka, a nawet przybliżone miejsce pobytu Osamy bin Ladena.

– Badania rafinacji informacji przede wszystkim można wykorzystać do identyfikowania różnego rodzaju procesów, które zachodzą w przestrzeni gospodarczej i społecznej. To preferencje wyborcze, trendy gospodarcze, udziały w rynku, pomiary marki itd., ale możemy też spróbować odpowiedzieć na pytanie: jak będzie? Jeżeli znajdziemy jakiś odnośnik czy proces, który toczy się obiektywnie, który jest mierzalny i znajdziemy relację między światem wirtualnym a danymi rzeczywistymi, to możemy poprzez po pierwsze korelacje, po drugie analizę regresji, starać się przewidzieć, co będzie w przyszłości – przekonuje ekspert.

Analitycy Research Cosmos szacują, że wartość narzędzi analitycznych Big Data ma sięgnąć 9 mld dol. w 2023 roku, przy średniorocznym tempie wzrostu na poziomie 21,15 proc. Według szacunków Cisco w 2017 roku użytkownicy internetu przesyłali każdego miesiąca 94,55 eksabajty danych, a do 2021 roku wartość ta ma wzrosnąć do 235,66 eksabajtów.

Do pobrania

Czytaj także

Więcej ważnych informacji

Komunikat

Ważne informacje dla dziennikarzy radiowych

Dziennikarze radiowi mają możliwość pobierania oryginalnego klipu dźwiękowego oraz  z lektorem w przypadku materiałów, w których ekspertami są obcokrajowcy.

Zapraszamy do kontaktu media|newseria.pl?subject=Kontakt%20dla%20medi%C3%B3w| style="background-color: rgb(255, 255, 255);"|media|newseria.pl 

Jedynka Newserii

Jedynka Newserii

Internet

Innowacyjność w bankowości jest niezbędna w utrzymaniu się na rynku. Największe instytucje muszą otworzyć się na zmiany

Dyrektywa bankowa PSD2 otwiera drogę do współpracy banków i zewnętrznych dostawców usług na ogromną skalę z korzyścią dla konsumentów. Nie obędzie się bez zmian w największych organizacjach. Banki będą musiały stać się o wiele szybsze w działaniu. Instytucje zbyt wolno adaptujące się do zmian będą musiały liczyć się z utratą klientów, którzy wybiorą bardziej intuicyjne i wygodniejsze rozwiązania. 

Jak korzystać z materiałów Newserii?

Ważne informacje dla dziennikarzy i mediów

Wszystkie materiały publikowane w serwisach agencji informacyjnej Newseria przeznaczone są do bezpłatnej dystrybucji poprzez serwisy internetowe, stacje radiowe i telewizje, wydawców prasy oraz aplikacje pełniące funkcję agregatorów newsów. 

Szczegóły dotyczące warunków współpracy znajdują się tutaj.

Firma

Systemy automatyczne zrewolucjonizują branżę nieruchomości. Sztuczna inteligencja pomoże w zakupie mieszkania oraz przyznaniu kredytu hipotecznego

Narzędzia do automatyzacji pracy wkraczają na rynek sprzedaży i wynajmu nieruchomości. Algorytmy wykorzystujące technologię uczenia maszynowego pomogą znaleźć mieszkanie spełniające indywidualne potrzeby konkretnego klienta, a inteligentni asystenci zautomatyzują proces przyznawania kredytów hipotecznych. Sztuczna inteligencja na rynku nieruchomości może okazać się nieoceniona i w warunkach pandemii pozwoli sprawnie kupić, sprzedać czy wynająć mieszkanie.