Newsy

Algorytmy rafinacji informacji uporządkują i przeanalizują dane ukryte w internecie. W Google jest tylko 10 proc. wszystkich informacji

2018-08-09  |  06:00

Internet to potężny zbiór informacji, z którego tylko ok. 10 proc. jest zaindeksowana w wyszukiwarce Google. Do pozostałych starają się dotrzeć badacze z Centrum Rafinacji Informacji, którzy dzięki opracowanej technologii są w stanie zebrać, oczyścić i przeanalizować dane z wielu cyfrowych źródeł. Zebrane informacje pozwalają im nie tylko określić zachodzące aktualnie procesy, lecz także prognozować np. preferencje wyborcze, zmiany gospodarcze czy nastroje społeczne.

Internet rozrósł się do takich rozmiarów, że bez pomocy zaawansowanych programów rafinacyjnych przeprowadzenie miarodajnej analizy jest niemożliwe. Do 2020 roku świat wyprodukuje 44 zettabajtów danych (1 zettabajt to bilion gigabajtów). Korzystanie z wyszukiwarki Google w celu monitorowania bieżących trendów w sieci nie wystarczy, aby przeprowadzić wiarygodne badania naukowe.

– Szukamy źródeł internetowych, szukamy różnego rodzaju repozytoriów, dostępu do bibliotek. W niektórych tematach możemy również posiłkować się mediami społecznościowymi, które są otwarte. Może się pojawić zarzut, dlaczego nie korzystamy z Google? W Google znajduje się nie więcej jak 10 proc. tej rzeczywistości wirtualnej, z którą mamy do czynienia, musimy do tych danych dotrzeć samodzielnie, próbujemy to robić i robimy to chyba dosyć skutecznie ­– mówi agencji informacyjnej Newseria Innowacje Wiesław Cetera z Centrum Rafinacji Informacji.

W początkowej fazie każdego projektu roboty pobierają informacje z otwartych źródeł. Dane zbierane są w różnej postaci, a następnie sprowadzane są do postaci cyfrowej. W ten sposób powstają tzw. brudne dane. Po ich oczyszczeniu (rafinacji) przystępuje się do analizy poprzez wyszukiwanie najbardziej istotnych słów oraz powiązanych z nimi innych słów (sentymentów), mających wydźwięk pozytywny lub negatywny.

– Wyszukujemy terminy podstawowe, czyli słowa klucze, artefakty czy słowa słupy, następnie szukamy tego, co wokół nich się znajduje, nie przetwarzamy całości, ale szukamy tego co najważniejsze, i na tej podstawie jesteśmy w stanie określić, czy termin związany z tematem naszych badań zmienia się pozytywnie, negatywnie, rozwija się bądź po prostu zanika. Ta dokładność prognoz jest dosyć duża, bo w przeciwieństwie do badań ankietowych nie mamy do czynienia z populacją 200 czy 1000 badanych, ale przetwarzamy terabajty danych – mówi Wiesław Cetera.

W ramach projektu Culturnomics 2.0, naukowcy z Uniwersytetu Harvarda udowodnili, że algorytmy rafinacyjne sprawdzają się do identyfikacji i przewidywania procesów, które mają dopiero nastąpić. Badacze analizowali informacje upubliczniane przez media tradycyjne i cyfrowe w czasie rzeczywistym w celu określenia nadchodzących zmian społeczno-kulturalnych. Wykorzystując tę technologię, trafnie przewidziano m.in. wybuch rewolucji na Bliskim Wschodzie, ustąpienie prezydenta Egiptu Hosniego Mubaraka, a nawet przybliżone miejsce pobytu Osamy bin Ladena.

– Badania rafinacji informacji przede wszystkim można wykorzystać do identyfikowania różnego rodzaju procesów, które zachodzą w przestrzeni gospodarczej i społecznej. To preferencje wyborcze, trendy gospodarcze, udziały w rynku, pomiary marki itd., ale możemy też spróbować odpowiedzieć na pytanie: jak będzie? Jeżeli znajdziemy jakiś odnośnik czy proces, który toczy się obiektywnie, który jest mierzalny i znajdziemy relację między światem wirtualnym a danymi rzeczywistymi, to możemy poprzez po pierwsze korelacje, po drugie analizę regresji, starać się przewidzieć, co będzie w przyszłości – przekonuje ekspert.

Analitycy Research Cosmos szacują, że wartość narzędzi analitycznych Big Data ma sięgnąć 9 mld dol. w 2023 roku, przy średniorocznym tempie wzrostu na poziomie 21,15 proc. Według szacunków Cisco w 2017 roku użytkownicy internetu przesyłali każdego miesiąca 94,55 eksabajty danych, a do 2021 roku wartość ta ma wzrosnąć do 235,66 eksabajtów.

Do pobrania

Czytaj także

Kalendarium

Kosmos

Nanosatelity pozwolą przetestować innowacyjne panele słoneczne w kosmosie. W planach jest też budowa konstelacji nanosatelitarnej do monitorowania poziomu zanieczyszczeń

Rośnie liczba polskich projektów realizowanych z wykorzystaniem nanosatelitów. Pierwsze jednostki pozwolą przeprowadzić obserwacje powierzchni Ziemi i przetestować nowatorskie systemy zasilania pojazdów kosmicznych. Za kilka lat powstanie pierwsza polska konstelacja nanosatelitarna. Dzięki budżetowej i stosunkowo nieskomplikowanej konstrukcji po miniaturowe satelity sięgają duże firmy, urzędy czy uniwersyteckie zespoły naukowe.

Handel

Geoblockchain z nieograniczoną liczbą zastosowań. Może być wykorzystywany do śledzenia drogi produktów czy zawierania umów na odległość

Największe firmy na świecie inwestują w geoblockchain. Ze względu na zdolność do natychmiastowego rejestrowania transakcji oraz do pomocy w weryfikacji autentyczności produktu technologię stosują obecnie przede wszystkim firmy związane z handlem i e-commerce. Francuski supermarket Carrefour śledzi już kilkadziesiąt produktów w całym łańcuchu dostaw. Walmart wykorzystuje technologię blockchain do śledzenia przesyłek od swoich dostawców. Zdaniem ekspertów to jednak dopiero początek możliwości tej technologii. 

MWC19

Telekomunikacja

Wdrożenie 5G będzie wymagać dużej dbałości o cyberbezpieczeństwo. Operatorzy muszą wypracować odpowiednie standardy

Wielkimi krokami zbliża się wdrożenie sieci 5G, która ma zapoczątkować nową rewolucję technologiczną i stworzyć możliwości ultraszybkiej komunikacji. Eksperci podkreślają jednak, że fundamentalną kwestią w kontekście 5G jest cyberbezpieczeństwo i na każdym etapie wdrażania nowej technologii operatorzy muszą zadbać o najwyższe standardy. Bardzo ważne jest też budowanie świadomości użytkowników końcowych oraz efektywna współpraca firm technologicznych z administracją publiczną. – W przypadku 5G trzeba najpierw wypracować standardy, a dopiero potem wdrażać całą sieć – podkreśla Ryszard Hordyński z Huawei Polska.