Mówi: | dr hab. inż. Maciej Piasecki |
Firma: | Katedra Inteligencji Obliczeniowej, Wydział Informatyki i Zarządzania, Politechnika Wrocławska |
Ze sztuczną inteligencją szybko nie porozmawiamy w języku polskim. Brakuje wystarczającej liczby danych, w tym tysięcy godzin nagrań mowy
Przetwarzanie języka naturalnego umożliwia maszynom czytanie i rozumienie języków ludzkich. Obecnie NLP pozwala np. na rozpoznawanie i przewidywanie chorób w oparciu o elektroniczne dane medyczne i mowę pacjenta. Największe firmy analizują e-maile za pomocą NLP i zatrzymują spam. Siri i Alexa to przykłady inteligentnych interfejsów sterowanych głosem, które wykorzystują NLP do reagowania na komunikaty głosowe. Pojawiają się też pierwsze przykłady sztucznej inteligencji mówiącej po polsku, jednak na razie jedynie w prostych i ograniczonych komunikatach. Główną barierą jest niewystarczająca baza danych.
– Szacowałbym poziom zaawansowania rozwoju technologii dla języka polskiego gdzieś w połowie krajów europejskich. Nie jest to już złym wynikiem, jeszcze 10 lat temu byliśmy na jednym z ostatnich miejsc, jeśli chodzi o dostępność słowników, zbiorów tekstów, rozwiązań dla języka polskiego. Wykorzystanie technologii dla języka polskiego w rozwiązaniach czołowych komercyjnych firm jest bardzo niskie, ponieważ one bazują wyłącznie na swoich językach, nie postrzegają języka polskiego jako wyróżniającego się w masie innych języków niż angielski – ocenia w rozmowie z agencją Newseria Innowacje dr hab. inż. Maciej Piasecki z Katedry Inteligencji Obliczeniowej na Politechnice Wrocławskiej.
Przetwarzanie języka naturalnego (NLP) reprezentuje automatyczną obsługę naturalnego języka ludzkiego, takiego jak mowa lub tekst. Prawdziwa wartość tej technologii wynika jednak z możliwości zastosowania. NLP umożliwia np. rozpoznawanie i przewidywanie chorób w oparciu o elektroniczne dane medyczne i mowę pacjenta – od chorób układu krążenia do depresji czy schizofrenii. Amazon Comprehend Medical wykorzystuje z kolei NLP do wyodrębniania stanów chorobowych, leków i wyników leczenia z raportów z badań klinicznych. IBM opracował asystenta kognitywnego, który działa jak spersonalizowana wyszukiwarka, uczy się wszystkiego o użytkowniku, a następnie przypomina potrzebne informacje. LegalMation, obsługiwana przez technologię IBM Watson NLP, opracowała zaś platformę do automatyzacji rutynowych zadań sądowych, pomaga zaoszczędzić czas i obniżyć koszty.
Chociaż możliwości NLP są praktycznie nieograniczone, to wciąż brakuje jeszcze rozwiązań bazujących na języku polskim. Sytuacja jednak powoli się zmienia.
– Coraz więcej polskich start-upów, małych i średnich firm zidentyfikowało niszę, jaką są systemy, które są stworzone dla języka polskiego czy obsługują język polski w bardziej świadomy sposób. Liczba rozwiązań rośnie. Rośnie też liczba projektów, które wspólnie realizujemy, m.in. dzięki finansowaniu unijnemu – zaznacza Maciej Piasecki.
Jak wskazuje ekspert, problemem dla szerszego wprowadzenia rozwiązań bazujących na języku polskim, jest stosunkowo niewielka baza danych. Choć nasz język stwarza ogromne możliwości, zwłaszcza w kontekście innych języków o rozbudowanej morfologii, to większość rozwiązań dostępnych w Polsce bazuje na przetworzonym języku angielskim.
– Niewiele jest firm, które gromadzą takie liczby danych jak czołowe firmy na świecie. Paradoksalnie te firmy, które działają na polskim rynku, mają trochę trudniej, ponieważ polskie prawo jest dość restrykcyjne, jeśli chodzi o wykorzystanie danych. Natomiast wielkie firmy światowe trochę nie przejmują się polskimi ograniczeniami i trudno z tym cokolwiek zrobić. Zbierają dane, które chcą, i nie sposób tego zablokować – twierdzi ekspert.
Podobny problem mają też inne kraje regionu. Liczba rozwiązań wykorzystujących rodzimy język jest jeszcze niewielka, pojawiają się dopiero pierwsze rozwiązania, najczęściej opracowane przez rodzime start-upy. Tym samym ich zasięg jest dość mały.
– Jest duży problem w zbudowaniu zasobów, na których można trenować. Potrzebujemy tysięcy godzin nagrań mowy opisanych za pomocą tzw. transkrypcji czy opisanych tekstem ilustrującym, przy czym obecnie całkowity zasób takich nagrań mowy dla polszczyzny dostępnych publicznie to sto kilkadziesiąt godzin. Dopóki nie ma dostatecznie dużego zbioru danych, dopóty jakość będzie trochę niższa – ocenia dr hab. inż. Maciej Piasecki.
Według analityków MarketsandMarkets rynek przetwarzania języka naturalnego (NLP) osiągnie do 2021 r. wartość ponad 16 mld dol.
Czytaj także
- 2021-02-23: Polska ma nową strategię rozwoju sztucznej inteligencji. W ujęciu globalnym SI może dać medycynie 150 mld dol. oszczędności
- 2021-02-26: Roboty i skanery 3D przyszłością edukacji. Już dziś pozwalają uczyć programowania i mogą stworzyć model ciała człowieka
- 2021-02-18: Automatyzacja branży gastronomicznej postępuje. Roboty mogą już wkrótce zastąpić kucharzy, barmanów czy kelnerów
- 2021-02-08: Sztuczna inteligencja pomoże znaleźć idealnego pracownika. Przyspiesza też proces rekrutacji z kilku tygodni do 24 godzin
- 2021-02-16: Branża HR przechodzi technologiczną rewolucję. Personalizacja ofert i sztuczna inteligencja pozwolą szybciej i skuteczniej szukać pracownika i znaleźć pracę
- 2021-02-03: Sztuczna inteligencja wykrywa zagrożenia 60 razy szybciej niż człowiek. W wyniku pandemii algorytmy coraz częściej zabezpieczać będą także prywatne komputery
- 2021-02-11: Branża IT odporna na koronakryzys. Wyzwaniem stają się najnowsze technologie, takie jak automatyzacja i sztuczna inteligencja
- 2021-02-12: Ubezpieczyciele coraz chętniej sięgają po sztuczną inteligencję czy blockchain. Pandemia koronawirusa przyspieszyła rozwój branży insurtech
- 2021-02-22: Sztuczna inteligencja przyspieszy likwidację szkód z polis ubezpieczeniowych. Ochroni też firmy przed wyłudzaniem odszkodowań
- 2021-02-03: Polacy opracowali aplikację do opieki psychiatrycznej. Algorytmy i platforma telemedyczna pozwolą na spersonalizowaną terapię
Więcej ważnych informacji
Jedynka Newserii

Jedynka Newserii

Robotyka i SI

Roboty i skanery 3D przyszłością edukacji. Już dziś pozwalają uczyć programowania i mogą stworzyć model ciała człowieka
Nowe technologie coraz mocniej zaznaczają swoją obecność w dziedzinie edukacji. Roboty edukacyjne uczą programowania nawet najmłodsze dzieci, roboty społeczne potrafią czytać książki i uczyć języków, a skanery 3D ułatwią naukę ludzkiej anatomii. Choć pandemia utrudniła prowadzenie warsztatów edukacyjnych dla dzieci, to tempo tworzenia nowych rozwiązań nie maleje. – Sztuczna inteligencja i robotyzacja to zdecydowanie właściwe kierunki dla rozwoju edukacji – mówi Maciej Trojnacki, prezes zarządu Eduroco.
Robotyka i SI
Neuromarketing coraz silniejszym narzędziem sprzedaży. Coraz silniej wpływa na nasze decyzje zakupowe

Analiza reakcji mózgu klienta na bodziec wizualny jest coraz częściej wykorzystywana w procesie projektowania produktów i opakowań. Znajduje również zastosowanie przy budowaniu stron internetowych, etykiet cenowych czy ekspozycji w sklepach. W przyszłości neuromarketing będzie się prawdopodobnie posiłkował innymi technologiami, jak wirtualna rzeczywistość czy analiza Big Data. – Neuromarketing zbiera całą wiedzę o mózgu i próbuje te procesy wytłumaczyć i przełożyć na skuteczniejsze mechanizmy rynkowe – tłumaczy Wojciech Broniatowski, dyrektor operacyjny CortiVision.