Newsy

Sztuczna inteligencja już zastępuje dziennikarzy. Coraz trudniej odróżnić treści tworzone przez maszynę

2020-06-18  |  06:00

Coraz więcej działań dziennikarzy będzie przejmować sztuczna inteligencja. Microsoft niedawno zerwał współpracę z dziennikarzami kontraktowymi. Zastąpi ich SI, która dobierze i opublikuje odpowiednie materiały w serwisie MSN.com. Wykorzystując proces uczenia maszynowego, aplikacje są już w stanie wygenerować długi artykuł na podstawie zaledwie kilku słów lub nieskładnych gramatycznie zdań. Funkcjonalność sztucznej inteligencji w automatycznym tworzeniu dłuższych form wypowiedzi coraz częściej będzie wykorzystywana także do generowania fake newsów. Niektóre generatory umożliwiają więc nie tylko zautomatyzowane pisanie tekstów, lecz także wykrywanie tych, które napisał robot.

– Możliwości analizy języka bardzo się rozwinęły w ciągu ostatnich miesięcy, co wiąże się z wypuszczeniem pewnych modeli przez OpenAI, które są wytrenowane na całym dostępnym tekście w internecie. Są one w stanie wytworzyć bardzo składny i sensowny język na podstawie bardzo małej ilości danych – przekonuje w rozmowie z agencją informacyjną Newseria Innowacje Filip Kozera, założyciel Kristalic.

W lutym 2019 roku OpenAI zaprezentowało swoje narzędzie GPT-2, które generuje przekonujący, lecz fałszywy tekst. Sztuczna inteligencja uczyła się gramatyki i budowała zasób językowy na podstawie zbioru 40 GB tekstu obejmującego 8 mln stron internetowych. OpenAI postanowił jednak wówczas nie upubliczniać GPT-2 w obawie przed możliwymi szkodami związanymi z możliwością wykorzystania narzędzia do produkowania fake newsów. Algorytmy sztucznej inteligencji są w stanie wygenerować zaawansowany i poprawny gramatycznie tekst na podstawie bardzo okrojonej informacji. Obecnie narzędzie znów jest dostępne.

– Za każdym razem, gdy piszę jakiś esej, na początku piszę go bardzo słabo gramatycznie, żeby były tam tylko fakty, i później go przerabiam. Po napisaniu tylko suchych faktów nasz algorytm wytworzył piękne gramatyczne zdania i dużo wypełniaczy. Można więc wyobrazić sobie świat, w którym można napisać cztery zdania i później zamienić to w 1,2 tys. słów, które zawierałyby te same informacje, tylko algorytm wypełniłby te luki bardzo ładnym angielskim – wyjaśnia Filip Kozera.

Już dziś praca algorytmów sztucznej inteligencji może być wykorzystana do zamiany notatek głosowych na tekst i ułożeniu go w gramatycznie poprawne i logicznie uporządkowane zdania. Co więcej, informacje z notatek można wyszukiwać na takiej zasadzie, na jakiej działają wyszukiwarki internetowe. Służy temu np. aplikacja Kristalic. Rozwiązanie dostarczane przez polski start-up obsługuje 120 języków i jest w stanie identyfikować rozmówcę. Może być też zintegrowane z popularną w czasie pandemii platformą Zoom.

Przyszłością w wykorzystywaniu sztucznej inteligencji do generowania tekstów może być natomiast poszerzenie ich funkcjonalności o nadawanie artykułowi czy wiadomości zabarwienia emocjonalnego czy narzuconego stylu wypowiedzi.

– Przykładowo piszemy wiadomość mailową, a później przesuwamy suwakiem, że powinna być dużo bardziej formalna, bo wysyłamy ją do naszego szefa. To jest oczywiście przykład, jednak po napisaniu jednego wyrażenia, np.: „przełóż spotkanie na jutro”, taki mail może zostać wygenerowany całkowicie samodzielnie. Te rozwiązania mogą być wykorzystywane wszędzie, gdzie człowiek pisze jakiś tekst, nawet obecnie w mailach nasza składnia jest już sprawdzana przez Grammarly. Dlaczego nie moglibyśmy np. zmienić stylu wypowiedzi? – zauważa założyciel Kristalic.

Funkcjonalność wynikającą z możliwości uczenia maszynowego można jednak wykorzystać również w odwrotnym modelu – do rozpoznawania potencjalnych fake newsów pisanych przez automat. Taką funkcję ma generator wiadomości Grover. Jest on w stanie identyfikować teksty stworzone na podstawie nie tylko własnych algorytmów SI, lecz także innych.

– Obecnie sztuczna inteligencja potrafi wytworzyć teksty, które są nie do odróżnienia od tekstów napisanych przez ludzi. Na pewno będziemy obserwować wysyp fake newsów, będą ich ogromne ilości. Prowadzone są prace nad tym, żeby rozpoznawać, co jest napisane przez człowieka, który często popełnia  jakieś błędy logiczne albo ma jakiś styl pisania, i to się porównuje do tego, co jest napisane przez algorytm, żebyśmy mogli w ogóle rozpoznawać, co zostało napisane przez algorytm, a co nie – mówi Filip Kozera.

Według Allied Market Research światowy rynek sztucznej inteligencji do 2025 roku osiągnie wartość niemal 169,5 mld dol.

Czytaj także

Więcej ważnych informacji

Jedynka Newserii

Jedynka Newserii

Kosmos i lotnictwo

Trwają prace nad poszukiwaniem pozaziemskiej inteligencji. Według ekspertów odkrywane co jakiś czas dowody obecności obcych na Ziemi, takie jak UFO, są bezpodstawne

Naukowcy potwierdzili istnienie ponad 4 tys. egzoplanet krążących wokół innych gwiazd w naszej galaktyce. Prawdopodobnie jednak mogą być ich nawet biliony. Jednym z najlepszych narzędzi, jakich naukowcy potrzebują, aby zawęzić poszukiwania światów nadających się do zamieszkania, jest koncepcja „strefy nadającej się do zamieszkania”. Dzięki nowym teleskopom szanse na znalezienie pozaziemskiego życia rosną, choć dotąd żaden nie uwiecznił śladów pozaziemskiej cywilizacji. Potwierdzenie jej istnienia mogłoby być przełomem dla ludzkości, jednak jak dotąd wszelkie rzekome znaki pozostawione przez obcą cywilizację się nie potwierdziły. – UFO nie mają nic wspólnego ze statkami obcych – mówi dr Piotr Witek z Planetarium Centrum Nauki Kopernik.

Robotyka i SI

Sztuczna inteligencja może moderować wpisy zawierające przemoc jeszcze przed ich publikacją. W przyszłości pozwoli zapobiegać czynom pedofilskim czy agitacji terrorystów

Algorytmy sztucznej inteligencji są już w stanie wykrywać agresywne zachowania w sieci z 97-proc. skutecznością. Pozwala na to sztuczna inteligencja trzeciej fali, która polega na integracji uczenia maszynowego z ingerencją człowieka w schemat działania. Dotychczas SI również wykrywała niebezpieczne zachowania, lecz tylko z 50-proc. skutecznością, więc każdy wysyłany przez nią alert musiał być zatwierdzony przez człowieka. Nowe podejście do budowania algorytmów pomoże nie tylko zapobiegać agresji słownej w sieci, ale również ostrzegać przed możliwą próbą samobójczą, a także działaniem pedofila czy terrorysty.