Trudna miłość

Trudna miłość

Sztuczna inteligencja nie zastąpi dziennikarzy, ale już dziennikarstwo – być może tak

To nie będzie kolejny tekst o apokalipsie, jaką ma nam zafundować Chat GPT w swoich kolejnych odsłonach. Ani gorąca pochwała owej technologii, bo na razie rewolucyjne korzyści wynikające z powszechnego zastosowania sztucznej inteligencji pozostają czysto teoretyczne i przez to niemierzalne. Nie mamy nawet szacunków, ile istnień ludzkich sztuczna inteligencja ocali, o ile przyśpieszy eksplorację Układu Słonecznego, do jakich odkryć nas przybliży.

Szacunki, jeśli już, pojawiają się po przeciwnej stronie debaty. Niedawno sceptycy dostali oręż do ręki, bo bank inwestycyjny Goldman Sachs ocenił liczbę miejsc pracy, które zostaną zlikwidowane w wyniku postępu technologicznego, na aż 300 mln w gospodarkach krajów rozwiniętych. Podobne wyliczenia są jednak na razie niewiele warte, bo nie jesteśmy w stanie określić tempa, w jakim sztuczna inteligencja zostanie wprowadzona na tak szeroką skalę. Bliższy prawdzie i łatwiejszy do wyobrażenia wydaje się scenariusz zaproponowany przez prof. Andrew Scotta z London Business School. Coraz bardziej zaawansowane kompetencje programów opartych na sztucznej inteligencji opisuje on jako podnoszący się poziom oceanów wokół archipelagu. Tym archipelagiem jest ludzka cywilizacja i wszystko, co wykonywane w niej wyłącznie przez ludzi. Im wyższe kompetencje programów, tym mniej zostaje ziemi nad lustrem wody, czyli mniej rzeczy wyłącznie ludzkich. Oznacza to, że ludzie, aby przetrwać na rynku pracy i nie utracić treści życia, będą musieli się wyspecjalizować w coraz bardziej zaawansowanych czynnościach i profesjach – w przeciwnym razie zaleje ich fala automatyzacji.

Wszystkie te opowieści są na razie jedynie prognozami. Pewne jest, że sztuczna inteligencja niejeden raz nas zaskoczy, również dlatego, że, jak zauważa coraz większa liczba naukowców, po prostu nie wiemy do końca, jak ona działa. Michał Kosiński, psycholog społeczny z Uniwersytetu Stanforda, postawił nawet tezę, że duże modele językowe, takie jak Chat GPT czy przygotowany przez Google’a Bard, wykształciły coś w rodzaju samoświadomości – krótko mówiąc, że te „maszyny” (celowo wzięte w cudzysłów) wiedzą, że my wiemy, co one wiedzą. Byłaby to raczej forma protoświadomości, bo wciąż oparta na prawdopodobieństwie i statystyce, za ich pomocą też wytłumaczalna, ale na pewno nadająca się na krzykliwe, alarmistyczne nagłówki w mediach. Co zresztą już się stało, bo tekst o właśnie takiej wymowie i pod podobnym tytułem opublikował „New York Times”. Jednak już na pierwszy rzut oka widać, że o sztucznej inteligencji w skali makro wiadomo niewiele. W skali mikro natomiast bardzo dużo, bo w wielu miejscach jest ona szeroko stosowana. I do takich należy dziennikarstwo.

Taniej, szybciej, bez nowości

W różnych rankingach to zawód dziennikarza wskazywany jest jako jeden z najbardziej zagrożonych przez sztuczną inteligencję. Na łamach BBC pojawił się tekst usiany wypowiedziami amerykańskich naukowców, którzy uważają, że w perspektywie dekady nawet 90% wszystkich informacji w mediach będzie pisanych przez komputer w sposób całkowicie automatyczny. Kolejni szefowie koncernów medialnych deklarują zaś, że wprowadzą GPT „na pełny etat”, oczywiście kosztem pracowników. Znów jednak należy podchodzić do tego z rezerwą, bo na razie w newsach pisanych w całości przez komputer więcej było wpadek niż ciekawych treści. A przejechały się na tym renomowane redakcje, takie jak Business Insider czy CNBC. Niemiecki koncern Axel Springer czy DMGT, właściciel brytyjskiego dziennika „Daily Mail”, wprawdzie zapowiedziały, że będą zwalniać setki pracowników, żeby optymalizować wydatki, ale czy ludzie piszący mają czego się bać?

Krótka odpowiedź na to pytanie brzmi: nie, jeśli są w swoim zawodzie naprawdę dobrzy. Tyle przynajmniej pozwala nam stwierdzić bieżący stan wiedzy, reszta to futurologia. Sztuczna inteligencja nie jest w stanie sama zbierać informacji, bardzo słabo radzi sobie też z kontekstem i umieszczaniem w nim pojedynczych historii. Działa na podstawie najbardziej prawdopodobnych skojarzeń, w związku z tym jest dość ograniczona, jeśli chodzi o tropy nieoczywiste. Dlatego nie ma dla niej jeszcze kreatywnego zastosowania chociażby w tekstach o sprawach międzynarodowych, w których trzeba powiązać ze sobą procesy gospodarcze, strategiczne, militarne i coraz częściej klimatyczne. Sztuczna inteligencja pozbiera, posegreguje i opracuje dane, ale w logiczną całość pozbawioną semantycznych pomyłek tego wszystkiego nie złoży.

W tym miejscu trzeba jednak się zatrzymać i poświęcić trochę miejsca na definicje. Bo czym właściwie jest sztuczna inteligencja w kontekście dziennikarstwa? Badacze zrzeszeni w inicjatywie JournalismAI, projekcie prowadzonym przez Google News Initiative i think tank Polis przy London School of Economics podkreślają, że to bardzo pojemny termin, zawierający właściwie wszystko, od algorytmów i automatyzacji pisania newsów po wszelkie procesy komputerowe stosowane przez organizacje medialne, mające na celu dostarczenie bardziej właściwych, zoptymalizowanych treści do odbiorców.

W definicji tej razi język korporacyjny, ale to nie przypadek – sztuczna inteligencja akurat w dziennikarstwie nie jest i nie będzie narzędziem odkrywczym, tylko właśnie optymalizującym. Taniej, szybciej, bez nowości. Potwierdza to Madhumita Murgia, niedawno powołana na stanowisko redaktora ds. sztucznej inteligencji w dzienniku „Financial Times”. W czasie panelu dyskusyjnego przygotowanego przez oksfordzki Reuters Institute zauważyła, że w obecnym stanie nawet generatywna sztuczna inteligencja, czyli duże modele językowe GPT i Bard, „nie ma w sobie oryginalności. Nie pokaże czegoś, czego nie widać. Funkcjonuje na bazie istniejących informacji, nie ma również zdolności analitycznych ani własnego głosu”. Z tego powodu, twierdzi Murgia, sztuczna inteligencja w gazetach o wysokiej renomie i wymagających odbiorcach, jak właśnie „Financial Times”, nie na wiele się zdaje. Nie jest bowiem w stanie ani przeprowadzić nowej analizy, ani zaproponować bardziej złożonego punktu widzenia na dany temat, a tego oczekują czytelnicy dziennika.

Nie znaczy to jednak, że w dziennikarstwie AI się nie przydaje – bo przydaje się od lat. Zresztą o rozwoju GPT i kroczącej rewolucji pisaliśmy na łamach PRZEGLĄDU już w 2019 r., opisując pierwszy felieton napisany w całości przez komputer, opublikowany wówczas na łamach brytyjskiego „Guardiana”. Już wtedy zastosowanie automatyzacji przy pisaniu newsów nie było wcale awangardą. W 2018 r. wewnętrzny „robot” stworzony na potrzeby redakcji „Washington Post” napisał aż 850 artykułów w ciągu 365 dni. Wbrew pozorom to niewiele, ponieważ gazeta produkuje nawet 500 jednostek treści dziennie (jeśli wliczać posty w mediach społecznościowych, materiały wideo i foto). Co więcej, sporo z tych artykułów dotyczyło wyników zimowych igrzysk w Pjongczangu, były to krótkie depesze „zaciągające” dane i rezultaty zawodników ze strony Międzynarodowego Komitetu Olimpijskiego. To akurat zautomatyzować dość łatwo, podobne eksperymenty już sześć-siedem lat temu prowadziły BBC i Associated Press, ale chodziło głównie o teksty agregujące dane i przedstawiające je w zwięzły sposób, co w dziennikarstwie jest oczywiście podstawą, ale na pewno nie jego esencją.

AI też się myli

Więcej sztuczna inteligencja może zdziałać na polu dziennikarstwa ekonomicznego, gdzie już teraz możliwe jest do pewnego stopnia nawet przewidywanie newsów. Tym zajmuje się Francesco Macroni, wcześniej szefujący działom badań i rozwoju w „Wall Street Journal” oraz automatyzacji w Associated Press, a teraz prowadzący własną firmę, AppliedXL. Para się on dzisiaj czymś na kształt przewidywania przyszłości – na podstawie danych finansowych spółek lub informacji o złożonych badaniach medycznych (nawet klinicznych) stosowane przez firmę modele są w stanie znaleźć nieprawidłowości albo wskazać trendy, jeszcze zanim poinformują o nich same prowadzące te badania podmioty lub raportujące spółki.

Tutaj pojawia się jednak inny problem, który łatwo rozciągnąć na całość debaty o przyszłości AI i jej roli w społeczeństwie, czyli dostęp do danych. Coraz więcej osób, z prezesem OpenAI Samem Altmanem na czele, prognozuje spowolnienie w rozwoju tej technologii, bo żeby duże modele językowe stawały się rzeczywiście coraz lepsze, potrzeba wręcz niewyobrażalnych ilości danych do ich wytrenowania. A danych tych nie ma, przynajmniej w świecie zachodnim. Unia Europejska i w pewnym stopniu Stany Zjednoczone regulują ten obszar życia publicznego, chroniąc prywatność obywateli. Z punktu widzenia mieszkańców tych obszarów świata to oczywiście dobra wiadomość, wszyscy chcemy, żeby nasze życie prywatne pozostawało prywatne chociaż w części. Co innego Chiny, kraj będący jednym z liderów postępu technologicznego w zakresie AI i pierwszą na świecie cyfrową dyktaturą, wykorzystującą nowe technologie do inwigilacji społeczeństwa na masową skalę.

Prof. Sergei Guriev, rosyjski politolog mieszkający na co dzień we Francji, w niedawno wydanej w Polsce, napisanej wspólnie z Danielem Treismanem książce „Spin dyktatorzy” wieszczy, że już niedługo Chiny prześcigną Zachód pod względem zaawansowania sztucznej inteligencji, właśnie z powodu kooperacji tamtejszych firm technologicznych i komunistycznego rządu. Władze mają dane, ale nie mają technologii. Firmy dysponują technologią, do której ulepszenia potrzebują danych. Wymiana jest oczywiście wymuszona panującym tam niedemokratycznym ustrojem, ale dla rezultatu tego procesu jest to wtórne, bo rewolucja idzie do przodu.

Z zastosowaniem sztucznej inteligencji wiąże się więc również ryzyko. Począwszy od braku danych, poprzez ich właściwe opisanie i legalne uzyskiwanie, na błędach, które popełniają ludzie, a powielają „maszyny”, skończywszy. Prof. Charlie Beckett z LSE Polis przestrzegał we wspomnianej debacie Reuters Institute, żeby sztucznej inteligencji nie przeceniać. Skoro ludzie się mylą, a pomyłki te naprawiane są w procesie redakcyjnym, tak samo myli się i mylić będzie model językowy. Chociażby dlatego ludzi z procesu pisania wiadomości nie da się całkowicie wyeliminować.

Schyłkowe dziennikarstwo

Sztuczną inteligencję w dziennikarstwie postrzegać zatem należy raczej jako suplement pracy, a nie jej substytut. Istnieje wiele aplikacji, które pomagają archiwizować, kategoryzować wiadomości, tworzą transkrypcje wywiadów, obserwują trendy w mediach społecznościowych i na tej podstawie wypluwają z siebie monotematyczne raporty. Daleko im jednak do masowego wdrażania, bo po angielsku działają świetnie, ale w innych językach znacznie gorzej. Taki był wynik eksperymentu, który autor tego tekstu przeprowadził z udziałem aplikacji QuillBot, mającej parafrazować, redagować i skracać teksty. Wklejone do okna dialogowego i przepisane przez komputer fragmenty tekstu okazały się niemożliwe do publikacji, bo „maszyna” gubiła sens słów za każdym razem, gdy wynikał on z kontekstu. Innymi słowy, po prostu nim manipulowała. Raczej nie intencjonalnie, aczkolwiek motywacje są drugorzędne, gdy publikuje się nieprawdę. Ponadto większość aplikacji jest wciąż droga, a wersje darmowe – kadłubowe. Varia, narzędzie do agregowania publikacji według słów kluczowych, pozwala na jedynie dwa katalogi tematyczne w wersji darmowej, co dla większości dziennikarzy jest liczbą zbyt małą. A technologia jest zbyt nieprzewidywalna, żeby autorzy zdecydowali się za nią płacić na skalę masową.

Podobnych narzędzi jest wiele, ale te powszechnie dostępne są jeszcze słabo rozwinięte. Duże redakcje mają własne, znacznie silniejsze narzędzia, niedostępne dla mniejszych graczy na rynku czy freelancerów. Co pokazuje, że sztuczna inteligencja, owszem, zmieni dziennikarstwo, bo pogłębi nierówności. Dla małych może się okazać zabójcza, wielkim redakcjom pomoże wzmocnić ich przewagę i konkurencyjność. Czy zastąpi dziennikarzy? Raczej nie. Dopóki bowiem realne rzeczy będą się przydarzać realnym ludziom, a inni realni ludzie będą nimi zainteresowani, dziennikarze pozostaną bezpieczni.

Jeśli jednak świat robotów pogłębi naszą samoizolację, osłabi jeszcze bardziej więzi społeczne i sprawi, że stracimy pasję do siebie nawzajem, wtedy koniec z dziennikarzami, dlatego że dziennikarstwo jako koncept będzie już po prostu niepotrzebne.

m.mazzini@tygodnikprzeglad.pl

Fot. Shutterstock

Wydanie: 2023, 23/2023

Kategorie: Media

Napisz komentarz

Odpowiedz na treść artykułu lub innych komentarzy