Jakie zagrożenia dla dziennikarstwa niesie sztuczna inteligencja? Wystarczy wpisać w wyszukiwarkę internetową dwa hasła: „dziennikarstwo” i „sztuczna inteligencja”, by zostać zalanym historiami jak z horroru. Sieć pełna jest opowieści o cywilizacyjnych wręcz zagrożeniach stwarzanych przez puszczoną wolno sztuczną inteligencję (artificial intelligence – AI). Wyobraźmy sobie chociażby kampanię masowej dezinformacji, która posługiwałaby się stworzonymi przez generatory obrazu i dźwięku wizerunkami polityków – nieodróżnialnymi od prawdziwych. Albo propagandę adresowaną do każdego z osobna – mikrotargetowaną, jak to się mówi – jak miliony indywidualnie dobranych dawek informacyjnej toksyny. Pomyślmy tylko o rozmiarze okropieństw, które mogłyby wywołać podsycające polaryzację i nienawiść algorytmy, manipulując niepostrzeżenie naszymi emocjami pod dyktando wielkich korporacji. Jest czego się bać? Wizje z fantastyki Wszystkie te koszmarne fantazje… niestety są prawdziwe. Tworzone przy wsparciu generatywnej sztucznej inteligencji fałszywki – zdjęcia, wideo, nagrania głosu – już są w obiegu na masową skalę. Na szczęście – jak dotąd – służą rozrywce i szyderstwu, nie podkręcaniu nienawiści. Ale do ludobójstwa w Bangladeszu doszło za sprawą „zwykłych” fałszywek, których nie trzeba było nawet podkręcać, bo platformy cyfrowe już same zadbały o ich rozpowszechnianie i wielkie zasięgi. Mikrotargetowane kampanie polityczne już są rzeczywistością od co najmniej 2016 r. Podobnie jak nie od wczoraj sterują nami zaawansowane algorytmy, których działanie wymyka się pojęciu zwykłego człowieka. Wyłudzające od nas pieniądze czy informacje i wspierane sztuczną inteligencją boty także należą już do codzienności. Jesteśmy u progu wykorzystania sztucznej inteligencji do tworzenia i zarządzania aparatem wojennej propagandy, a zdjęcia rzekomych ofiar konfliktu na Bliskim Wschodzie wygenerowane przez sztuczną inteligencję już krążą po sieci. Jedyne, czego brakuje do udanego horroru science fiction, to samoświadomy program, który zebrałby te rozproszone zdolności różnych modeli AI i wykorzystał cały ten aparat fałszu w celu napuszczenia na siebie ludzi i wywołania atomowej zagłady. Zamiast jednak straszyć fantazją, która towarzyszy nam, od kiedy istniały powieści fantastyczne, warto przyjrzeć się temu, co sztuczna inteligencja już teraz robi z dziennikarstwem. I gdzie są faktyczne zagrożenia. Adaptuj się albo zgiń Pod koniec 2023 r. OpenAI, firma, która stworzyła słynny ChatGPT, ogłosiła podjęcie współpracy z gigantem na rynku prasy i mediów – Axel Springer. Jak tłumaczy notatka skierowana do mediów, to układ na skalę globalną i zwiastun nowej epoki w dziedzinie integrowania mediów i sztucznej inteligencji. Od teraz bowiem użytkownicy internetu korzystający z systemu ChatGPT, zadający mu pytania o sytuację na świecie, mogą uzyskać odpowiedź opartą na źródłach z tytułów należących do koncernu. Czyli m.in. globalnych redakcji Politico, „Business Insidera”, największych niemieckich marek „Bild” czy „Welt” (do Ringier Axel Springer w Polsce należą z kolei np. Onet i „Newsweek”). Algorytm ChatGPT będzie w stanie streszczać artykuły, także te dostępne w płatnych wersjach tytułów, i informować o świecie na podstawie treści niemieckich korporacji. Jedno z pierwszych pytań, jakie zadała sobie branża dziennikarska – bo przecież nie PR-owcy piszący korporacyjny komunikat – brzmiało tak: czy i na jakie honorarium mogą liczyć dziennikarze, których praca zostanie wykorzystana do karmienia modelu językowego, który docelowo może ich zastąpić? Odpowiedzi jeszcze nie ma, ale można zgadywać, że nikt nie pomyślał o tym, by firma dzieliła się zyskami z nowego projektu z tymi, których treści wciąż są niezbędne do jego działania. Wszak maszyna (na razie) nie miałaby czego streszczać i parafrazować, gdyby nie praca ludzi. A jak informował w marcu portal Deutsche Welle, korporacja redukuje etaty w redakcjach swoich największych tytułów, m.in. w „Bildzie” i „Welt”. W tym samym czasie, gdy firma poinformowała o zwolnieniach, jej prezes Matias Döpfner mówił do dziennikarzy, że „sztuczna inteligencja może uczynić kiedyś dziennikarstwo zbędnym”. Prezes Axel Springer przekonuje, że sprzeciw wobec innowacji „nigdy się nie sprawdza i prowadzi do upadku”. Gardzenie treściami wygenerowanymi przez automat jest wyrazem „kompleksów, oderwania od rzeczywistości i pychy, która każe myśleć, że człowiek zawsze poradzi sobie lepiej”. Słowem, wszyscy powinniśmy dostosować się do nowych realiów i wdrożyć do pracy z AI. W całej tyradzie Döpfnera zabrakło miejsca na refleksję nad rolą ludzi w branży i ich szansami na rozwój. Gdzie znajdą się ci, których wyparł algorytm? Informacyjny oligopol Jednak przekonanie, że sztuczna inteligencja zastąpi dziennikarzy,