Era fabrykowania rzeczywistości

Era fabrykowania rzeczywistości

Boimy się, że sztuczna inteligencja odbierze nam pracę. Dużo większym zagrożeniem jest dezinformacja – Wchodzimy w erę, w której nasi wrogowie mogą wmówić nam, że dowolna osoba powiedziała dowolną rzecz, i to w dowolnym czasie. Nawet gdyby ten ktoś nigdy by tego nie zrobił. Nasi wrogowie mogą sprawić, że mógłbym teraz powiedzieć (…), że Donald Trump to dupek. Widzicie, nigdy nie powiedziałbym takich rzeczy, przynajmniej nie w wystąpieniu publicznym, ale mógłby to zrobić ktoś taki jak komik Jordan Peele. To niebezpieczny czas. Musimy być dziś bardzo czujni w stosunku do tego, jakim treściom w internecie ufamy – mówi na nagraniu w serwisie YouTube były prezydent USA Barack Obama. Okazuje się jednak, że to iluzja wytworzona za pomocą sztucznej inteligencji. Wszystkie zacytowane słowa podkłada amerykański satyryk Jordan Peele, który z wykorzystaniem technologii deepfake chciał przestrzec przed nią świat, a przede wszystkim amerykańskie służby. Filmik Peele’a ukazał się w 2018 r. i dla wielu nawet obecnie może pozostawać jedynie ciekawostką, lecz ostatni rok pokazał, że sztuczna inteligencja ma ogromne możliwości generowania autentycznie wyglądających treści, które nie mają nic wspólnego z rzeczywistością. Wystarczy przypomnieć fałszywe zdjęcia z zatrzymania Donalda Trumpa przez policję czy papieża Franciszka w absurdalnie wyglądającej kurtce Balenciagi. Powinniśmy dzisiaj bać się nie tego, że AI odbierze ludziom pracę, tylko tego, że jako globalne społeczeństwo możemy stracić pojęcie „faktu”, tonąc powoli w fałszywych treściach generowanych przez algorytmy. Brzmi to jak fantastyka naukowa, a przecież wystarczy cofnąć się o rok, aby zobaczyć, że po części już w tej wizji żyjemy. W połowie marca 2022 r., czyli dwa tygodnie po ataku Rosji na Ukrainę, w mediach społecznościowych pojawiło się nagranie prezydenta Zełenskiego ogłaszającego kapitulację Ukrainy, oddającego Donbas Rosji i wzywającego obywateli do zaprzestania walk. Film był oczywiście fałszywką, w dodatku nieudolnie spreparowaną (Zełenski z nagrania jest wyższy niż w rzeczywistości, ma szersze ramiona, nie zgadza się też kolorystyka i oświetlenie pomieszczenia). Nie zmienia to faktu, że ktoś włamał się na serwery jedynej nadającej wtedy w Ukrainie stacji telewizyjnej Ukraina24 i próbował zmienić losy wojny tym podrobionym wystąpieniem. Technologia Termin deepfake wziął się prawdopodobnie od nazwy użytkownika DeepFakes, który pod koniec 2017 r. opublikował na portalu Reddit kilka filmów pornograficznych z najpopularniejszymi wtedy gwiazdami Hollywood. Oczywiście filmy były fałszywkami, choć wyglądały zaskakująco realistycznie. DeepFakes użył sztucznej inteligencji, dzięki której dokleił aktorkom porno twarze gwiazd srebrnego ekranu. Oprócz filmów DeepFakes opublikował kod źródłowy do algorytmu, dzięki któremu osiągnął pokazany na forum Reddita efekt. Dlatego deepfake’a może teraz zrobić każdy za pomocą ogólnodostępnych w sieci programów. Słowo deepfake stanowi zbitkę angielskich wyrazów: deep learning od podkategorii uczenia maszynowego i fake od fałszu. W skrócie, technologicznie deepfake to nowoczesny sposób obróbki nagrań wideo lub audio oparty na sztucznej inteligencji. Program uczy się naśladować i odtwarzać mimikę danej osoby, jej głos, ruchy, intonację, a nawet rodzaj używanego słownictwa. Wszystko na podstawie zbioru zdjęć, filmów i dźwięków dostarczonych algorytmom. Bardzo często oszuści tworzący materiały typu deepfake wykorzystują autentyczne nagrania, które łączą ze sztucznie wygenerowanym obrazem. To wszystko sprawia, że łatwo sfabrykować materiał, którym można zmanipulować opinię publiczną. – Jako użytkownicy mamy spore szanse rozpoznać filmy z technologią deepfake. Przede wszystkim potrzebujemy krytycznego myślenia i czasu. Musimy na chwilę się zatrzymać i zwrócić uwagę na kilka szczegółów. Po pierwsze, czy ruch ust jest zsynchronizowany z tym, co słyszymy. Po drugie, czy osoba porusza się w sposób naturalny. Twórcy takich filmów często korzystają z niewiedzy użytkowników. Jeśli nie oglądamy regularnie np. wystąpień jakiegoś polityka, łatwiej nas nabrać na dobrze zrobiony deepfake, bo trudniej nam zauważyć odstępstwa od normy w zachowaniu danej osoby. Warto też sprawdzać w dodatkowym źródle kontekst wystąpienia, czy ktoś rzeczywiście powiedział to, co widzieliśmy na filmie – wyjaśnia Kinga Klich z organizacji Demagog zajmującej się walką z dezinformacją. Właśnie ten ostatni czynnik zadecydował o tym, że na film z Zełenskim poddającym Ukrainę mało kto się nabrał. Prezydent występował w tamtym

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.
Aby uzyskać dostęp, należy zakupić jeden z dostępnych pakietów:
Dostęp na 1 miesiąc do archiwum Przeglądu lub Dostęp na 12 miesięcy do archiwum Przeglądu
Porównaj dostępne pakiety
Wydanie: 2023, 29/2023

Kategorie: Technologie