Sztuczny bohater nie mruga

Sztuczny bohater nie mruga

Sekstaśma, której nie było, czyli manipulacje inteligentnych maszyn

Pierwszy raz temat manipulowania obrazem wideo na bazie sztucznej inteligencji, zwany DeepFake, wyszedł poza fora internetowe i trafił do głównego nurtu dyskusji publicznej w zeszłym roku, gdy ofiarą manipulacji padła Gal Gadot. Izraelska gwiazda filmowa i modelka, znana z głównej roli w serii filmów na bazie komiksów wydawnictwa Marvel o superbohaterce Wonder Woman, na chwilę zmieniła się w gwiazdę filmów pornograficznych. W lipcu 2017 r. w sieci pojawiło się jednocześnie kilka materiałów, w których aktorka łudząco podobna do Gadot, uprawia seks z mężczyzną podającym się za jej przyrodniego brata. Przeciętny użytkownik internetu mógłby pomyśleć, że to po prostu kolejna wpadka gwiazdy, następna sekstaśma „przypadkiem” wypuszczona do sieci lub wykradziona przez hakerów z chmury danych, jak było w przypadku Jennifer Lawrence. Tu było inaczej. W filmie wszystko okazało się manipulacją. Seks uprawiała aktorka porno, na której twarz nałożono wizerunek Gal Gadot za pomocą danych przepuszczonych przez sztuczną inteligencję.

Na tym mniej więcej polega DeepFake. Termin jest zbitką popularnych w ostatnich latach terminów: fake newsdeep learning. Pierwszy z nich dotyczy manipulacji faktami i informacjami, zwłaszcza w mediach społecznościowych i w sieci. Drugi odnosi się do jednej z technik uczenia maszynowego, wykorzystującej ogromne ilości danych na konkretny temat do „nauczenia” komputera zachowywania się w konkretny sposób lub osiągnięcia wyznaczonego celu. DeepFake wykorzystuje oba te zjawiska, tworząc coś na kształt wyrafinowanej manipulacji informacyjnej na bazie sztucznej inteligencji i faktów. W przypadku fałszywych materiałów wideo proces ten jest dziecinnie prosty do zrozumienia, choć trudny i czasochłonny dla autorów manipulacji.

Po wybraniu osoby, którą chcemy wkleić do nieprawdziwej sceny, musimy zebrać odpowiednią ilość danych o jej wyglądzie. Mówiąc prościej, oprogramowanie reprodukujące twarz ofiary musi zostać „nakarmione” jej prawdziwym wyglądem. W tym celu pobiera tysiące, o ile nie dziesiątki tysięcy zdjęć, na których znajduje się ta osoba. Im więcej danych, tym lepiej, bo zwiększa to dokładność reprodukcji. Ma to również wpływ na późniejsze produkcje z użyciem danego programu, jedną z podstawowych cech uczenia maszynowego jest bowiem samodoskonalenie się oprogramowania przy każdym kolejnym zadaniu. Tak więc komputer dostaje pożywkę w postaci oryginalnych zdjęć, analizując je pod kątem nie tylko fizjonomii twarzy, ale też mimiki, wyrażania emocji, sposobu uśmiechania się, aż po najdrobniejsze szczegóły, jak synchronizacja ruchu warg z gestykulacją, czy oświetlenie poszczególnych partii twarzy w zależności od pozycji i jej wyrazu. W ten sposób powstaje kopia ofiary, którą komputer wkleja na twarz rzeczywistego aktora już w czasie nagrywania filmu.

Innymi słowy, „prawdziwy” film tak naprawdę nigdy nie powstaje. Jedyny materiał, jaki jest zarejestrowany przez kamerę i oprogramowanie, to już gotowy DeepFake.

Gal Gadot była pierwszą ofiarą takiej manipulacji w świecie celebrytów. I choć kłamstwo odkryto w miarę szybko, spreparowany materiał wywołał panikę w Hollywood i nie tylko. Ponieważ, jak wiadomo, w internecie nic nie ginie, wideo z udziałem Gadot wciąż jest dostępne na kilkunastu stronach z filmami dla dorosłych. Co więcej, Wonder Woman okazała się wdzięcznym materiałem do ćwiczenia sztucznej inteligencji, filmów z jej udziałem w sieci można bowiem znaleźć co najmniej 10. Te nowsze zostały już wyprodukowane przy użyciu większej bazy danych i komputerów o wyższej mocy obliczeniowej. Twarz „bohaterki” dużo bardziej przypomina izraelską celebrytkę, klatki są spójniejsze, a film płynniejszy. Kolekcja DeepFake’owych filmów erotycznych z Gal Gadot znajduje się m.in. na stronie mrdeepfake.com, w której logotypie widnieje postać… Donalda Trumpa.

DeepFake to nie tylko zagrożenie dla prywatności gwiazd. To również bardzo zaawansowana i skuteczna broń w politycznej wojnie informacyjnej. Skoro można manipulować obrazem, można też dźwiękiem, a co za tym idzie – wypowiedziami polityków. Jeśli twarze celebrytek doklejane są do nagich ciał aktorek porno, komputerowo wygenerowane podobizny prezydentów czy premierów równie łatwo dodać do ciał siedzących w garniturach aktorów, czytających z promptera tekst o deklaracji wojny czy rzucających poważne oskarżenia polityczne. O ile prym w DeepFake wśród celebrytów wiodła Gal Gadot, w kategorii światowych przywódców o pierwszeństwo rywalizują Władimir Putin, Barack Obama i George W. Bush. Zwłaszcza poprzedni prezydent USA okazał się dobrym materiałem na bohatera filmów stworzonych za pomocą sztucznej inteligencji. W jednej z takich produkcji, będącej jednak parodią, w nieparlamentarnych słowach ocenia Donalda Trumpa i innych republikańskich polityków, m.in sekretarza do spraw mieszkalnictwa, byłego kandydata na prezydenta Bena Carsona. Łatwo jednak wyobrazić sobie skutki podobnej manipulacji, gdyby stworzona ona została nie dla żartu, ale żeby wywołać przerażenie i dezorientację.

Takie cele przyświecały z kolei twórcom fałszywego wideo z konwencji wyborczej demokratów, na której sztucznie wykreowana Hillary Clinton przyznawała się do korupcji czy ignorowania zasad bezpieczeństwa w komunikacji internetowej. Podobnie jak w przypadku rzekomej sekstaśmy Gadot wideo z byłą sekretarz stanu było słabej jakości, a twarz daleka od pierwowzoru, ale jeśli proces uczenia maszynowego zacznie postępować, każda kolejna produkcja będzie lepsza. Dlatego już teraz DeepFake stanowi zagrożenie dla wiarygodności przekazów telewizyjnych i internetowych. Pytanie, czy redakcje i odbiorcy informacji na świecie będą umieli skutecznie się obronić przed tą formą manipulacji. Doświadczenia z fake newsami w internecie pokazują, że szanse na to są niewielkie. Tempo rozwoju technologii jest znacznie szybsze niż zmiany w modelach pracy zespołów prasowych czy tworzenie regulacji prawnych zwalczających i karzących za manipulację.

Obecnie wydaje się, że skuteczne demaskowanie wideo DeepFake możliwe jest tylko za pomocą innych systemów opartych na sztucznej inteligencji, działających jednak w dobrej wierze. Odkrywanie kłamstwa jest możliwe dzięki pewnej formie odwróconej inżynierii, w której „dobre” oprogramowanie stara się przynajmniej częściowo rozłożyć na pojedyncze klatki sztucznie wygenerowane wideo. Niestety, ta metoda jest mało praktyczna, bo odwrócona inżynieria wymaga lepszego oprogramowania i większej mocy obliczeniowej niż użyta przy tworzeniu pierwszego materiału.

Na ratunek w walce z maszynami, jak często odbywa się to w naszym świecie, przyszło jednak ludzkie oko. Prof. Siwei Lyu z Nowojorskiego Uniwersytetu Stanowego w Albany prowadzi zespół badawczy demaskujący DeepFake poprzez znajdywanie niedociągnięć w humanizacji komputerowych tworów. Profesor zauważył, że bohaterowie DeepFake niemal nigdy nie mrugają. Sztuczny obraz powstaje na podstawie zdjęć, czyli statycznych ujęć danej osoby. Nie rejestruje zatem ruchu. Trudno też o zdjęcia, na których przyszła ofiara miałaby zamknięte oczy czy mrugała – co więcej, musiałaby to być cała sekwencja zdjęć, a nie jedna klatka.

Innym parametrem możliwym do zanalizowania gołym okiem są różnice w karnacji, często wprowadzające maszynę w błąd, bo zdjęcia służące jako materiał źródłowy robione są przy różnym naświetleniu i sprzętem różnej jakości.

Defektów tego typu, możliwych do wyłapania gołym okiem, jest jednak zaledwie kilka. Co więcej, z czasem będą one zanikać, aż komputer nauczy się perfekcyjnie imitować twarz ofiary manipulacji – na tym polega przecież istota uczenia maszynowego. Wszystko wskazuje zatem, że odróżnić prawdę od kłamstwa będzie coraz trudniej. Wojna informacyjna wkroczyła na nowy poziom – zdominowany przez maszyny i nieosiągalny dla ludzi, choć to oni jak zwykle stracą najwięcej.

Fot. YouTube.com

Wydanie: 35/2018

Kategorie: Nowe Technologie

Napisz komentarz

Odpowiedz na treść artykułu lub innych komentarzy