Witaj w świecie deepfakeów
Nie wierzysz własnym oczom? Masz rację. Aplikacje sterowane przez sztuczną inteligencję generującą fałszywe nagrania wideo, które wyglądają uderzająco realistycznie, zalewają cyfrowy świat. I to od kilku lat. Co rusz głośno o kolejnym manipulującym rzeczywistość deepfake’u. Ostatnio za sprawą Toma Cruise’a i aplikacji TikTok.
Na tej platformie społecznościowej ukazał się film, na którym znany aktor gra w golfa i przechadza po domu. Nie było to zbyt zaskakujące – w obecnej sytuacji epidemiologicznej aplikacja pełni funkcję czerwonego dywanu, na którym gwiazdy Hollywoodu, które utknęły w domu, mogą znów przez moment zabłysnąć. Problem jednak w tym, że Tom Cruise żadnego filmu na TikToku nie umieszczał…
Zagadka znalazła swoje rozwiązanie. Bijący rekordy popularności materiał wideo okazał się efektem współpracy belgijskiego artysty od efektów wizualnych Christophera Ume’a i Milesa Fishera, aktora oraz muzyka. Panowie pracowali już razem wcześniej – Ume umieścił na sylwetce Fishera twarz Cruise'a w filmie przedstawiającym fikcyjną kampanię aktora na prezydenta Stanów Zjednoczonych w 2020 roku.
Jednak tajemnicze konto na TikToku DeepTomCruise nie było planowane. – Fisher skontaktował się ze mną ponownie i powiedział: „Zróbmy zabawny film… Sfilmuję się w swoim ogrodzie, a Ty potem zrobisz ze mnie Toma Cruise’a – opowiadał Ume magazynowi „The Guardian”. Dwa dni później Fisher przesłał artyście zrzut ekranu z TikToka: „Stary. Dwa i pół miliona wyświetleń!” – napisał.
Ogromny postęp jakości fałszywych produkcji wideo nastąpił dzięki modelowi generatywnemu z siecią-adwersarzem (Generative Adversarial Network, GAN), który zestawia ze sobą dwa algorytmy sztucznej inteligencji. Te konkurujące ze sobą głębokie sieci neuronowe trenowane są na prawdziwych obrazach. Następnie rozpoczyna się część współzawodniczenia, w której udział bierze jedna sieć generująca obrazy (nazywana generatywną) i druga – sieć dyskryminująca – próbująca określić, czy obraz jest prawdziwy, czy fałszywy. Sieć generatywna uczy się na podstawie osiągniętego wyniku, a dyskryminująca dowiaduje się, jak zwiększyć swoją skuteczność. Z każdym cyklem obie sieci są coraz lepsze. Po kilku milionach takich cykli szkoleniowych GAN wie, jak wygenerować fałszywy obraz, którego równie zaawansowana sieć neuronowa nie będzie mogła odróżnić od prawdziwego.
Efekt w praktyce może wyglądać tak przekonująco jak na tym filmiku:
Materiał ten, przygotowany przez aktora Jima Meskimena, znanego z pracy lektora w produkcjach wideo, oraz artystę o nicku Sham00k, profesjonalnie tworzącego deepfake’i, doskonale ilustruje, jak wygląda manipulacja treścią wideo. W produkcji wykorzystano twarze 20 celebrytów, a jej opracowanie zajęło 250 godzin i wygenerowało blisko 1 terabajt danych. Jak widać, z jednej strony przygotowanie dobrego sfałszowanego filmiku to niemały i kosztowny wyczyn. Z drugiej – patrząc na potencjalne efekty, jaki może przynieść taka produkcja: masowe rozpowszechnianie nieprawdziwych informacji na dowolny temat, zniszczenie reputacji konkretnej osoby czy nawet sfałszowane wyniki wyborów —jest to proces zadziwiająco łatwy do osiągnięcia i niedrogi.
Wiele imitacji z udziałem polityków próbuje oszukać odbiorców, jednak są też takie, które są tylko parodią i niczym więcej. Hitem stała się przeróbka wideo zatytułowana „Better Call Trump”, w której twarz Saula Goodmana z serialu „Breaking Bad” zastąpiono twarzą Donalda Trumpa. W tej niezwykle sugestywnej podróbie Saul wyjaśnia młodemu Jessiemu Pinkmanowi, w jaki sposób działają pralnie brudnych pieniędzy. Parodia jest o tyle zabawna, że byli pracownicy Deutsche Banku twierdzili, że niektóre firmy prowadzone przez Trumpa mogły być zamieszane w proceder prania brudnych pieniędzy.
Siłę, z jaką sfabrykowane materiały wideo mogą manipulować ludźmi, pokazuje przypadek Włoszki Nancy Pelosi, mówczyni Izby Reprezentantów Stanów Zjednoczonych. Jest on o tyle ciekawy, że tym razem nie mieliśmy do czynienia z wyrafinowaną produkcją wygenerowaną przez GAN-y, a po prostu nagraniem z konferencji puszczonym w tempie zwolnionym o 25 procent. Przez ten prosty zabieg polityk sprawia wrażenie jakby bełkotała pod wpływem alkoholu lub była chora. Filmik z jej przemową został opublikowany na profilu Politics Watchdog na Facebooku, gdzie zyskał ponad 2,5 miliona wyświetleń, i szeroko rozpowszechniony w internecie. W tym również przez byłego burmistrza Nowego Jorku Rudy'ego Giulianiego, który napisał na Twitterze: „Co jest nie tak z Nancy Pelosi? Mówi w dziwny sposób”.
Jednym z najświeższych osiągnięć nauki na tym polu jest sprytny sposób wykrywania deepfake’ów opracowany przez zespół informatyków z Uniwersytetu w Buffalo pod przewodnictwem dr Siweia Lyu. Naukowiec pomagał Facebookowi opracować narzędzia do globalnego wykrywania fałszywych materiałów oraz Deepfake-o-meter – zasób online pomagający przeciętnemu człowiekowi sprawdzić, czy obejrzany przez niego film jest w rzeczywistości spreparowany.
Która z tych osób jest fałszywa? Odpowiedź: wszystkie
źródło: www.thispersondoesnotexist.com i Uniwersytet w Buffalo.
Nowa metoda wykrywania sfabrykowanych produkcji polega na obserwacji i analizie odbić obrazu w oczach. Okazuje się, że sztuczna inteligencja tworząca fałszywe nagrania i obrazy jest zaskakująco nieefektywna w generowaniu obrazów postaci odbijających się w oczach. – Na zdjęciu prawdziwej twarzy wykonanym aparatem odbicie w obu oczach będzie takie same – mówi dr Siwei Lyu. Jednak obrazy syntetyzowane przez GAN zazwyczaj nie są w stanie dokładnie uchwycić tego podobieństwa. Dzięki temu wynalazek amerykańskich naukowców może znajdować takie nieścisłości, a dzięki temu wykrywać zmanipulowane materiały – z bardzo dobrymi wynikami. W testach na zdjęciach portretowych narzędzie to wykazywało 94-procentową skuteczność w wykrywaniu obrazów spreparowanych przez oprogramowanie . Aby przeprowadzić eksperymenty, zespół badawczy uzyskał prawdziwe obrazy z bazy danych ludzkich twarzy Flickr Faces-HQ, a także fałszywe obrazy z www.thispersondoesnotexist.com – repozytorium twarzy wygenerowanych przez sztuczną inteligencję, które mimo że wyglądają jak żywe, w rzeczywistości są wygenerowane maszynowo.
Niestety, nowy system wykrywania fałszerstw ma kilka ograniczeń. Najbardziej oczywistą wadą narzędzia jest to, że opiera się na odbiciu źródła światła w obu źrenicach. Niespójności w tych wzorach można naprawić za pomocą ręcznego przetwarzania końcowego, a jeśli jedno oko nie jest widoczne na obrazie, metoda nie zadziała. Poza tym system jest skuteczny tylko w przypadku zdjęć portretowych. Jeśli twarz na zdjęciu nie patrzy w obiektyw, narzędzie prawdopodobnie wygeneruje fałszywe alarmy. Amerykanie pracują obecnie nad poprawą skuteczności metody. Choć w swojej obecnej postaci system nie wykryje najbardziej wyrafinowanych deepfake'ów, jednak nadal może poradzić sobie z wieloma bardziej prymitywnymi. A tych jest w sieci najwięcej. Osiągnięcie informatyków z Buffalo daje nam nieco nadziei, że prędzej czy później uda się wynaleźć metodę „rozbrajania” nieautentycznych zdjęć i filmów. I wtedy to co, widzimy w sieci będzie tym, co jest naprawdę.
Olga Wasiuta, Sergiusz Wasiuta, "Deepfake jako skomplikowana i głęboko fałszywa rzeczywistość", Annales Universitatis Paedagogicae Cracoviensis, Studia de Securitate 9(3) (2019), Uniwersytet Pedagogiczny w Krakowie, [dostęp: 23.03.2001]
Ilona Dąbrowska, "Deepfake, nowy wymiar internetowej manipulacji", Zarządzanie Mediami, Tom 8, Numer 2, Uniwersytet Marii Curie-Skłodowskiej w Lublinie 2020, [dostęp: 23.03.2001]
Mirosław Mamczur, Deepfake – co to takiego i jak go zrobić?, blog Miroslawmamczur.pl, [dostęp: 23.03.2001]
Hilke Schellmann, "Deepfake Videos Are Getting Real and That’s a Problemtream explores the dark side of sophisticated video fakery", serwis internetowy „The Wall Street Journal”, [dostęp: 23.03.2001]
Łukasz Kruczkowski, "FakeApp – czy powinniśmy obawiać się aplikacji, która z każdego może zrobić gwiazdę filmów dla dorosłych?", serwis Komputerswiat.pl, [dostęp: 23.03.2001]
Alex Drozhzhin, "Jak rozpoznać filmy zwane deepfake’ami", blog firmy Kaspersky, [dostęp: 23.03.2001]
Melvin Bankhead III, "How to spot deepfakes? Look at light reflection in the eyes", materiały prasowe Uniwersytetu w Buffalo, [dostęp: 23.03.2001]
Joseph Foley, "12 deepfake examples that terrified and amused the internet", [dostęp: 23.03.2001]