A A A

Film porno w sekundę

Fałszywe nagrania wideo, które wyglądają uderzająco realistycznie, są szokująco łatwe w produkcji. Katarzyna Bielińska


W świecie deepfake’ów nie ma granic. Angelina Jolie może wysłać Ci buziaka, a prezydent Duda na Twoje życzenie zarapować jak Taco Hemingway. Możesz zobaczyć siebie samego grającego w filmie lub telewizji obok Twoich ulubionych aktorów. Albo podejrzeć, jak tańczy na rurze twój najlepszy przyjaciel, szef czy sklepikarka, u której codziennie kupujesz chleb.

Deepfake’i, czyli wygenerowane przez sztuczną inteligencję fałszywe nagrania wideo, które wyglądają uderzająco realistycznie, zalewają cyfrowy świat od czterech lat. Dokładnie od momentu, kiedy to w serwisie Reddit użytkownik o nicku deepfakes opublikował kilka fałszywych filmów pornograficznych, zastępując twarze aktorów twarzami celebrytów: Daisy Ridley, Emmy Watson, Gal Gadot i Scarlett Johansson.



Jeszcze jakiś czas temu kontrowersyjne podróbki wideo dotyczyły głownie osób publicznych. Media smakowały nagrania, w których Barack Obama w stylu niespotykanym u byłego prezydenta nazwał Donalda Trumpa „totalnym dnem”,


źródło: YouTube

a Mark Zuckerberg w przerażającej w przekazie fałszywce mówił: „Wyobraźcie sobie: jeden człowiek mający absolutną kontrolę nad skradzionymi danymi miliardów ludzi, wszystkimi ich tajemnicami, życiem, przyszłością…”.


źródło: YouTube

Jeszcze jakiś czas temu spreparowanie tak uderzająco realistycznych filmów wymagało hollywoodzkiego studia lub przynajmniej niezwykle wydajnego komputera z potężnymi kartami graficznymi lub – najlepiej – mocą obliczeniową w chmurze. Oprócz specjalistycznego sprzętu niezbędna była jednak przede wszystkim wiedza, która umożliwiałaby retusz ukończonych filmów czy wyeliminowanie wad wizualnych, np. nienaturalnego mrugania powiekami postaci.



Dziś sytuacja wygląda zgoła inaczej. Niespełna dwa lata temu pojawiły się aplikacje, dzięki którym dysponując zdjęciem źródłowym i praktycznie zerową wiedzą techniczną można w udany sposób zmapować własną twarz na twarzy celebryty i na tej podstawie przygotować klip wideo. A wymagania sprzętowe? Cóż, smartfon w zasadzie wystarczy…

Bądź jak DiCaprio

Reface, jedna z najbardziej popularnych apek do produkcji fałszywych wideo, została opracowana przez ukraiński startup i szybko trafiła na czołowe miejsca w AppStorze, w pewnym momencie deklasując nawet TikToka, Netfliksa i Disneya. To zmyślne narzędzie umożliwia wstawienie swojej twarzy zamiast twarzy aktora w ulubionym filmie, klipie, memie, gifie czy dziele sztuki. Dzięki temu przez moment możemy wyglądać jak Leonardo DiCaprio, Ariana Grande, Rambo, Hobbit czy Mona Lisa – co kto lubi.

Silniki Reface pracują przy użyciu generatywnych sieci współzawodniczących (Generative Adversarial Network, GAN), które zestawiają ze sobą dwa algorytmy sztucznej inteligencji. Te generatywne sieci antagonistyczne trenowane są na prawdziwych obrazach. W tym przypadku wystarczą dwa materiały wejściowe – selfie i docelowy film. Po ich dostarczeniu rozpoczyna się część współzawodniczenia, w której udział bierze jedna sieć generująca obrazy (nazywana generatywną) i druga – sieć dyskryminująca – próbująca określić, czy obraz jest prawdziwy, czy fałszywy. Sieć generatywna uczy się na podstawie osiągniętego wyniku, a dyskryminująca dowiaduje się, jak zwiększyć swoją skuteczność. Z każdym cyklem obie sieci są coraz lepsze. Po kilku milionach takich cykli szkoleniowych GAN wie, jak utworzyć fałszywy obraz, którego równie zaawansowana sieć neuronowa nie będzie mogła odróżnić od prawdziwego.

Efekt bywa zabawny – tak jak na przykład filmik, w którym Jennifer Aniston wciela się w Rambo. Ta filmowa psota jest pocieszna akurat na tyle, by zgarnąć kilkanaście lajków lub udostępnień na Facebooku czy sprawić, że jej twórca stanie się na chwilę obiektem uwagi na domowej imprezie.


źródło: YouTube

Mona Liza mówi z obrazu

Sądząc po tempie, w jakim rośnie zainteresowanie aplikacją Reface (ponad 100 milionów pobrań w 2021 roku), deepfake’owy hand made w domowym zaciszu nigdy nie miał się lepiej. Ukraiński produkt nie jest oczywiście jedyny – do wyboru mamy m.in. takie programy jak FaceApp, DeepFaceLab, Reflect: Realistic Face Swap, Morphin czy Faceswap – prosty program używany przez użytkowników do zamiany twarzy w filmie w czasie rzeczywistym za pomocą kamery smartfonu.

Przy udziale metody deepfake może być fałszowany nie tylko materiał wideo czy zdjęcia (nieistniejąca dziennikarka Bloomberga, Maisy Kinsley, która miała profil w serwisie LinkedIn i na Twitterze, była prawdopodobnie deepfakiem…), ale również dźwięk. Co więcej, możliwe jest nie tylko tworzenie klonów głosu osób publicznych, ale także zabawa w przerabianie scen filmowych i klipów, tak by gwiazdy czy postać z dzieła sztuki (np. Mona Liza czy Dziewczyna z perłą z obrazu Jana Vermeera) wypowiadały dowolny tekst twoim głosem.


źródło: YouTube

Media tkane z syntetyków

Syntetyczne media, bo taką niewinną nazwę zyskały sfałszowane treści audio i wideo, są dziś tworzone przez wszystkich – od specjalistów od efektów wizualnych w przemyśle filmowym przez producentów porno i naukowców badających deepfake’i po entuzjastów-amatorów. I to z całkiem dobrymi efektami i na skalę nigdy wcześniej niespotykaną. Eksperci zajmujący się ta techniką twierdzą, że proces tworzenia deepfakae’ów jest dziś na tyle zaawansowany, że zwykli odbiorcy mają trudności z odróżnieniem wielu fałszywych nagrań od prawdziwych.

W dodatku autorzy aplikacji do tworzenia fałszywych nagrań swoje produkty sprzedają pod płaszczem świetnej rozrywki. Tak zresztą formułowane są komunikaty sprzedażowe tego typu narzędzi: „Chcesz włożyć nowe słowa w usta polityka, zagrać w ulubionym filmie lub zatańczyć jak zawodowiec? Nadszedł czas na wykonanie deepfake’a!” – kuszą apki na cyfrowych półkach Google Play czy AppStore’a.

Program do deepfake'ów
źródło: Reface

Cały świat się bawi nową zabawką, a o tym, że tworzenie i wypuszczanie w cyfrowy świat fałszywych nagrań to stąpanie po bardzo cienkim lodzie mówią jedynie prawnicy i co bardziej wnikliwi obserwatorzy cyfrowej rzeczywistości. Tacy jak działacze z Fundacji Panoptykon, którzy nazywają rzecz po imieniu, podkreślając, że sfałszowane wideo ukazujące prawdziwe osoby w nieprawdziwym kontekście to jedna z najbardziej zaawansowanych, a przez to najgroźniejsza forma manipulacji informacją.

To jasne, że z biegiem czasu możemy spodziewać się coraz większej liczby coraz bardziej doskonałych deepfake’ów. Zdają sobie z tego sprawę rządy, uniwersytety i przedsiębiorstwa finansujące i prowadzące badania mające na celu wykrywanie cyfrowych podróbek. Oczywiste jest, że metoda pozwalająca każdemu spreparować dowolny materiał wideo, w którym pojawiają się znane postaci, takie jak np. były prezydent USA Donald Trump czy były kanclerz Niemiec Angela Merkel, wypowiadające się na dzielące opinię publiczną tematy, może sporo namieszać w światowej polityce. Podobnie jak sfałszowane obrazy satelitarne żołnierzy gromadzących się na granicy…

Bohaterzy porno

Jednak rzadko wystarcza nam wyobraźni, by pomyśleć, że deepfake’i mogą zaszkodzić również nam – w codziennym życiu. Cóż, chyba nikt nie chciałby stać się bohaterem wiralowego porno, przekazywanego przez znajomych na Facebooku. A jest się nad czym zastanawiać – liczba spreparowanych przez sztuczną inteligencję materiałów pornograficznych podwaja się w internecie mniej więcej co sześć miesięcy, a ofiarą deepfake’owych „figlarzy” padają miliony kobiet na całym świecie.

Dostępność fałszywych nagrań może oznaczać kłopoty dla sądów (szczególnie w bataliach o opiekę nad dziećmi) i sądach pracy, gdzie mogą być wprowadzane jako dowód. To, że cyfrowe podróbki mogą naśladować dane biometryczne i oszukiwać systemy, które opierają się na rozpoznawaniu twarzy, głosu lub sposobu chodzenia to pewnie jeszcze pieśń przyszłości... Jednak już teraz coraz powszechniejsze są oszustwa z udziałem fałszywych nagrań. Szef brytyjskiej filii niemieckiej firmy energetycznej wpłacił prawie 200 000 funtów na węgierskie konto bankowe po tym, jak zadzwonił do niego naciągacz o głosie łudząco podobnym do tego, którym mówił niemiecki dyrektor… W podobnych oszustwach używano nagrane wiadomości głosowe z WhatsAppa.

Najbardziej chyba niebezpieczny wpływ deepfake’ów dotyczy spadku społecznego zaufania do tego, co widzimy i słyszymy w sieci. Liczba parodii, satyr, psot, ale i mistyfikacji będzie tak wielka, że świat prawdziwy ustąpi miejsca podróbie. A nie każdy lubi ubierać się w syntetyki.

Program do deepfake'ów
źródło: Reface

Bibliografia

Shane Raymond, Deepfake anyone? AI synthetic media tech enters perilous phase, serwis internetowy Reuters.com, [dostęp: 21.01.22]
Anna Obem, Dorota Głowacka, Cięcie zasięgów gorsze niż cenzura? Jak Facebook udaje, że (nie)walczy z deepfake'ami, serwis internetowy Panoptykon.org, [dostęp: 21.01.22]
Ian Sample, AI-generated fake videos are becoming more common (and convincing). Here’s why we should be worried, serwis internetowy Theguardian.com, [dostęp: 21.01.22]
Sunny Dhillon, An optimistic view of Deepfakes, serwis internetowy Techcrunch.com, [dostęp: 21.01.22]
Natasza Lomas, Deepfake video app Reface is just getting started on shapeshifting selfie Culture, serwis internetowy Techcrunch.com, [dostęp: 21.01.22]
Simon Parkin, The rise of the deepfake and the threat to democracy, serwis internetowy Theguardian.com, [dostęp: 21.01.22]


Ocena:
Oceń:
Komentarze (0)

Redakcja nie ponosi odpowiedzialności za treść komentarzy. Komentarze wyświetlane są od najnowszych.
Najnowsze aktualności


Nie zapomnij o haśle!
21 czerwca 2022
Choć mogą się wydawać mało nowoczesne, hasła to nadal nie tylko jeden z najpopularniejszych sposobów zabezpieczania swoich kont, ale także...


Artykuły z wydań

  • 2024
  • 2023
  • 2022
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2012
  • 2011
  • 2010
  • 2009
  • 2008
  • 2007
Zawartość aktualnego numeru

aktualny numer powiększ okładkę Wybrane artykuły z PC Format 1/2022
Przejdź do innych artykułów
płyta powiększ płytę
Załóż konto
Co daje konto w serwisie pcformat.pl?

Po założeniu konta otrzymujesz możliwość oceniania materiałów, uczestnictwa w życiu forum oraz komentowania artykułów i aktualności przy użyciu indywidualnego identyfikatora.

Załóż konto