Nowa metoda wykrywania deep fake’ów
Pomoże inżynieria wsteczna
Technologia deep fake nie daje spokoju naukowcom i właścicielom platform społecznościowych, na których zafałszowane obrazy mogą się wiralowo rozprzestrzeniać. Facebook we współpracy z naukowcami z Michigan State University (MSU) opracował nową metodę wykrywania podróbek. A konkretnie chce poznać źródła powstawania deep fake'ów. Mogłoby się to przyczynić do wykrywania zorganizowanych akcji służących dezinformowaniu opinii publicznej.
Obraz pokaże swojego twórcę
W opracowanej metodzie naukowej obrazy generowane przez sztuczną inteligencję są analizowane po to, by zidentyfikować model uczenia maszynowego, który je stworzył. Jak podkreślają badacze, każdy zafałszowany obraz ma zakodowany unikatowy „odcisk palca", który może doprowadzić do jego źródła. Co ważne, w ten sposób da się odkryć cechy (hiperparametry) także nowych, nieznanych modeli uczenia maszynowego (modeli generatywnych) wykorzystywanych do złych celów.
Jak wyjaśniono w blogu Facebooka, metodę określania tych cech za pomocą inżynierii wstecznej łatwiej zrozumieć przez porównanie do samochodu. Poszukiwany model generatywny to samochód, a hiperparametry to różne podzespoły silnika. Poszczególne samochody wyglądają podobnie, ale pod maską mają bardzo różne silniki z wieloma odmiennymi elementami. Zaproponowana przez naukowców technika polega na rozpoznawaniu komponentów samochodu na podstawie tego, jak on wygląda i brzmi, nawet jeśli jest to samochód, o którym nikt nigdy wcześniej nie słyszał.
100 000 obrazów deep fake
Zespół z MSU przetestował swoją metodę badawczą na zestawie 100 000 fałszywych obrazów wygenerowanych ze 100 publicznie dostępnych modeli generatywnych. Każdy z tych 100 modeli powstał w ramach projektów open source, z których może korzystać cała społeczność naukowa. Niektóre z nich już wytworzyły własne bazy fake newsów – wtedy zespół z MSU wybierał losowo 1000 obrazów. Jeśli takich podróbek jeszcze nie było, badacze uruchamiali udostępniony kod, by wygenerować 1000 zdjęć.
Tak utworzona baza stała się poligonem testowym dla nowej metody wykorzystującej inżynierię wsteczną, czyli analizę od pojedynczego obrazu wygenerowanego przez sztuczną inteligencję do modelu ogólnego, generatywnego, który zastosowano do wytworzenia podróbki. Metoda ta odkrywa unikatowe wzorce kryjące się za modelem sztucznej inteligencji użytym do wygenerowania konkretnego deep fake'a.
Podobieństwa między wzorcami serii deep fake'ów mogą doprowadzić do stwierdzenia, że pochodzą one z jednego źródła. W ten sposób da się ujawnić skoordynowane akcje dezinformacji lub innych złośliwych ataków.
Więcej na temat metody można przeczytać w blogu Facebooka.
fot. Edward Webb – Wikimedia Common, CC BY-SA 2.0