Strategie obrony przed deepfake AI
Technologia deepfake rozwija się w niespotykanym dotąd tempie, stanowiąc bezprecedensowe wyzwanie dla zaufania społecznego i bezpieczeństwa informacji. Ponieważ zdolność do zapobiegania rozprzestrzenianiu się deepfake zależy od kompleksowego zrozumienia technologii deepfake, niniejszy artykuł ma na celu zbadanie, jak zapobiegać technologii deepfake opartej na sztucznej inteligencji.
Silnik deepfake: analiza techniczna
Sercem deepfake jest model generatywny, typ sztucznej inteligencji, który może uczyć się na ogromnych zbiorach danych i generować realistyczne obrazy, filmy i audio. W ostatnich latach generatywne sieci przeciwstawne (GAN) ewoluowały w modele dyfuzyjne, które mają potężniejsze możliwości. Dlatego konieczna jest analiza techniczna tych silników generatywnych, aby stworzyć solidne ramy prewencji.
Gra rywalizacyjna: generatywne sieci przeciwstawne (GAN)
GAN składają się z dwóch sieci neuronowych: generatora i dyskryminatora. Zadaniem generatora jest tworzenie syntetycznych danych, które naśladują dane ze świata rzeczywistego. Zaczyna od losowego wejścia (często nazywanego wektorem utajonym) i próbuje przekształcić je w spójne wyjście. Z kolei dyskryminator działa jak klasyfikator, oceniając dane w celu ustalenia, czy są rzeczywiste (pochodzące z prawdziwego zbioru danych treningowych), czy sfałszowane (utworzone przez generator).
Proces szkolenia obejmuje ciągłą pętlę sprzężenia zwrotnego między dwiema sieciami, podobną do gry o sumie zerowej. Generator tworzy fałszywy obraz i przekazuje go dyskryminatorowi, który otrzymuje również prawdziwe obrazy ze zbioru treningowego. Następnie dyskryminator przewiduje autentyczność każdego obrazu. Jeśli dyskryminator poprawnie zidentyfikuje wyjście generatora jako sfałszowane, przekazuje on informację zwrotną. Generator wykorzystuje tę informację zwrotną poprzez propagację wsteczną, aby dostosować swoje wewnętrzne parametry, aby generować bardziej przekonujące obrazy w następnej iteracji. Jednocześnie dyskryminator dostosowuje własne parametry, aby lepiej wykrywać podróbki. Ta rywalizacja trwa do momentu, gdy system osiągnie punkt równowagi, zwany czasem równowagą Nasha, w którym wyjście generatora jest tak realistyczne, że dyskryminator nie może już wiarygodnie odróżnić go od prawdziwych danych i zgaduje z dokładnością około 50%.
GAN wykazały zdolność do skutecznego generowania syntetycznych mediów i stanowią podstawę wielu wpływowych modeli deepfake. Architektury takie jak głęboka konwolucyjna sieć GAN (DCGAN) wprowadziły kluczowe ulepszenia poprzez zastąpienie warstw poolingu i użycie normalizacji partii, co poprawiło stabilność. StyleGAN firmy NVIDIA i jego następcy, StyleGAN2 i StyleGAN3, osiągnęły niespotykany dotąd fotorealizm w generowaniu twarzy, naprawiając artefakty cech i rozwijając architekturę modelu. Inne warianty, takie jak CycleGAN, umożliwiły zadania transformacji stylu i dlatego są szeroko stosowane w aplikacjach takich jak Face App do zmiany wyglądu osoby pod względem wieku.
Pomimo swojej mocy GAN są znane z trudności w treningu. Delikatną równowagę między generatorem a dyskryminatorem można łatwo zaburzyć, co prowadzi do niestabilności treningu, powolnej konwergencji lub krytycznego trybu awarii zwanego \„załamanie trybu". Załamanie trybu następuje, gdy generator odkrywa słabość w dyskryminatorze i wykorzystuje ją, generując tylko ograniczony rodzaj wyjść, które wie, że mogą oszukać dyskryminator, uniemożliwiając uchwycenie prawdziwej różnorodności danych treningowych. Te nieodłączne wyzwania, wraz z subtelnymi artefaktami, które często wytwarzają, stały się głównymi celami dla wczesnych systemów wykrywania deepfake.
Odwrócenie chaosu: modele dyfuzyjne
Najnowsze technologie w generatywnej sztucznej inteligencji zdecydowanie przesunęły się w kierunku nowej klasy modeli: modeli dyfuzyjnych. Zainspirowane koncepcjami nierównowagowej termodynamiki, modele dyfuzyjne działają na zasadach fundamentalnie odmiennych od rywalizacji w GAN. Są to probabilistyczne modele generatywne, które mogą generować wyjątkowo wysokiej jakości i różnorodne dane, ucząc się odwracania procesu stopniowego uszkadzania.
Mechanika modelu dyfuzyjnego to proces dwufazowy:
Proces dyfuzji do przodu: Ta faza systematycznie i stopniowo dodaje małe ilości szumu Gaussa do obrazu w pewnym okresie czasu (np. T kroków). Jest to proces łańcucha Markowa, w którym każdy krok jest uwarunkowany poprzednim, stopniowo obniżając jakość obrazu, aż w końcowym kroku czasowym T stanie się on nie do odróżnienia od czystego, niestrukturalnego szumu.
Proces odwrotnego odszumiania: Sercem modelu jest sieć neuronowa (często wykorzystująca architekturę U-Net), która jest szkolona do odwracania tego procesu. Uczy się przewidywać szum dodany w każdym kroku czasowym w procesie do przodu i odejmować go. Po przeszkoleniu model może generować nowe obrazy wysokiej jakości, rozpoczynając od losowej próbki szumu i iteracyjnie stosując tę nauczoną funkcję \„odszumiania" wstecz w krokach czasowych, przekształcając chaos w spójną próbkę z oryginalnego rozkładu danych.
Ten iteracyjny proces udoskonalania umożliwia modelom dyfuzyjnym osiągnięcie poziomów fotorealizmu i różnorodności, które wyrównują się, a nawet pokonują najlepsze GAN. Są również znacznie bardziej stabilne w treningu niż GAN, unikając problemów takich jak załamanie trybu i generując bardziej niezawodne i różnorodne wyniki. Ta przewaga technologiczna sprawiła, że modele dyfuzyjne stały się podstawą najbardziej widocznych i wydajnych narzędzi generatywnej sztucznej inteligencji obecnie, w tym modeli tekst do obrazu, takich jak DALL-E 2 firmy OpenAI, Imagen firmy Google i Stable Diffusion firmy Stability AI, oraz modeli tekst do wideo, takich jak Sora firmy OpenAI. Szeroka dostępność i doskonała jakość wyjściowa tych modeli znacznie podniosły poprzeczkę zagrożenia związanego z deepfake.
Metody działania
Niezależnie od tego, czy jest to GAN, czy model dyfuzyjny, podstawowe silniki generatywne są stosowane za pomocą kilku określonych technik do tworzenia filmów deepfake. Metody te manipulują różnymi aspektami docelowego wideo, aby osiągnąć pożądany efekt oszustwa.
Realistyczne przeinterpretowanie: Technika ta polega na przenoszeniu mimiki twarzy, ruchów głowy i ruchów związanych z mową z postaci źródłowej na docelowy podmiot w filmie. Proces ten zwykle obejmuje trzy główne kroki: po pierwsze, śledzenie cech twarzy w filmach źródłowych i docelowych; po drugie, wyrównywanie tych cech z ogólnym modelem twarzy 3D przy użyciu miar spójności; i po trzecie, przenoszenie ekspresji ze źródła na cel, a następnie udoskonalanie w celu zwiększenia realizmu i spójności.
Synchronizacja ruchu warg: Techniki deepfake synchronizacji ruchu ust koncentrują się w szczególności na obsłudze mowy, wykorzystując przede wszystkim wejście audio do generowania realistycznych ruchów ust. Dźwięk jest przekształcany w dynamiczne kształty i tekstury ust, które są następnie starannie dopasowywane i mieszane z docelowym filmem, aby stworzyć iluzję, że docelowa postać wypowiada wejściowe dźwięki.
Synteza oparta na tekście: Ta bardzo subtelna metoda modyfikuje filmy w oparciu o skrypty tekstowe. Działa ona poprzez analizowanie tekstu na jego składniki fonemy (jednostki dźwiękowe) i wizemy (wizualne reprezentacje dźwięków mowy). Są one następnie dopasowywane do odpowiednich sekwencji w filmie źródłowym, a parametry trójwymiarowego modelu głowy są wykorzystywane do generowania i wygładzania ruchów warg, aby dopasować je do nowego tekstu, co pozwala edytować dosłownie to, co wydaje się mówić postać.
Ewolucja technologiczna od GAN do modeli dyfuzyjnych to coś więcej niż tylko stopniowe ulepszenie; to przesunięcie paradygmatu, które zasadniczo zmienia krajobraz strategii zapobiegania deepfake. GAN, choć potężne, mają znane słabości architektoniczne, takie jak niestabilność treningu i załamanie trybu, które często prowadzą do przewidywalnych i wykrywalnych artefaktów w dziedzinie częstotliwości obrazu. W rezultacie cała generacja narzędzi do wykrywania została specjalnie zbudowana w celu identyfikacji tych charakterystycznych dla GAN odcisków. Modele dyfuzyjne są jednak bardziej stabilne w treningu i wytwarzają bardziej różnorodne, realistyczne wyniki, które statystycznie bardziej przypominają prawdziwe obrazy, dzięki czemu nie mają wielu oczywistych wad swoich poprzedników.
W rezultacie duża część istniejącej infrastruktury wykrywania deepfake szybko staje się przestarzała. Badania wykazały \„poważny spadek wydajności\”, gdy detektory przeszkolone na obrazach generowanych przez GAN są stosowane do treści z modeli dyfuzyjnych. Warto zauważyć, że detektory przeszkolone na obrazach modeli dyfuzyjnych mogą z powodzeniem identyfikować treści generowane przez GAN, ale nie odwrotnie, co wskazuje, że modele dyfuzyjne reprezentują bardziej wyrafasowaną i wymagającą klasę podróbek. Faktycznie zresetowało to wyścig zbrojeń technologicznych, wymagając przeprojektowania strategii obronnych, aby przeciwdziałać unikalnym i bardziej subtelnym cechom mediów generowanych przez dyfuzję.
Co więcej, \„czarna skrzynka\” tych modeli generatywnych zwiększa złożoność działań związanych z prewencją u źródła. Zarówno GAN, jak i modele dyfuzyjne działają w sposób nienadzorowany lub częściowo nadzorowany, ucząc się naśladowania rozkładu statystycznego zbioru danych bez jawnych etykiet semantycznych. Zamiast uczyć się \„co to jest twarz\„, w sposób zrozumiały dla człowieka, uczą się, \„jakie wzorce pikseli są prawdopodobne w zbiorze danych twarzy\„. To sprawia, że programowanie ograniczeń bezpośrednio w procesie generowania jest wyjątkowo trudne (np. \„nie generuj szkodliwych obrazów\”). Model po prostu optymalizuje funkcję matematyczną: albo oszukać dyskryminator, albo odwrócić proces szumu. Oznacza to, że zapobieganie nie może polegać na regulowaniu rdzenia algorytmu od wewnątrz. Najbardziej opłacalne interwencje muszą mieć miejsce przed generowaniem (poprzez kontrolowanie danych treningowych) lub po nim (poprzez wykrywanie, znakowanie wodne i pochodzenie), ponieważ sam akt tworzenia jest z natury odporny na bezpośrednie zarządzanie.
Analiza porównawcza silników generatywnych
Zrozumienie strategicznych różnic między GAN a modelami dyfuzyjnymi jest niezbędne dla każdego interesariusza, od twórców polityki po urzędników ds. bezpieczeństwa korporacyjnego. Zmiana dominacji technologicznej od pierwszego do drugiego ma głębokie implikacje dla trudności wykrywania, prawdopodobieństwa oszustwa i ogólnej sytuacji zagrożenia.
Cecha | Generatywne sieci przeciwstawne (GAN) | Modele dyfuzyjne | Znaczenie strategiczne |
---|---|---|---|
Podstawowy mechanizm | Generator i dyskryminator rywalizują w grze o sumie zerowej. | Sieć neuronowa uczy się odwracać stopniowy proces \„zaszumiania\”. | Iteracyjny proces udoskonalania dyfuzji zapewnia wyższą wierność i mniej błędów strukturalnych. |
Proces treningowy | Znany z niestabilności; podatny na \„załamanie trybu\” i powolną konwergencję. | Stabilny i niezawodny trening, ale wymagający dużej mocy obliczeniowej. | Niski próg wejścia dla osiągnięcia wysokiej jakości wyników przy użyciu modeli dyfuzyjnych demokratyzuje zagrożenie. |
Jakość wyjściowa | Może generować obrazy wysokiej jakości, ale mogą zawierać subtelne artefakty. | Obecnie najwyższy poziom fotorealizmu i różnorodności; często nie do odróżnienia od prawdziwych zdjęć. | Fałszerstwa stają się bardziej przekonujące, niszcząc heurystykę \„widzieć znaczy wierzyć\” i stanowiąc wyzwanie dla ludzkiego wykrywania. |
Wykrywalność | Starsze metody wykrywania są często dostosowane do wyszukiwania artefaktów specyficznych dla GAN (np. nierównowaga częstotliwości). | Sprawia, że wiele detektorów opartych na GAN staje się przestarzałych. Obrazy zawierają mniej oczywistych artefaktów i ściślej pasują do statystyk danych rzeczywistych. | Wyścig zbrojeń deepfake został zresetowany. Badania i rozwój w zakresie wykrywania muszą skupić się na informacjach specyficznych dla dyfuzji. |
Znane modele | StyleGAN, CycleGAN | DALL-E, Stable Diffusion, Imagen, Sora | Najpotężniejsze i najczęściej używane narzędzia są teraz oparte na dyfuzji, co przyspiesza zagrożenie. |
Cyfrowy system odpornościowy: analiza porównawcza metod wykrywania
W odpowiedzi na proliferację syntetycznych mediów pojawiła się różnorodna dziedzina metod wykrywania, tworząc rodzący się \„cyfrowy system odpornościowy\”. Techniki te obejmują forenzyczną analizę artefaktów cyfrowych, a także nowe podejścia do wykrywania ukrytych sygnałów biologicznych. Skuteczność tego systemu odpornościowego jest jednak stale kwestionowana przez szybki postęp modeli generatywnych i użycie ataków przeciwnych zaprojektowanych w celu uniknięcia wykrycia. Ciągła walka między tworzeniem a wykrywaniem to paradoks \„Czerwonej Królowej\”, w którym obrońcy muszą stale wprowadzać innowacje, aby utrzymać status quo.
Forenzyczna analiza artefaktów cyfrowych
Najbardziej ugruntowana kategoria wykrywania deepfake obejmuje forenzyczną analizę artefaktów cyfrowych, subtelnych defektów i niespójności pozostawionych w procesie generowania. Te defekty i niespójności są często trudne do zidentyfikowania i niewidoczne gołym okiem, ale mogą być rozpoznane przez wyspecjalizowane algorytmy.
Niespójności wizualne i anatomiczne: Niektóre wczesne, a nawet obecne modele generatywne z trudem idealnie replikują złożoność ludzkiej anatomii i realistyczne właściwości świata rzeczywistego. Metody wykrywania wykorzystują te defekty, analizując konkretne anomalie w mediach. Obejmują one nienaturalne wzorce mrugania, takie jak nadmierne, niedostateczne lub brak mrugania (często spowodowane brakiem obrazów z zamkniętymi oczami w zbiorach danych treningowych), robotyczne lub niespójne ruchy oczu oraz ograniczone kształty ust lub ust, w których dolne zęby nigdy się nie pojawiają. Inne wskaźniki to brak subtelnych zmian w nozdrzach podczas mówienia, niespójna iluminacja i cienie, które nie pasują do otaczającego środowiska, oraz błędy lub brak odbić w okularach lub innych odblaskowych powierzchniach.
Analiza pikseli i kompresji: Techniki te działają na niższym poziomie, badając cyfrową strukturę obrazu lub filmu. Analiza poziomu błędów (ELA) to metoda identyfikacji obszarów obrazu, które mają różne poziomy kompresji. Ponieważ zmanipulowane obszary są często ponownie zapisywane lub ponownie kompresowane, mogą wyświetlać różne poziomy błędów niż oryginalne części obrazu, co podkreśla fałszerstwo. Ściśle związana jest analiza krawędzi i mieszania, która bada granice i kontury między syntetycznymi elementami (np. zamienioną twarzą) a prawdziwym tłem. Te obszary mogą ujawnić manipulację za pomocą takich znaków, jak niespójna pikselizacja, nienaturalna ostrość lub rozmycie oraz subtelne różnice koloru i tekstury.
Analiza dziedziny częstotliwości: Zamiast analizować piksele bezpośrednio, metody te przekształcają obraz w jego składowe częstotliwości, aby znaleźć nienaturalne wzorce. Ponieważ generatory GAN są opartymi na upsamplingu architekturami, często pozostawiają charakterystyczne artefakty spektralne, które tworzą okresowe wzorce, które nie są obecne w prawdziwych obrazach. Chociaż ta metoda jest skuteczna w przypadku większości GAN, jest mniej skuteczna w przypadku modeli dyfuzyjnych, które generują obrazy z bardziej naturalnym profilem częstotliwości. Jednak niektóre badania wskazują, że modele dyfuzyjne mogą nadal wykazywać wykrywalne niezgodności w szczegółach wysokiej częstotliwości w porównaniu z prawdziwymi obrazami, co stanowi potencjalną ścieżkę dla wykrywania.
Analiza sygnałów biologicznych: \„tętno\” deepfake
Nowszy i bardzo obiecujący obszar wykrywania deepfake obejmuje analizę obecności autentycznych sygnałów biologicznych w mediach. Podstawowym założeniem jest to, że chociaż modele generatywne stają się coraz lepsze w replikowaniu wyglądu wizualnego, nie są w stanie symulować podstawowych procesów fizjologicznych żywej osoby.
Główną techniką w tej dziedzinie jest zdalna fotopletyzmografia (rPPG). Technika ta wykorzystuje standardowe kamery do wykrywania subtelnych cyklicznych zmian koloru skóry, które zachodzą, gdy serce pompuje krew do powierzchownych naczyń krwionośnych na twarzy. W prawdziwym filmie osoby, to generuje słaby, ale spójny sygnał pulsu. W deepfake ten sygnał jest często nieobecny, zniekształcony lub niespójny.
Metoda wykrywania obejmuje kilka kroków:
Ekstrakcja sygnału: Sygnały rPPG są ekstrahowane z wielu regionów zainteresowania (ROI) twarzy osoby na filmie.
Przetwarzanie sygnału: Surowe sygnały są czyszczone z szumu, a następnie przetwarzane (zwykle przy użyciu szybkiej transformaty Fouriera (FFT)), aby przeanalizować ich charakterystyki dz Domeny czasowej i częstotliwości. FFT może ujawnić częstotliwości dominujące w sygnale, które odpowiadają częstości akcji serca.
Klasyfikacja: Klasyfikator (np. CNN) jest szkolony do rozróżniania spójnych, rytmicznych wzorców prawdziwego bicia serca od hałaśliwych, niespójnych lub nieobecnych sygnałów znalezionych w sfałszowanych filmach.
W kontrolowanym środowisku eksperymentalnym ta metoda osiągnęła bardzo wysoką dokładność wykrywania, a niektóre badania wykazały dokładność aż do 99,22%. Metoda ta ma jednak jedną krytyczną lukę. Bardziej zaawansowane techniki deepfake, szczególnie te, które obejmują realistyczne przeinterpretowanie, mogą dziedziczyć sygnały fizjologiczne z filmu źródłowego lub \„napędowego\”. Oznacza to, że deepfake mogą wykazywać całkowicie normalne i spójne sygnały rPPG. Byłoby to po prostu tętno aktora źródłowego, a nie postaci przedstawionej w ostatecznym filmie. To odkrycie podważa proste założenie, że deepfake brakuje sygnałów fizjologicznych i podnosi poprzeczkę dla wykrywania. Przyszłe podejścia muszą wykraczać poza zwykłe sprawdzanie obecności pulsu i zamiast tego powinny weryfikować spójność fizjologiczną i cechy specyficzne dla tożsamości sygnału.
Wyścig zbrojeń w zakresie wykrywania: wyzwania związane z modelami dyfuzyjnymi i atakami przeciwnymi
Dziedzinę wykrywania deepfake charakteryzuje nieubłagany wyścig zbrojeń. Ilekroć zostanie opracowana wiarygodna metoda wykrywania, modele generatywne nieustannie ewoluują, aby ją pokonać. Niedawny wzrost liczby modeli dyfuzyjnych i użycie ataków przeciwnych to dwa z najważniejszych wyzwań, przed którymi stoją nowoczesne detektory.
Niepowodzenie generalizacji: Główną słabością wielu modeli wykrywania jest ich niezdolność do generalizacji. Detektor, który został przeszkolony do identyfikacji podróbek z określonego modelu generatywnego (np. StyleGAN2) lub na określonym zbiorze danych, często zawodzi w obliczu nowych technik manipulacji lub różnych domen danych. Modele dyfuzyjne sprawiają, że problem ten jest szczególnie dotkliwy. Ponieważ ich wyjścia zawierają mniej oczywistych artefaktów, są bardziej zróżnicowane i ściślej pasują do statystyk prawdziwych obrazów, mogą skutecznie uniknąć detektorów zaprojektowanych dla GAN. Aby rozwiązać ten problem, naukowcy opracowują nowe i trudniejsze zestawy danych referencyjnych zawierające najnowocześniejsze dyfuzyjne deepfake, aby przyspieszyć tworzenie solidniejszych i bardziej uniwersalnych detektorów.
Ataki przeciwne: Nawet bardzo dokładne detektory są podatne na bezpośrednie sabotowanie poprzez ataki przeciwne. W tym scenariuszu atakujący wprowadza małe, niezauważalne zakłócenia do pikseli obrazu deepfake. Chociaż zmiany te są niewidoczne dla ludzi, są specjalnie zaprojektowane w celu wykorzystywania słabości w detektorowej sieci neuronowej, powodując błędną klasyfikację sfałszowanego obrazu jako prawdziwego. Zagrożenie to istnieje zarówno w ustawieniach \„białej skrzynki\” (gdzie atakujący ma pełną wiedzę o architekturze detektora), jak i w bardziej realistycznych ustawieniach \„czarnej skrzynki\” (gdzie atakujący może jedynie wysyłać zapytania do detektora i obserwować jego wyjście).
W odpowiedzi społeczność badawcza koncentruje się na opracowywaniu detektorów następnej generacji o zwiększonej odporności. Kluczowe strategie obejmują:
Różnorodność danych treningowych: Wykazano, że zwiększenie zbioru danych treningowych o różnorodne podróbki zarówno z GAN, jak i z modeli dyfuzyjnych, a także różne domeny obrazów, poprawia zdolność generalizacji.
Zaawansowane strategie treningowe: Nowe techniki, takie jak \„podnoszenie trudności z impetem\„, są badane w celu skuteczniejszego trenowania modeli na heterogenicznych zbiorach danych poprzez ważenie próbek w oparciu o dynamiczną trudność klasyfikacji próbek.
Solidne architektury: Nowe architektury są projektowane tak, aby były z natury bardziej odporne na ataki. Jednym z obiecujących podejść jest użycie rozłącznych zespołów, w których wiele modeli jest trenowanych na różnych, niepokrywających się podzbiorach widma częstotliwości obrazu. Zmusza to atakujących do znalezienia zakłóceń, które mogą jednocześnie oszukać wiele modeli, co jest znacznie trudniejszym zadaniem. Inne podejścia hybrydowe łączą cechy z domen przestrzennych i częstotliwości w celu zbudowania bardziej kompleksowego modelu danych.
Ciągłe przesuwanie się technologii generatywnych i wykrywania wte i wewte sugeruje, że każda statyczna obrona jest skazana na przestarzałość. Wraz z ewolucją modeli generatywnych w celu wyeliminowania takich znaków, jak anomalie mrugania lub artefakty GAN, detektory będą musiały przejść do bardziej subtelnych sygnałów, takich jak niezgodności wysokiej częstotliwości lub podpisy rPPG. Z kolei modele generatywne można trenować do naśladowania tych sygnałów, jak widać w dziedziczeniu rPPG z filmów źródłowych. Ta wieczna pętla pokazuje, że strategie zapobiegania polegające wyłącznie na reaktywnym wykrywaniu prowadzą kosztowny i prawdopodobnie niemożliwy do wygrania wyścig zbrojeń.
Najtrwalsze strategie wykrywania prawdopodobnie będą wykorzystywać podstawową lukę między symulacją cyfrową a rzeczywistością fizyczną. Podczas gdy artefakty wizualne są usterkami w symulacji, które można stopniowo naprawiać za pomocą lepszych algorytmów i większej mocy obliczeniowej, modelowanie wyłaniających się właściwości biologii i fizyki od podstaw jest znacznie trudniejsze dla sztucznej inteligencji. Model generatywny nie \„rozumie\” ludzkiego układu sercowo-naczyniowego. Uczy się jedynie replikować wzorce pikseli związane z twarzą. Chociaż można go trenować do naśladowania wizualnych korelacji bicia serca, generowanie spójnego fizjologicznie i dokładnego sygnału dla nowej tożsamości od podstaw wymagałoby modelowania całego systemu biologicznego, co jest wyższym rzędem wyzwania. Dlatego najbardziej trwała metodologia wykrywania będzie koncentrować się na tych \„lukach fizyczności\”, obejmujących nie tylko rPPG, ale także inne znaki, takie jak subtelne wzorce oddychania, mimowolne rozszerzenie źrenic i mikroekspresje, które są kontrolowane przez złożone procesy biologiczne, które trudno symulować z dużą precyzją.
Budowanie cyfrowego zaufania: aktywna prewencja poprzez znakowanie wodne i pochodzenie
Biorąc pod uwagę nieodłączne ograniczenia czysto reaktywnych strategii wykrywania, bardziej odporna i zrównoważona metoda zapobiegania szkodom powodowanym przez deepfake obejmuje proaktywne środki. Mają one na celu budowanie zaufania i odpowiedzialności w cyfrowym ekosystemie medialnym od momentu ich powstania. Zamiast skupiać się na identyfikacji podróbek po ich utworzeniu i rozpowszechnieniu, zmiana paradygmatu przesuwa nacisk na weryfikację autentyczności i pochodzenia legalnych treści. Dwiema wiodącymi technologiami w tej dziedzinie są forenzyczne cyfrowe znakowanie wodne i pochodzenie treści oparte na technologii blockchain.
Forenzyczne cyfrowe znakowanie wodne: niewidoczny podpis
Forenzyczne cyfrowe znakowanie wodne to proaktywna technika, która polega na bezpośrednim osadzaniu unikalnego i niezauważalnego identyfikatora w treści cyfrowej, takiej jak obraz, film lub dokument. W przeciwieństwie do widocznych znaków wodnych, takich jak logo nałożone na obraz, forenzyczny znak wodny jest