راهبردهای مقابله با جعل عمیق هوش مصنوعی

موتورهای جعل عمیق: تحلیل فنی

هسته اصلی جعل عمیق، مدل‌های تولیدی است، هوش مصنوعی که قادر است از مجموعه‌های داده عظیم بیاموزد و تصاویر، فیلم‌ها و صداهای واقعی تولید کند. شبکه‌های مقابله‌ای مولد (GAN) در سال‌های اخیر به مدل‌های انتشار تبدیل شده‌اند که قدرتمندتر هستند. بنابراین، تحلیل فنی این موتورهای تولیدی برای ایجاد یک چارچوب پیشگیری قوی ضروری است.

بازی رقابتی: شبکه‌های مقابله‌ای مولد (GAN)

GAN از دو شبکه عصبی تشکیل شده است: یک مولد و یک تشخیص‌دهنده. وظیفه مولد ایجاد داده‌های مصنوعی است که از داده‌های دنیای واقعی تقلید می‌کنند. مولد با یک ورودی تصادفی شروع می‌کند (که معمولاً بردار نهفته نامیده می‌شود) و تلاش می‌کند آن را به یک خروجی منسجم تبدیل کند. از طرف دیگر، تشخیص‌دهنده به عنوان یک طبقه‌بند عمل می‌کند که داده‌ها را ارزیابی می‌کند تا مشخص کند که آیا واقعی است (از مجموعه داده آموزشی واقعی) یا جعلی (ایجاد شده توسط مولد).

فرایند آموزش شامل یک چرخه بازخورد مداوم بین این دو شبکه است، شبیه به یک بازی با مجموع صفر. مولد یک تصویر جعلی ایجاد می‌کند و آن را به تشخیص‌دهنده می‌فرستد، که تشخیص‌دهنده همچنین یک تصویر واقعی از مجموعه داده آموزشی دریافت می‌کند. سپس، تشخیص‌دهنده واقعی بودن هر تصویر را پیش‌بینی می‌کند. اگر تشخیص‌دهنده خروجی‌های مولد را به درستی به عنوان جعلی شناسایی کند، بازخورد ارائه می‌دهد. مولد از این بازخورد از طریق پس انتشار برای تنظیم پارامترهای داخلی خود استفاده می‌کند تا در تکرار بعدی تصاویر قانع‌کننده‌تری تولید کند. در همان زمان، تشخیص‌دهنده پارامترهای خود را تنظیم می‌کند تا در تشخیص جعلیات بهتر عمل کند. این رقابت متقابل تا زمانی ادامه می‌یابد که سیستم به یک نقطه تعادل برسد، که گاهی اوقات تعادل نش نامیده می‌شود، که در آن خروجی‌های مولد آنقدر واقعی هستند که تشخیص‌دهنده دیگر نمی‌تواند به طور قابل اعتماد آنها را از داده‌های واقعی تشخیص دهد و تقریباً با دقت 50٪ حدس می‌زند.

GAN ثابت کرده است که در تولید رسانه‌های مصنوعی مؤثر است و پایه و اساس بسیاری از مدل‌های تاثیرگذار جعل عمیق است. معماری‌هایی مانند GAN کانولوشن عمیق (DCGAN) با جایگزینی لایه‌های pooling و استفاده از نرمال‌سازی دسته‌ای، پایداری را بهبود می‌بخشند و بهبودهای کلیدی را معرفی می‌کنند. StyleGAN شرکت NVIDIA و جانشینان آن StyleGAN2 و StyleGAN3 با رفع مصنوعات ویژگی‌ها و پیشبرد معماری مدل، در تولید چهره به واقع‌گرایی بی‌سابقه‌ای دست یافته‌اند. سایر انواع مانند CycleGAN وظایف انتقال سبک را انجام می‌دهند و در نتیجه به طور گسترده در برنامه‌هایی مانند Face App برای تغییر سن ظاهری افراد استفاده می‌شوند.

علیرغم قدرت GAN، آموزش آنها دشوار است. تعادل ظریف بین مولد و تشخیص‌دهنده به راحتی مختل می‌شود و منجر به ناپایداری در آموزش، همگرایی کند یا یک حالت خرابی حیاتی به نام “فروپاشی حالت” می‌شود. فروپاشی حالت زمانی رخ می‌دهد که مولد یک ضعف در تشخیص‌دهنده پیدا می‌کند و با تولید تنها انواع محدودی از خروجی (که می‌داند می‌تواند تشخیص‌دهنده را فریب دهد) از آن سوء استفاده می‌کند و در نتیجه نمی‌تواند تنوع واقعی داده‌های آموزشی را ثبت کند. این چالش‌های ذاتی، همراه با مصنوعات ظریفی که معمولاً تولید می‌کنند، به اهداف اصلی سیستم‌های تشخیص جعل عمیق اولیه تبدیل شدند.

وارونگی هرج و مرج: مدل‌های انتشار

در هوش مصنوعی تولیدی، جدیدترین فناوری قاطعانه به سمت یک کلاس جدید از مدل‌ها تغییر کرده است: مدل‌های انتشار. مدل‌های انتشار با الهام از مفاهیم ترمودینامیک غیرتعادلی، با اصولی اساساً متفاوت از رقابت متقابل GAN کار می‌کنند. آنها مدل‌های تولیدی احتمالی هستند که می‌توانند با یادگیری وارونه کردن یک فرایند تخریب تدریجی، داده‌های متنوع و با کیفیت فوق‌العاده‌ای تولید کنند.

مکانیسم مدل‌های انتشار یک فرایند دو فازی است:

  1. فرایند انتشار رو به جلو: در این مرحله، مقدار کمی نویز گاوسی به طور منظم و تدریجی در طول زمان (به عنوان مثال، T مرحله) به یک تصویر اضافه می‌شود. این یک فرایند زنجیره مارکوف است که در آن هر مرحله مشروط به مرحله قبلی است و به تدریج کیفیت تصویر را کاهش می‌دهد تا اینکه در آخرین مرحله زمانی T، از نویز غیرساختاری خالص قابل تشخیص نیست.

  2. فرایند حذف نویز معکوس: کلید مدل یک شبکه عصبی (معمولاً با معماری U-Net) است که برای معکوس کردن این فرایند آموزش داده شده است. این شبکه یاد می‌گیرد که نویز اضافه شده در هر مرحله زمانی در فرایند رو به جلو را پیش‌بینی کند و آن را کم کند. پس از آموزش، مدل می‌تواند با شروع از یک نمونه نویز تصادفی و اعمال مکرر این تابع “حذف نویز” آموخته شده، به تدریج مراحل زمانی را به عقب پیش ببرد و هرج و مرج را به یک نمونه منسجم از توزیع داده‌های اصلی تبدیل کند و در نتیجه تصاویر جدید و با کیفیتی تولید کند.

این فرایند پالایش تکراری به مدل‌های انتشار اجازه می‌دهد تا به سطوحی از واقع‌گرایی و تنوع بالاتر از بهترین GAN ها دست یابند. فرایند آموزش آنها همچنین بسیار پایدارتر از فرایند آموزش GAN است، از مشکلاتی مانند فروپاشی حالت اجتناب می‌کند و خروجی‌های قابل اعتمادتر و متنوع‌تری تولید می‌کند. این مزیت فنی، مدل‌های انتشار را به پایه و اساس برجسته‌ترین و قدرتمندترین ابزارهای هوش مصنوعی تولیدی امروزی تبدیل کرده است، از جمله مدل‌های متن به تصویر مانند DALL-E 2 شرکت OpenAI، Imagen شرکت Google و Stable Diffusion شرکت Stability AI، و همچنین مدل‌های متن به ویدیو مانند Sora شرکت OpenAI. در دسترس بودن گسترده و کیفیت خروجی عالی این مدل‌ها، تهدید جعل عمیق را تا حد زیادی افزایش داده است.

روش‌های عملکرد

چه GAN و چه مدل‌های انتشار، موتورهای تولیدی زیربنایی از طریق چندین تکنیک خاص برای ایجاد فیلم‌های جعل عمیق اعمال می‌شوند. این روش‌ها جنبه‌های مختلف فیلم هدف را برای دستیابی به اثر فریب مورد نظر دستکاری می‌کنند.

  • بازسازی: این تکنیک حالات چهره، حرکات سر و حرکات مربوط به گفتار شخصیت منبع را به سوژه هدف در یک ویدیو منتقل می‌کند. این فرایند معمولاً شامل سه مرحله اصلی است: ابتدا، ردیابی ویژگی‌های چهره در فیلم‌های منبع و هدف. دوم، تراز کردن این ویژگی‌ها با یک مدل چهره سه بعدی عمومی با استفاده از معیارهای سازگاری. سوم، انتقال حالات چهره از منبع به هدف، و پس از آن اصلاحات بعدی برای افزایش واقع‌گرایی و پیوستگی.

  • همگام‌سازی لب: تکنیک‌های جعل عمیق همگام‌سازی لب به طور خاص به پردازش گفتار اختصاص داده شده‌اند و عمدتاً از ورودی صوتی برای تولید حرکات لب واقعی استفاده می‌کنند. صدا به اشکال و بافت‌های پویای لب تبدیل می‌شود که سپس به دقت با فیلم هدف مطابقت داده و ترکیب می‌شوند تا این توهم ایجاد شود که شخص هدف در حال گفتن صدای ورودی است.

  • ترکیب مبتنی بر متن: این روش بسیار دقیق، فیلم را بر اساس یک اسکریپت متنی اصلاح می‌کند. این روش با تجزیه و تحلیل متن به واحدهای صوتی تشکیل‌دهنده آن (واحدهای صدا) و واحدهای دیداری (نمایش بصری صداهای گفتاری) کار می‌کند. سپس آنها با توالی‌های مربوطه در فیلم منبع مطابقت داده می‌شوند و از پارامترهای یک مدل سر سه بعدی برای تولید و صاف کردن حرکات لب برای مطابقت با متن جدید استفاده می‌شود و در نتیجه امکان ویرایش کلمه به کلمه آنچه که به نظر می‌رسد شخص در حال گفتن آن است فراهم می‌شود.

تکامل تکنولوژیکی از GAN به مدل‌های انتشار فقط یک بهبود تدریجی نیست. این یک تغییر پارادایم است که اساساً چشم‌انداز استراتژی‌های پیشگیری از جعل عمیق را تغییر می‌دهد. GAN، علیرغم قدرتمند بودن، دارای نقاط ضعف معماری شناخته شده‌ای مانند ناپایداری در آموزش و فروپاشی حالت است که معمولاً منجر به مصنوعات قابل پیش‌بینی و قابل تشخیص در حوزه فرکانس تصویر می‌شود. در نتیجه، نسل کاملی از ابزارهای تشخیص به طور خاص برای شناسایی این اثر انگشت‌های خاص GAN ساخته شده‌اند. با این حال، مدل‌های انتشار پایدارتر آموزش می‌بینند و خروجی‌های متنوع‌تر و واقعی‌تری تولید می‌کنند و از نظر آماری به تصاویر واقعی نزدیک‌تر هستند، بنابراین فاقد بسیاری از کاستی‌های آشکار پیشینیان خود هستند.

در نتیجه، بخش قابل توجهی از زیرساخت‌های تشخیص جعل عمیق موجود به سرعت در حال منسوخ شدن است. تحقیقات نشان می‌دهد که آشکارسازهایی که روی تصاویر تولید شده توسط GAN آموزش داده شده‌اند، هنگام اعمال بر محتوای مدل‌های انتشار، دچار “افت عملکرد شدید” می‌شوند. قابل توجه است که آشکارسازهایی که روی تصاویر مدل انتشار آموزش داده شده‌اند، می‌توانند با موفقیت محتوای تولید شده توسط GAN را شناسایی کنند، اما برعکس این موضوع صادق نیست، که نشان می‌دهد مدل‌های انتشار دسته پیچیده‌تر و چالش‌برانگیزتری از جعلیات را نشان می‌دهند. در واقع، این امر عملاً مسابقه تسلیحاتی فناوری را بازنشانی کرده است و مستلزم طراحی مجدد استراتژی‌های دفاعی برای مقابله با ویژگی‌های منحصربه‌فرد و ظریف‌تر رسانه‌های تولید شده توسط انتشار است.

علاوه بر این، ماهیت “جعبه سیاه” این مدل‌های تولیدی به پیچیدگی تلاش‌های پیشگیری منبع می‌افزاید. GAN و مدل‌های انتشار هر دو به صورت بدون نظارت یا نیمه نظارت عمل می‌کنند و بدون برچسب‌های معنایی آشکار، یاد می‌گیرند که از توزیع آماری مجموعه‌های داده تقلید کنند. آنها “چهره انسان چیست” را به روشی که برای انسان قابل درک باشد یاد نمی‌گیرند، بلکه “چه الگوهای پیکسلی در مجموعه داده چهره امکان‌پذیر است” را یاد می‌گیرند. این امر برنامه ریزی مستقیم محدودیت‌ها در فرایند تولید را فوق‌ تصریح می‌کند (به عنوان مثال، “تصاویر مضر تولید نشود”). مدل به سادگی یک تابع ریاضی را بهینه می‌کند: یا تشخیص‌دهنده را فریب دهد یا فرایند نویز را معکوس کند. این بدان معناست که پیشگیری نمی‌تواند به تنظیم هسته الگوریتم‌ها از درون متکی باشد. مؤثرترین مداخلات باید قبل از تولید (با کنترل داده‌های آموزشی) یا بعد از تولید (از طریق تشخیص، واترمارک و منبع) رخ دهند، زیرا خود عمل ایجاد ذاتاً در برابر حاکمیت مستقیم مقاومت می‌کند.

تحلیل مقایسه‌ای موتورهای تولید

درک تفاوت‌های استراتژیک بین GAN و مدل‌های انتشار برای هر ذینفعی (از سیاست‌گذاران گرفته تا افسران امنیت شرکت) بسیار مهم است. تغییر تسلط تکنولوژیکی از اولی به دومی، پیامدهای عمیقی برای دشواری تشخیص، پتانسیل فریب و چشم‌انداز کلی تهدید دارد.

ویژگی شبکه‌های مقابله‌ای مولد (GAN) مدل‌های انتشار اهمیت استراتژیک
مکانیسم اصلی مولد و تشخیص‌دهنده در یک بازی با مجموع صفر رقابت می‌کنند. شبکه‌های عصبی یاد می‌گیرند که یک فرایند “نویزی” را کم کنند. فرایند پالایش تکراری انتشار، دقت بالاتری را با خطاهای ساختاری کمتر ارائه می‌دهد.
فرایند آموزش به ناپایداری معروف است. مستعد “فروپاشی حالت” و همگرایی کند فرایند آموزش پایدار و قابل اعتماد است، اما از نظر محاسباتی سنگین است. دستیابی به نتایج با کیفیت بالا با مدل‌های انتشار، موانع ورود را کاهش می‌دهد و در نتیجه تهدید را دموکراتیزه می‌کند.
کیفیت خروجی می‌تواند تصاویر باکیفیتی تولید کند، اما ممکن است شامل مصنوعات ظریفی باشد. در حال حاضر بالاترین سطوح واقع‌گرایی و تنوع در سطح عکاسی. اغلب از عکس‌های واقعی غیرقابل تشخیص است. جعلیات قانع‌کننده‌تر می‌شوند، روش ابتکاری “دیدن باور کردن” را فرسایش می‌دهند و تشخیص انسانی را به چالش می‌کشند.
قابلیت تشخیص روش‌های تشخیص قدیمی‌تر اغلب برای یافتن مصنوعات خاص GAN (به عنوان مثال، عدم تعادل در فرکانس) تنظیم شده‌اند. بسیاری از آشکارسازهای مبتنی بر GAN را منسوخ می‌کند. تصاویر حاوی مصنوعات کمتری هستند و از نظر آماری با داده‌های واقعی مطابقت بیشتری دارند. مسابقه تسلیحاتی جعل عمیق بازنشانی شده است. تحقیق و توسعه تشخیص باید به تمرکز بر اطلاعات خاص انتشار تغییر کند.
مدل‌های برجسته StyleGAN، CycleGAN DALL-E، Stable Diffusion، Imagen، Sora در حال حاضر، قدرتمندترین و پرکاربردترین ابزارها مبتنی بر انتشار هستند، که باعث افزایش سرعت تهدید می‌شود.

سیستم ایمنی دیجیتال: تحلیل مقایسه‌ای روش‌های تشخیص

در پاسخ به افزایش رسانه‌های مصنوعی، حوزه‌ای متنوع از روش‌های تشخیص پدیدار شده است که یک “سیستم ایمنی دیجیتال” نوپا را تشکیل می‌دهد. این تکنیک‌ها شامل تجزیه و تحلیل پزشکی قانونی از مصنوعات دیجیتال، و همچنین روش‌های جدید برای شناسایی سیگنال‌های بیولوژیکی نهفته است. با این حال، اثربخشی این سیستم ایمنی به طور مداوم توسط تکامل سریع مدل‌های تولیدی و حملات متخاصمی که برای فرار از تشخیص طراحی شده‌اند، به چالش کشیده می‌شود. مبارزه مداوم بین ایجاد و تشخیص، یک پارادوکس “ملکه سرخ” است که در آن مدافعان باید به طور مداوم نوآوری کنند تا وضعیت موجود را حفظ کنند.

تحلیل پزشکی قانونی از مصنوعات دیجیتال

معتبرترین دسته‌های تشخیص جعل عمیق شامل تجزیه و تحلیل پزشکی قانونی از مصنوعات دیجیتال است، یعنی نقص‌ها و ناسازگاری‌های ظریفی که توسط فرایند تولید به جا مانده‌اند. تشخیص این نقص‌ها و ناسازگاری‌ها اغلب دشوار است و با چشم غیرمسلح قابل تشخیص نیست، اما می‌توان آنها را با استفاده از الگوریتم‌های ویژه شناسایی کرد.

  • ناسازگاری‌های بصری و تشریحی: برخی از مدل‌های تولیدی اولیه و حتی فعلی در بازتولید کامل پیچیدگی‌های آناتومی انسان و ویژگی‌های دنیای واقعی مشکل دارند. روش‌های تشخیص با تجزیه و تحلیل ناهنجاری‌های خاص در رسانه از این نقص‌ها بهره می‌برند. این موارد شامل الگوهای پلک زدن غیرطبیعی، یعنی پلک زدن بیش از حد، پلک زدن خیلی کم یا اصلاً پلک نزدن (اغلب به دلیل کمبود تصاویر چشم بسته در داده‌های آموزشی)، حرکات روباتیک یا ناسازگار چشم و شکل محدود لب یا دهان است که دندان‌های پایینی هرگز نشان داده نمی‌شوند. سایر شاخص‌ها عبارتند از فقدان تغییرات ظریف در سوراخ‌های بینی در طول صحبت کردن، نورپردازی ناسازگار و ناسازگاری‌های سایه که با محیط اطراف مطابقت ندارند و بازتاب‌های نادرست یا از دست رفته در عینک یا سایر سطوح انعکاسی.

  • تحلیل پیکسل و فشرده‌سازی: این تکنیک‌ها در سطح پایین‌تری عمل می‌کنند و ساختار دیجیتال یک تصویر یا ویدیو را بررسی می‌کنند. تحلیل سطح خطای (ELA) روشی برای شناسایی مناطقی از یک تصویر است که سطوح فشرده‌سازی متفاوتی دارند. از آنجایی که مناطق دستکاری شده اغلب دوباره ذخیره یا دوباره فشرده می‌شوند، ممکن است سطوح خطای متفاوتی نسبت به قسمت‌های اصلی تصویر نشان دهند و در نتیجه جعلیات را برجسته کنند. تحلیل لبه و ترکیب که ارتباط تنگاتنگی با آن دارد، مرزها و کانتورها بین عناصر مصنوعی (به عنوان مثال، چهره‌های مبادله شده) و پس‌زمینه‌های واقعی را به دقت بررسی می‌کند. این مناطق ممکن است دستکاری را از طریق نشانه‌هایی مانند پیکسل‌بندی ناسازگار، وضوح یا تاری غیرطبیعی و تفاوت‌های ظریف در رنگ و بافت آشکار کنند.

  • تحلیل حوزه فرکانس: این روش‌ها به جای تجزیه و تحلیل مستقیم پیکسل‌ها، تصویر را به اجزای فرکانسی خود تبدیل می‌کنند تا الگوهای غیرطبیعی را بیابند. از آنجایی که مولدهای GAN معماری مبتنی بر نمونه‌برداری دارند، اغلب مصنوعات طیفی مشخصی را به جا می‌گذارند و الگوهای دوره‌ای را ایجاد می‌کنند که در تصاویر واقعی وجود ندارند. در حالی که این روش برای اکثر GAN مؤثر است، اما میزان موفقیت آن برای مدل‌های انتشار کمتر است، مدل‌های انتشار تصاویری تولید می‌کنند که دارای پروفایل‌های فرکانسی طبیعی‌تری هستند. با این حال، برخی تحقیقات نشان داده‌اند که مدل‌های انتشار همچنان می‌توانند ناسازگاری‌های قابل تشخیصی را در جزئیات فرکانس بالا در مقایسه با تصاویر واقعی نشان دهند، که یک مسیر بالقوه برای تشخیص ارائه می‌دهد.

تحلیل سیگنال بیولوژیکی: “ضربان قلب” جعل عمیق

حوزه جدیدتر و امیدبخش‌تر در تشخیص جعل عمیق شامل تجزیه و تحلیل وجود سیگنال‌های بیولوژیکی واقعی در رسانه است. فرضیه اصلی این است که در حالی که مدل‌های تولیدی در کپی کردن ظاهری بصری تواناتر می‌شوند، نمی‌توانند فرایندهای فیزیولوژیکی زیربنایی یک فرد زنده را شبیه‌سازی کنند.

تکنیک اصلی در این حوزه فوتوپلتیسموگرافی از راه دور (rPPG) است. این تکنیک از دوربین‌های استاندارد برای تشخیص تغییرات چرخه‌ای کوچک در رنگ پوست استفاده می‌کند که هنگام پمپاژ خون به رگ‌های خونی سطحی صورت توسط قلب رخ می‌دهد. در یک ویدیوی واقعی از یک شخص، این یک سیگنال پالس ضعیف اما ثابت ایجاد می‌کند. در یک جعل عمیق، این سیگنال اغلب وجود ندارد، تحریف شده است یا ناسازگار است.

روش تشخیص شامل چندین مرحله است:

  1. استخراج سیگنال: سیگنال‌های rPPG از چندین ناحیه مورد نظر (ROI) بر روی صورت فرد در ویدیو استخراج می‌شوند.

  2. پردازش سیگنال: نویز از سیگنال خام پاک می‌شود و سپس پردازش می‌شود (معمولاً با استفاده از تبدیل فوریه سریع (FFT)) تا ویژگی‌های حوزه زمان و حوزه طیف آن تحلیل شود. FFT می‌تواند فرکانس غالب سیگنال را آشکار کند، که با ضربان قلب مطابقت دارد.

  3. طبقه‌بندی: یک طبقه‌بند (به عنوان مثال، CNN) آموزش داده شده است تا الگوهای ریتمیکی منسجم یک ضربان قلب واقعی را از سیگنال‌های پر سر و صدا، ناسازگار یا غایب موجود در فیلم‌های جعلی تشخیص دهد.

در محیط‌های آزمایشی کنترل شده، این روش به دقت تشخیص بسیار بالایی دست یافته است، برخی از مطالعات دقت‌هایی تا 99.22 درصد را گزارش کرده‌اند. با این حال، این روش یک آسیب‌پذیری حیاتی دارد. تکنیک‌های جعل عمیق پیشرفته‌تر (به ویژه تکنیک‌هایی که شامل بازسازی می‌شوند) می‌توانند سیگنال‌های فیزیولوژیکی را از ویدیوی منبع یا “راننده” به ارث ببرند. این بدان معناست که یک جعل عمیق ممکن است یک سیگنال rPPG کاملاً طبیعی و منسجم را نشان دهد. فقط ضربان قلب بازیگر منبع خواهد بود، نه شخصیتی که در ویدیوی نهایی به تصویر کشیده شده است. این یافته فرضیه ساده مبنی بر اینکه جعل‌های عمیق فاقد سیگنال‌های فیزیولوژیکی هستند را به چالش می‌کشد و آستانه تشخیص را بالا می‌برد. روش‌های آینده باید فراتر از بررسی صرف وجود یک نبض، سازگاری فیزیولوژیکی و ویژگی‌های مختص هویت سیگنال را تأیید کنند.

مسابقه تسلیحاتی تشخیص: چالش‌های مدل‌های انتشار و حملات متخاصم

حوزه تشخیص جعل عمیق توسط یک مسابقه تسلیحاتی بی‌امان تعریف شده است. هنگامی که یک روش تشخیص قابل اعتماد توسعه می‌یابد، مدل‌های تولیدی به طور مداوم برای غلبه بر آن تکامل می‌یابند. ظهور اخیر مدل‌های انتشار و استفاده از حملات متخاصم دو مورد از مهم‌ترین چالش‌هایی هستند که آشکارسازهای مدرن با آن مواجه هستند.

  • شکست تعمیم:: یک ضعف عمده برای بسیاری از مدل‌های تشخیص عدم توانایی آنها در تعمیم است. آشکارسازهایی که برای شناسایی جعلیات ناشی از یک مدل تولید خاص (به عنوان مثال، StyleGAN2) آموزش داده شده‌اند، اغلب در مواجهه با تکنیک‌های دستکاری جدید یا دامنه‌های داده‌ای مختلف با مشکل مواجه می‌شوند. مدل‌های انتشار این مشکل را به ویژه حاد کرده‌اند. از آنجایی که خروجی‌های آنها حاوی مصنوعات آشکار کمتری هستند، محتوای متنوع‌تری دارند و از نظر آماری با ویژگی‌های تصاویر واقعی مطابقت بیشتری دارند، می‌توانند به طور مؤثری از آشکارسازهای طراحی شده برای GAN فرار کنند. برای مقابله با این مسئله، محققان در حال توسعه مجموعه‌های داده معیار جدید و دشوارتری هستند که شامل پیشرفته‌ترین جعل‌های عمیق انتشار می‌شوند تا ایجاد آشکارسازهای قوی‌تر و کلی‌تر را هدایت کنند.

  • حملات متخاصم:: حتی آشکارسازهای با دقت بالا نیز مستعد اختلال مستقیم از طریق حملات متخاصم هستند. در این سناریو، مهاجمان اختلال‌های کوچک و نا محسوس را در پیکسل‌های تصویر جعل عمیق اعمال می‌کنند. در حالی که این تغییرات برای انسان غیر قابل مشاهده هستند، اما به طور خاص برای بهره‌برداری از ضعف‌ها در شبکه‌های عصبی آشکارساز طراحی شده‌اند، و باعث می‌شوند تصویر جعلی به اشتباه به عنوان تصویر واقعی طبقه‌بندی شود. این تهدید هم در تنظیمات “جعبه سفید” وجود دارد (جایی که مهاجم درک کاملی از معماری آشکارساز دارد) و هم در تنظیمات واقع‌گرایانه‌تر “جعبه سیاه” (جایی که مهاجم فقط می‌تواند از آشکارساز سؤال کند و خروجی آن را مشاهده کند).

در پاسخ، جامعه تحقیقاتی بر توسعه نسل بعدی آشکارسازها با انعطاف‌پذیری بیشتر متمرکز است. استراتژی‌های کلیدی عبارتند از:

  • تنوع داده‌های آموزشی:: افزایش مجموعه‌های داده آموزشی برای شامل شدن طیف گسترده‌ای از جعلیات از GAN و مدل‌های انتشار، همراه با دامنه‌های مختلف تصویر، ثابت شده است که قابلیت تعمیم را بهبود می‌بخشد.

  • استراتژی‌های آموزش پیشرفته:: تکنیک‌های جدید (مانند “تقویت دشواری تکان”) در حال بررسی هستند تا با وزن‌دهی نمونه‌ها بر اساس سهولت طبقه‌بندی پویا، به مدل کمک کنند تا به طور مؤثرتری روی مجموعه‌های داده ناهمگن آموزش ببیند.

  • معماری‌های قوی:: معماری‌های جدیدی در حال طراحی هستند که ذاتاً نسبت به حملات مقاوم‌تر باشند. یک روش امیدوارکننده استفاده از مجموع‌های ناهمگن است که در آن چندین مدل بر روی زیرمجموعه‌های مجزا و غیر همپوشانی از طیف فرکانسی یک تصویر آموزش داده می‌شوند. این امر مهاجمان را مجبور می‌کند تا اختلال‌هایی پیدا کنند که بتوانند چندین مدل را به طور همزمان فریب دهند، که یک مأموریت بسیار دشوارتر است. سایر رویکردهای ترکیبی ویژگی‌ها را از دامنه‌های فضایی و فرکانسی ترکیب می‌کنند تا یک مدل جامع‌تر از داده‌ها ایجاد کنند.

رفت و برگشت مداوم بین فناوری‌های تولید و تشخیص نشان می‌دهد که هر دفاع ایستا محکوم به منسوخ شدن است. همانطور که مدل‌های تولیدی به تکامل خود ادامه می‌دهند تا نشانه‌هایی مانند ناهنجاری‌های پلک زدن یا مصنوعات GAN را از بین ببرند، آشکارسازها باید به سیگنال‌های ظریف‌تری مانند عدم تطابق فرکانس بالا یا امضاهای rPPG تغییر کنند. به نوبه خود، می‌توان مدل‌های تولیدی را آموزش داد تا از این سیگنال‌ها تقلید کنند، همانطور که با وراثت rPPG از فیلم‌های منبع مشاهده شد. این چرخه دائمی نشان می‌دهد که یک استراتژی پیشگیری که صرفاً به تشخیص واکنش‌پذیر متکی باشد، در یک مسابقه تسلیحاتی پرهزینه و احتمالاً غیرقابل برد گرفتار شده است.

ماندگارترین استراتژی‌های تشخیص به احتمال زیاد استراتژی‌هایی خواهند بود که از شکاف‌های اساسی بین شبیه‌سازی‌های دیجیتال و واقعیت فیزیکی سوء استفاده می‌کنند. در حالی که مصنوعات بصری نقص‌هایی در_ تقلید_ هستند که می‌توان به تدریج با الگوریتم‌های بهتر و قدرت محاسباتی بیشتر برطرف کرد، مدل‌سازی ویژگی‌های نوظهور زیست‌شناسی و فیزیک بر اساس اصول اولیه برای هوش مصنوعی بسیار دشوارتر است. یک مدل تولیدی “در مورد” سیستم قلبی عروقی انسان “اطلاعاتی ندارد”. فقط یاد می‌گیرد الگوهای پیکسلی مرتبط با یک چهره را کپی کند. اگرچه می‌توان آن را آموزش داد تا نتیجه بصری یک ضربان قلب را تقلید کند، تولید سیگنال‌های فیزیولوژیکی سازگار و دقیق برای یک هویت جدید از صفر مستلزم مدل‌سازی کل سیستم بیولوژیکی خواهد بود که یک چالش بسیار بالاتر است. در نتیجه، معتبرترین تحقیقات تشخیص بر این “شکاف‌های فیزیکی” متمرکز خواهد شد و نه تنها rPPG، بلکه سایر نشانه‌هایی مانند الگوهای تنفس ظریف، اتساع ناخودآگاه مردمک و ریزحالت‌هایی را در بر می‌گیرد که توسط فرایندهای بیولوژیکی پیچیده‌ای کنترل می‌شوند و شبیه‌سازی آنها با دقت بالا دشوار است.

ایجاد اعتماد دیجیتال: پیشگیری فعال از طریق واترمارک و منبع

با توجه به محدودیت‌های ذاتی استراتژی‌های تشخیص صرفاً واکنشی، طرح‌های بادوام‌تر و پایدارتر برای پیشگیری از آسیب جعل عمیق شامل اقدامات فعال است. این تکنیک‌ها در تلاشند تا از لحظه ایجاد، اعتماد و مسئولیت‌پذیری در اکوسیستم رسانه‌های دیجیتال ایجاد کنند. به جای تمرکز بر شناسایی جعلیات پس از ایجاد و انتشار آنها ، این پارادایم تمرکز را به تأیید اصالت و منبع محتوای قانونی تغییر می‌دهد. دو تکنیک برجسته در این حوزه، واترمارک دیجیتال پزشکی قانونی و منشاء محتوا مبتنی بر بلاک چین هستند.

واترمارک دیجیتال پزشکی قانونی: امضای نامرئی

واترمارک دیجیتال پزشکی قانونی یک تکنیک فعال است که یک شناسه منحصر به فرد و غیر قابل تشخیص را مستقیماً در محتوای دیجیتال تعبیه می‌کند (مثلاً تصاویر ، فیلم‌ها یا اسناد). بر خلاف واترمارک‌های قابل مشاهده ، مانند آرم‌هایی که روی تصویر روکش شده‌اند ، واترمارک‌های پزشکی قانونی در داده‌های خود فایل پنهان هستند و به گونه‌ای طراحی شده‌اند که فوق‌العاده قوی باشند. یک واترمارک پزشکی قانونی به خوبی طراحی شده می‌تواند از عملیات رایج فایل‌، از جمله فشرده‌سازی، برش، تغییر اندازه، تنظیم رنگ و حتی اسکرین‌شات یا ضبط دوربین در صفحه، جان سالم به در ببرد.

در زمینه پیشگیری از جعل عمیق، واترمارک‌های پزشکی قانونی چندین عملکرد کلیدی را انجام می‌دهند:

  • رهگیری منبع و مسئولیت‌پذیری: با تعبیه اطلاعات منحصر به فردی که سازنده، کاربر یا کانال توزیع را شناسایی می‌کند، اگر یک جعل عمیق مخرب درز کند یا مورد سوء استفاده قرار گیرد، می‌توان از واترمارک‌ها برای ردیابی منشاء آن استفاده کرد. به عنوان مثال، در یک محیط ویدیوی درخواستی (VOD) یا سازمانی ، یک سیستم می‌تواند از واترمارک A/B استفاده کند تا به هر کاربر یک نسخه کمی متفاوت و منحصر به فرد واترمارک شده از ویدیو ارائه دهد. اگر یک کپی به صورت آنلاین ظاهر شود، واترمارک را می‌توان استخراج کرد تا منبع دقیق نشت را شناسایی کند و شواهد قوی برای اقدامات قانونی یا اداری ارائه دهد.

  • تأیید اصالت: واترمارک‌ها می‌توانند به عنوان مهر اصالت برای محتوای رسمی عمل کنند. سازمان‌های دولتی ، شرکت‌ها یا خبرگزاری‌ها می‌توانند واترمارک‌های منحصربه‌فردی را در رسانه‌های قانونی خود تعبیه کنند. این امر امکان تأیید ارتباطات واقعی را فراهم می‌کند و به شناسایی و جلوگیری از تلاش‌ها برای جعل هویت با استفاده از جعل‌های عمیق کمک می‌کند.

  • رهگیری چرخه عمر: حامیان معتقدند واترمارک‌ها را می‌توان در مراحل مختلف چرخه عمر محتوا ادغام کرد. به عنوان مثال، یک واترمارک را می‌توان هنگام آپلود در رسانه‌های اجتماعی ، برنامه‌های پیام‌رسانی، و حتی توسط خود برنامه‌های ایجاد جعل عمیق تعبیه کرد تا یک رکورد قابل رهگیری از نحوه تولید و توزیع محتوای دستکاری شده ایجاد شود.

فن‌آوری‌های واترمارک پیشرفته‌ای در حال توسعه هستند که به‌طور خاص برای مقابله با دستکاری‌های جعل عمیق طراحی شده‌اند. یک رویکرد جدید شامل طراحی یک شبکه عصبی است که واترمارک را مستقیماً در_ ویژگی‌های هویت_ یک تصویر چهره تعبیه می‌کند. این امر واترمارک را در برابر دستکاری تعویض چهره بسیار حساس می‌کند، زیرا این دستکاری ذاتاً ویژگی‌های هویت را تغییر می‌دهد و بنابراین واترمارک را از بین می‌برد، در حالی که در برابر اصلاحات سنتی تصویر مانند فشرده‌سازی یا تغییر اندازه قوی باقی می‌ماند.

علیرغم وعده واترمارک‌، چالش‌های مهمی وجود دارد. اول، واترمارک‌ها شکست‌ناپذیر نیستند. تحقیقات نشان داده است که می‌توان از تکنیک‌های متخاصم (به‌ویژه با استفاده از مدل‌های انتشار) برای “حل” یا بازسازی تصاویر استفاده کرد و به طور مؤثری واترمارک تعبیه‌شده را حذف کرد. دوم، و مهمتر از آن، اثربخشی واترمارک به عنوان یک راه‌حل سیستمی به پذیرش گسترده بستگی دارد. در حال حاضر ، هیچ الزام قانونی یا نظارتی برای برنامه‌های جعل عمیق یا پلتفرم‌های رسانه‌های اجتماعی برای اجرای واترمارک‌ وجود ندارد ، که استفاده از آن را داوطلبانه و پراکنده می‌کند.

بلاک چین و منشاء محتوا: دفتر کل غیرقابل تغییر

یک استراتژی فعال مکمل، استفاده از فنّاوری بلاک چین برای ایجاد منشاء محتوا است، یعنی یک رکورد قابل اعتماد، قابل تأیید و مقاوم در برابر دستکاری از منبع و تاریخچه چرخه عمر فایلهای رسانه‌ای. این رویکرد از ویژگی‌های اصلی بلاک چین، یعنی ماهیت غیرمتمرکز و غیرقابل تغییر آن، برای ایجاد یک رکورد دائمی و عمومی از اصالت استفاده می‌کند.

روش ایجاد یک منشاء مبتنی بر بلاک چین معمولاً شامل سه مرحله است:

  1. اثر انگشت محتوا: هنگام ایجاد یا آپلود اولیه در یک پلتفرم شرکت‌کننده ، یک هش رمزنگاری منحصر به فرد از داده‌های فایل生成 . این هش به عنوان یک اثر انگشت دیجیتال عمل می‌کند؛ هر مقدار از تغییرات در 파일 , 일 완전히 다른 هش تولید خواهد کرد.

  2. רکورڈ ബ്ലکચיין:: આ ਵਿਨੀત هش સાથે , کلیدی metadata ( جیسے , سازنده کی ویریفایی کردہ ديجٹال ہاتھی , ہاتھی , और други متعلقہ विवरण) ایک ٹرانزيکشن کے طور پر ایک بلاکچين دفتر کل میں दर्ज ہوں گے۔ چونکہ ਇਹ دفترکل බෙچنے