موتورهای جعل عمیق: تحلیل فنی
هسته اصلی جعل عمیق، مدلهای تولیدی است، هوش مصنوعی که قادر است از مجموعههای داده عظیم بیاموزد و تصاویر، فیلمها و صداهای واقعی تولید کند. شبکههای مقابلهای مولد (GAN) در سالهای اخیر به مدلهای انتشار تبدیل شدهاند که قدرتمندتر هستند. بنابراین، تحلیل فنی این موتورهای تولیدی برای ایجاد یک چارچوب پیشگیری قوی ضروری است.
بازی رقابتی: شبکههای مقابلهای مولد (GAN)
GAN از دو شبکه عصبی تشکیل شده است: یک مولد و یک تشخیصدهنده. وظیفه مولد ایجاد دادههای مصنوعی است که از دادههای دنیای واقعی تقلید میکنند. مولد با یک ورودی تصادفی شروع میکند (که معمولاً بردار نهفته نامیده میشود) و تلاش میکند آن را به یک خروجی منسجم تبدیل کند. از طرف دیگر، تشخیصدهنده به عنوان یک طبقهبند عمل میکند که دادهها را ارزیابی میکند تا مشخص کند که آیا واقعی است (از مجموعه داده آموزشی واقعی) یا جعلی (ایجاد شده توسط مولد).
فرایند آموزش شامل یک چرخه بازخورد مداوم بین این دو شبکه است، شبیه به یک بازی با مجموع صفر. مولد یک تصویر جعلی ایجاد میکند و آن را به تشخیصدهنده میفرستد، که تشخیصدهنده همچنین یک تصویر واقعی از مجموعه داده آموزشی دریافت میکند. سپس، تشخیصدهنده واقعی بودن هر تصویر را پیشبینی میکند. اگر تشخیصدهنده خروجیهای مولد را به درستی به عنوان جعلی شناسایی کند، بازخورد ارائه میدهد. مولد از این بازخورد از طریق پس انتشار برای تنظیم پارامترهای داخلی خود استفاده میکند تا در تکرار بعدی تصاویر قانعکنندهتری تولید کند. در همان زمان، تشخیصدهنده پارامترهای خود را تنظیم میکند تا در تشخیص جعلیات بهتر عمل کند. این رقابت متقابل تا زمانی ادامه مییابد که سیستم به یک نقطه تعادل برسد، که گاهی اوقات تعادل نش نامیده میشود، که در آن خروجیهای مولد آنقدر واقعی هستند که تشخیصدهنده دیگر نمیتواند به طور قابل اعتماد آنها را از دادههای واقعی تشخیص دهد و تقریباً با دقت 50٪ حدس میزند.
GAN ثابت کرده است که در تولید رسانههای مصنوعی مؤثر است و پایه و اساس بسیاری از مدلهای تاثیرگذار جعل عمیق است. معماریهایی مانند GAN کانولوشن عمیق (DCGAN) با جایگزینی لایههای pooling و استفاده از نرمالسازی دستهای، پایداری را بهبود میبخشند و بهبودهای کلیدی را معرفی میکنند. StyleGAN شرکت NVIDIA و جانشینان آن StyleGAN2 و StyleGAN3 با رفع مصنوعات ویژگیها و پیشبرد معماری مدل، در تولید چهره به واقعگرایی بیسابقهای دست یافتهاند. سایر انواع مانند CycleGAN وظایف انتقال سبک را انجام میدهند و در نتیجه به طور گسترده در برنامههایی مانند Face App برای تغییر سن ظاهری افراد استفاده میشوند.
علیرغم قدرت GAN، آموزش آنها دشوار است. تعادل ظریف بین مولد و تشخیصدهنده به راحتی مختل میشود و منجر به ناپایداری در آموزش، همگرایی کند یا یک حالت خرابی حیاتی به نام “فروپاشی حالت” میشود. فروپاشی حالت زمانی رخ میدهد که مولد یک ضعف در تشخیصدهنده پیدا میکند و با تولید تنها انواع محدودی از خروجی (که میداند میتواند تشخیصدهنده را فریب دهد) از آن سوء استفاده میکند و در نتیجه نمیتواند تنوع واقعی دادههای آموزشی را ثبت کند. این چالشهای ذاتی، همراه با مصنوعات ظریفی که معمولاً تولید میکنند، به اهداف اصلی سیستمهای تشخیص جعل عمیق اولیه تبدیل شدند.
وارونگی هرج و مرج: مدلهای انتشار
در هوش مصنوعی تولیدی، جدیدترین فناوری قاطعانه به سمت یک کلاس جدید از مدلها تغییر کرده است: مدلهای انتشار. مدلهای انتشار با الهام از مفاهیم ترمودینامیک غیرتعادلی، با اصولی اساساً متفاوت از رقابت متقابل GAN کار میکنند. آنها مدلهای تولیدی احتمالی هستند که میتوانند با یادگیری وارونه کردن یک فرایند تخریب تدریجی، دادههای متنوع و با کیفیت فوقالعادهای تولید کنند.
مکانیسم مدلهای انتشار یک فرایند دو فازی است:
فرایند انتشار رو به جلو: در این مرحله، مقدار کمی نویز گاوسی به طور منظم و تدریجی در طول زمان (به عنوان مثال، T مرحله) به یک تصویر اضافه میشود. این یک فرایند زنجیره مارکوف است که در آن هر مرحله مشروط به مرحله قبلی است و به تدریج کیفیت تصویر را کاهش میدهد تا اینکه در آخرین مرحله زمانی T، از نویز غیرساختاری خالص قابل تشخیص نیست.
فرایند حذف نویز معکوس: کلید مدل یک شبکه عصبی (معمولاً با معماری U-Net) است که برای معکوس کردن این فرایند آموزش داده شده است. این شبکه یاد میگیرد که نویز اضافه شده در هر مرحله زمانی در فرایند رو به جلو را پیشبینی کند و آن را کم کند. پس از آموزش، مدل میتواند با شروع از یک نمونه نویز تصادفی و اعمال مکرر این تابع “حذف نویز” آموخته شده، به تدریج مراحل زمانی را به عقب پیش ببرد و هرج و مرج را به یک نمونه منسجم از توزیع دادههای اصلی تبدیل کند و در نتیجه تصاویر جدید و با کیفیتی تولید کند.
این فرایند پالایش تکراری به مدلهای انتشار اجازه میدهد تا به سطوحی از واقعگرایی و تنوع بالاتر از بهترین GAN ها دست یابند. فرایند آموزش آنها همچنین بسیار پایدارتر از فرایند آموزش GAN است، از مشکلاتی مانند فروپاشی حالت اجتناب میکند و خروجیهای قابل اعتمادتر و متنوعتری تولید میکند. این مزیت فنی، مدلهای انتشار را به پایه و اساس برجستهترین و قدرتمندترین ابزارهای هوش مصنوعی تولیدی امروزی تبدیل کرده است، از جمله مدلهای متن به تصویر مانند DALL-E 2 شرکت OpenAI، Imagen شرکت Google و Stable Diffusion شرکت Stability AI، و همچنین مدلهای متن به ویدیو مانند Sora شرکت OpenAI. در دسترس بودن گسترده و کیفیت خروجی عالی این مدلها، تهدید جعل عمیق را تا حد زیادی افزایش داده است.
روشهای عملکرد
چه GAN و چه مدلهای انتشار، موتورهای تولیدی زیربنایی از طریق چندین تکنیک خاص برای ایجاد فیلمهای جعل عمیق اعمال میشوند. این روشها جنبههای مختلف فیلم هدف را برای دستیابی به اثر فریب مورد نظر دستکاری میکنند.
بازسازی: این تکنیک حالات چهره، حرکات سر و حرکات مربوط به گفتار شخصیت منبع را به سوژه هدف در یک ویدیو منتقل میکند. این فرایند معمولاً شامل سه مرحله اصلی است: ابتدا، ردیابی ویژگیهای چهره در فیلمهای منبع و هدف. دوم، تراز کردن این ویژگیها با یک مدل چهره سه بعدی عمومی با استفاده از معیارهای سازگاری. سوم، انتقال حالات چهره از منبع به هدف، و پس از آن اصلاحات بعدی برای افزایش واقعگرایی و پیوستگی.
همگامسازی لب: تکنیکهای جعل عمیق همگامسازی لب به طور خاص به پردازش گفتار اختصاص داده شدهاند و عمدتاً از ورودی صوتی برای تولید حرکات لب واقعی استفاده میکنند. صدا به اشکال و بافتهای پویای لب تبدیل میشود که سپس به دقت با فیلم هدف مطابقت داده و ترکیب میشوند تا این توهم ایجاد شود که شخص هدف در حال گفتن صدای ورودی است.
ترکیب مبتنی بر متن: این روش بسیار دقیق، فیلم را بر اساس یک اسکریپت متنی اصلاح میکند. این روش با تجزیه و تحلیل متن به واحدهای صوتی تشکیلدهنده آن (واحدهای صدا) و واحدهای دیداری (نمایش بصری صداهای گفتاری) کار میکند. سپس آنها با توالیهای مربوطه در فیلم منبع مطابقت داده میشوند و از پارامترهای یک مدل سر سه بعدی برای تولید و صاف کردن حرکات لب برای مطابقت با متن جدید استفاده میشود و در نتیجه امکان ویرایش کلمه به کلمه آنچه که به نظر میرسد شخص در حال گفتن آن است فراهم میشود.
تکامل تکنولوژیکی از GAN به مدلهای انتشار فقط یک بهبود تدریجی نیست. این یک تغییر پارادایم است که اساساً چشمانداز استراتژیهای پیشگیری از جعل عمیق را تغییر میدهد. GAN، علیرغم قدرتمند بودن، دارای نقاط ضعف معماری شناخته شدهای مانند ناپایداری در آموزش و فروپاشی حالت است که معمولاً منجر به مصنوعات قابل پیشبینی و قابل تشخیص در حوزه فرکانس تصویر میشود. در نتیجه، نسل کاملی از ابزارهای تشخیص به طور خاص برای شناسایی این اثر انگشتهای خاص GAN ساخته شدهاند. با این حال، مدلهای انتشار پایدارتر آموزش میبینند و خروجیهای متنوعتر و واقعیتری تولید میکنند و از نظر آماری به تصاویر واقعی نزدیکتر هستند، بنابراین فاقد بسیاری از کاستیهای آشکار پیشینیان خود هستند.
در نتیجه، بخش قابل توجهی از زیرساختهای تشخیص جعل عمیق موجود به سرعت در حال منسوخ شدن است. تحقیقات نشان میدهد که آشکارسازهایی که روی تصاویر تولید شده توسط GAN آموزش داده شدهاند، هنگام اعمال بر محتوای مدلهای انتشار، دچار “افت عملکرد شدید” میشوند. قابل توجه است که آشکارسازهایی که روی تصاویر مدل انتشار آموزش داده شدهاند، میتوانند با موفقیت محتوای تولید شده توسط GAN را شناسایی کنند، اما برعکس این موضوع صادق نیست، که نشان میدهد مدلهای انتشار دسته پیچیدهتر و چالشبرانگیزتری از جعلیات را نشان میدهند. در واقع، این امر عملاً مسابقه تسلیحاتی فناوری را بازنشانی کرده است و مستلزم طراحی مجدد استراتژیهای دفاعی برای مقابله با ویژگیهای منحصربهفرد و ظریفتر رسانههای تولید شده توسط انتشار است.
علاوه بر این، ماهیت “جعبه سیاه” این مدلهای تولیدی به پیچیدگی تلاشهای پیشگیری منبع میافزاید. GAN و مدلهای انتشار هر دو به صورت بدون نظارت یا نیمه نظارت عمل میکنند و بدون برچسبهای معنایی آشکار، یاد میگیرند که از توزیع آماری مجموعههای داده تقلید کنند. آنها “چهره انسان چیست” را به روشی که برای انسان قابل درک باشد یاد نمیگیرند، بلکه “چه الگوهای پیکسلی در مجموعه داده چهره امکانپذیر است” را یاد میگیرند. این امر برنامه ریزی مستقیم محدودیتها در فرایند تولید را فوق تصریح میکند (به عنوان مثال، “تصاویر مضر تولید نشود”). مدل به سادگی یک تابع ریاضی را بهینه میکند: یا تشخیصدهنده را فریب دهد یا فرایند نویز را معکوس کند. این بدان معناست که پیشگیری نمیتواند به تنظیم هسته الگوریتمها از درون متکی باشد. مؤثرترین مداخلات باید قبل از تولید (با کنترل دادههای آموزشی) یا بعد از تولید (از طریق تشخیص، واترمارک و منبع) رخ دهند، زیرا خود عمل ایجاد ذاتاً در برابر حاکمیت مستقیم مقاومت میکند.
تحلیل مقایسهای موتورهای تولید
درک تفاوتهای استراتژیک بین GAN و مدلهای انتشار برای هر ذینفعی (از سیاستگذاران گرفته تا افسران امنیت شرکت) بسیار مهم است. تغییر تسلط تکنولوژیکی از اولی به دومی، پیامدهای عمیقی برای دشواری تشخیص، پتانسیل فریب و چشمانداز کلی تهدید دارد.
ویژگی | شبکههای مقابلهای مولد (GAN) | مدلهای انتشار | اهمیت استراتژیک |
---|---|---|---|
مکانیسم اصلی | مولد و تشخیصدهنده در یک بازی با مجموع صفر رقابت میکنند. | شبکههای عصبی یاد میگیرند که یک فرایند “نویزی” را کم کنند. | فرایند پالایش تکراری انتشار، دقت بالاتری را با خطاهای ساختاری کمتر ارائه میدهد. |
فرایند آموزش | به ناپایداری معروف است. مستعد “فروپاشی حالت” و همگرایی کند | فرایند آموزش پایدار و قابل اعتماد است، اما از نظر محاسباتی سنگین است. | دستیابی به نتایج با کیفیت بالا با مدلهای انتشار، موانع ورود را کاهش میدهد و در نتیجه تهدید را دموکراتیزه میکند. |
کیفیت خروجی | میتواند تصاویر باکیفیتی تولید کند، اما ممکن است شامل مصنوعات ظریفی باشد. | در حال حاضر بالاترین سطوح واقعگرایی و تنوع در سطح عکاسی. اغلب از عکسهای واقعی غیرقابل تشخیص است. | جعلیات قانعکنندهتر میشوند، روش ابتکاری “دیدن باور کردن” را فرسایش میدهند و تشخیص انسانی را به چالش میکشند. |
قابلیت تشخیص | روشهای تشخیص قدیمیتر اغلب برای یافتن مصنوعات خاص GAN (به عنوان مثال، عدم تعادل در فرکانس) تنظیم شدهاند. | بسیاری از آشکارسازهای مبتنی بر GAN را منسوخ میکند. تصاویر حاوی مصنوعات کمتری هستند و از نظر آماری با دادههای واقعی مطابقت بیشتری دارند. | مسابقه تسلیحاتی جعل عمیق بازنشانی شده است. تحقیق و توسعه تشخیص باید به تمرکز بر اطلاعات خاص انتشار تغییر کند. |
مدلهای برجسته | StyleGAN، CycleGAN | DALL-E، Stable Diffusion، Imagen، Sora | در حال حاضر، قدرتمندترین و پرکاربردترین ابزارها مبتنی بر انتشار هستند، که باعث افزایش سرعت تهدید میشود. |
سیستم ایمنی دیجیتال: تحلیل مقایسهای روشهای تشخیص
در پاسخ به افزایش رسانههای مصنوعی، حوزهای متنوع از روشهای تشخیص پدیدار شده است که یک “سیستم ایمنی دیجیتال” نوپا را تشکیل میدهد. این تکنیکها شامل تجزیه و تحلیل پزشکی قانونی از مصنوعات دیجیتال، و همچنین روشهای جدید برای شناسایی سیگنالهای بیولوژیکی نهفته است. با این حال، اثربخشی این سیستم ایمنی به طور مداوم توسط تکامل سریع مدلهای تولیدی و حملات متخاصمی که برای فرار از تشخیص طراحی شدهاند، به چالش کشیده میشود. مبارزه مداوم بین ایجاد و تشخیص، یک پارادوکس “ملکه سرخ” است که در آن مدافعان باید به طور مداوم نوآوری کنند تا وضعیت موجود را حفظ کنند.
تحلیل پزشکی قانونی از مصنوعات دیجیتال
معتبرترین دستههای تشخیص جعل عمیق شامل تجزیه و تحلیل پزشکی قانونی از مصنوعات دیجیتال است، یعنی نقصها و ناسازگاریهای ظریفی که توسط فرایند تولید به جا ماندهاند. تشخیص این نقصها و ناسازگاریها اغلب دشوار است و با چشم غیرمسلح قابل تشخیص نیست، اما میتوان آنها را با استفاده از الگوریتمهای ویژه شناسایی کرد.
ناسازگاریهای بصری و تشریحی: برخی از مدلهای تولیدی اولیه و حتی فعلی در بازتولید کامل پیچیدگیهای آناتومی انسان و ویژگیهای دنیای واقعی مشکل دارند. روشهای تشخیص با تجزیه و تحلیل ناهنجاریهای خاص در رسانه از این نقصها بهره میبرند. این موارد شامل الگوهای پلک زدن غیرطبیعی، یعنی پلک زدن بیش از حد، پلک زدن خیلی کم یا اصلاً پلک نزدن (اغلب به دلیل کمبود تصاویر چشم بسته در دادههای آموزشی)، حرکات روباتیک یا ناسازگار چشم و شکل محدود لب یا دهان است که دندانهای پایینی هرگز نشان داده نمیشوند. سایر شاخصها عبارتند از فقدان تغییرات ظریف در سوراخهای بینی در طول صحبت کردن، نورپردازی ناسازگار و ناسازگاریهای سایه که با محیط اطراف مطابقت ندارند و بازتابهای نادرست یا از دست رفته در عینک یا سایر سطوح انعکاسی.
تحلیل پیکسل و فشردهسازی: این تکنیکها در سطح پایینتری عمل میکنند و ساختار دیجیتال یک تصویر یا ویدیو را بررسی میکنند. تحلیل سطح خطای (ELA) روشی برای شناسایی مناطقی از یک تصویر است که سطوح فشردهسازی متفاوتی دارند. از آنجایی که مناطق دستکاری شده اغلب دوباره ذخیره یا دوباره فشرده میشوند، ممکن است سطوح خطای متفاوتی نسبت به قسمتهای اصلی تصویر نشان دهند و در نتیجه جعلیات را برجسته کنند. تحلیل لبه و ترکیب که ارتباط تنگاتنگی با آن دارد، مرزها و کانتورها بین عناصر مصنوعی (به عنوان مثال، چهرههای مبادله شده) و پسزمینههای واقعی را به دقت بررسی میکند. این مناطق ممکن است دستکاری را از طریق نشانههایی مانند پیکسلبندی ناسازگار، وضوح یا تاری غیرطبیعی و تفاوتهای ظریف در رنگ و بافت آشکار کنند.
تحلیل حوزه فرکانس: این روشها به جای تجزیه و تحلیل مستقیم پیکسلها، تصویر را به اجزای فرکانسی خود تبدیل میکنند تا الگوهای غیرطبیعی را بیابند. از آنجایی که مولدهای GAN معماری مبتنی بر نمونهبرداری دارند، اغلب مصنوعات طیفی مشخصی را به جا میگذارند و الگوهای دورهای را ایجاد میکنند که در تصاویر واقعی وجود ندارند. در حالی که این روش برای اکثر GAN مؤثر است، اما میزان موفقیت آن برای مدلهای انتشار کمتر است، مدلهای انتشار تصاویری تولید میکنند که دارای پروفایلهای فرکانسی طبیعیتری هستند. با این حال، برخی تحقیقات نشان دادهاند که مدلهای انتشار همچنان میتوانند ناسازگاریهای قابل تشخیصی را در جزئیات فرکانس بالا در مقایسه با تصاویر واقعی نشان دهند، که یک مسیر بالقوه برای تشخیص ارائه میدهد.
تحلیل سیگنال بیولوژیکی: “ضربان قلب” جعل عمیق
حوزه جدیدتر و امیدبخشتر در تشخیص جعل عمیق شامل تجزیه و تحلیل وجود سیگنالهای بیولوژیکی واقعی در رسانه است. فرضیه اصلی این است که در حالی که مدلهای تولیدی در کپی کردن ظاهری بصری تواناتر میشوند، نمیتوانند فرایندهای فیزیولوژیکی زیربنایی یک فرد زنده را شبیهسازی کنند.
تکنیک اصلی در این حوزه فوتوپلتیسموگرافی از راه دور (rPPG) است. این تکنیک از دوربینهای استاندارد برای تشخیص تغییرات چرخهای کوچک در رنگ پوست استفاده میکند که هنگام پمپاژ خون به رگهای خونی سطحی صورت توسط قلب رخ میدهد. در یک ویدیوی واقعی از یک شخص، این یک سیگنال پالس ضعیف اما ثابت ایجاد میکند. در یک جعل عمیق، این سیگنال اغلب وجود ندارد، تحریف شده است یا ناسازگار است.
روش تشخیص شامل چندین مرحله است:
استخراج سیگنال: سیگنالهای rPPG از چندین ناحیه مورد نظر (ROI) بر روی صورت فرد در ویدیو استخراج میشوند.
پردازش سیگنال: نویز از سیگنال خام پاک میشود و سپس پردازش میشود (معمولاً با استفاده از تبدیل فوریه سریع (FFT)) تا ویژگیهای حوزه زمان و حوزه طیف آن تحلیل شود. FFT میتواند فرکانس غالب سیگنال را آشکار کند، که با ضربان قلب مطابقت دارد.
طبقهبندی: یک طبقهبند (به عنوان مثال، CNN) آموزش داده شده است تا الگوهای ریتمیکی منسجم یک ضربان قلب واقعی را از سیگنالهای پر سر و صدا، ناسازگار یا غایب موجود در فیلمهای جعلی تشخیص دهد.
در محیطهای آزمایشی کنترل شده، این روش به دقت تشخیص بسیار بالایی دست یافته است، برخی از مطالعات دقتهایی تا 99.22 درصد را گزارش کردهاند. با این حال، این روش یک آسیبپذیری حیاتی دارد. تکنیکهای جعل عمیق پیشرفتهتر (به ویژه تکنیکهایی که شامل بازسازی میشوند) میتوانند سیگنالهای فیزیولوژیکی را از ویدیوی منبع یا “راننده” به ارث ببرند. این بدان معناست که یک جعل عمیق ممکن است یک سیگنال rPPG کاملاً طبیعی و منسجم را نشان دهد. فقط ضربان قلب بازیگر منبع خواهد بود، نه شخصیتی که در ویدیوی نهایی به تصویر کشیده شده است. این یافته فرضیه ساده مبنی بر اینکه جعلهای عمیق فاقد سیگنالهای فیزیولوژیکی هستند را به چالش میکشد و آستانه تشخیص را بالا میبرد. روشهای آینده باید فراتر از بررسی صرف وجود یک نبض، سازگاری فیزیولوژیکی و ویژگیهای مختص هویت سیگنال را تأیید کنند.
مسابقه تسلیحاتی تشخیص: چالشهای مدلهای انتشار و حملات متخاصم
حوزه تشخیص جعل عمیق توسط یک مسابقه تسلیحاتی بیامان تعریف شده است. هنگامی که یک روش تشخیص قابل اعتماد توسعه مییابد، مدلهای تولیدی به طور مداوم برای غلبه بر آن تکامل مییابند. ظهور اخیر مدلهای انتشار و استفاده از حملات متخاصم دو مورد از مهمترین چالشهایی هستند که آشکارسازهای مدرن با آن مواجه هستند.
شکست تعمیم:: یک ضعف عمده برای بسیاری از مدلهای تشخیص عدم توانایی آنها در تعمیم است. آشکارسازهایی که برای شناسایی جعلیات ناشی از یک مدل تولید خاص (به عنوان مثال، StyleGAN2) آموزش داده شدهاند، اغلب در مواجهه با تکنیکهای دستکاری جدید یا دامنههای دادهای مختلف با مشکل مواجه میشوند. مدلهای انتشار این مشکل را به ویژه حاد کردهاند. از آنجایی که خروجیهای آنها حاوی مصنوعات آشکار کمتری هستند، محتوای متنوعتری دارند و از نظر آماری با ویژگیهای تصاویر واقعی مطابقت بیشتری دارند، میتوانند به طور مؤثری از آشکارسازهای طراحی شده برای GAN فرار کنند. برای مقابله با این مسئله، محققان در حال توسعه مجموعههای داده معیار جدید و دشوارتری هستند که شامل پیشرفتهترین جعلهای عمیق انتشار میشوند تا ایجاد آشکارسازهای قویتر و کلیتر را هدایت کنند.
حملات متخاصم:: حتی آشکارسازهای با دقت بالا نیز مستعد اختلال مستقیم از طریق حملات متخاصم هستند. در این سناریو، مهاجمان اختلالهای کوچک و نا محسوس را در پیکسلهای تصویر جعل عمیق اعمال میکنند. در حالی که این تغییرات برای انسان غیر قابل مشاهده هستند، اما به طور خاص برای بهرهبرداری از ضعفها در شبکههای عصبی آشکارساز طراحی شدهاند، و باعث میشوند تصویر جعلی به اشتباه به عنوان تصویر واقعی طبقهبندی شود. این تهدید هم در تنظیمات “جعبه سفید” وجود دارد (جایی که مهاجم درک کاملی از معماری آشکارساز دارد) و هم در تنظیمات واقعگرایانهتر “جعبه سیاه” (جایی که مهاجم فقط میتواند از آشکارساز سؤال کند و خروجی آن را مشاهده کند).
در پاسخ، جامعه تحقیقاتی بر توسعه نسل بعدی آشکارسازها با انعطافپذیری بیشتر متمرکز است. استراتژیهای کلیدی عبارتند از:
تنوع دادههای آموزشی:: افزایش مجموعههای داده آموزشی برای شامل شدن طیف گستردهای از جعلیات از GAN و مدلهای انتشار، همراه با دامنههای مختلف تصویر، ثابت شده است که قابلیت تعمیم را بهبود میبخشد.
استراتژیهای آموزش پیشرفته:: تکنیکهای جدید (مانند “تقویت دشواری تکان”) در حال بررسی هستند تا با وزندهی نمونهها بر اساس سهولت طبقهبندی پویا، به مدل کمک کنند تا به طور مؤثرتری روی مجموعههای داده ناهمگن آموزش ببیند.
معماریهای قوی:: معماریهای جدیدی در حال طراحی هستند که ذاتاً نسبت به حملات مقاومتر باشند. یک روش امیدوارکننده استفاده از مجموعهای ناهمگن است که در آن چندین مدل بر روی زیرمجموعههای مجزا و غیر همپوشانی از طیف فرکانسی یک تصویر آموزش داده میشوند. این امر مهاجمان را مجبور میکند تا اختلالهایی پیدا کنند که بتوانند چندین مدل را به طور همزمان فریب دهند، که یک مأموریت بسیار دشوارتر است. سایر رویکردهای ترکیبی ویژگیها را از دامنههای فضایی و فرکانسی ترکیب میکنند تا یک مدل جامعتر از دادهها ایجاد کنند.
رفت و برگشت مداوم بین فناوریهای تولید و تشخیص نشان میدهد که هر دفاع ایستا محکوم به منسوخ شدن است. همانطور که مدلهای تولیدی به تکامل خود ادامه میدهند تا نشانههایی مانند ناهنجاریهای پلک زدن یا مصنوعات GAN را از بین ببرند، آشکارسازها باید به سیگنالهای ظریفتری مانند عدم تطابق فرکانس بالا یا امضاهای rPPG تغییر کنند. به نوبه خود، میتوان مدلهای تولیدی را آموزش داد تا از این سیگنالها تقلید کنند، همانطور که با وراثت rPPG از فیلمهای منبع مشاهده شد. این چرخه دائمی نشان میدهد که یک استراتژی پیشگیری که صرفاً به تشخیص واکنشپذیر متکی باشد، در یک مسابقه تسلیحاتی پرهزینه و احتمالاً غیرقابل برد گرفتار شده است.
ماندگارترین استراتژیهای تشخیص به احتمال زیاد استراتژیهایی خواهند بود که از شکافهای اساسی بین شبیهسازیهای دیجیتال و واقعیت فیزیکی سوء استفاده میکنند. در حالی که مصنوعات بصری نقصهایی در_ تقلید_ هستند که میتوان به تدریج با الگوریتمهای بهتر و قدرت محاسباتی بیشتر برطرف کرد، مدلسازی ویژگیهای نوظهور زیستشناسی و فیزیک بر اساس اصول اولیه برای هوش مصنوعی بسیار دشوارتر است. یک مدل تولیدی “در مورد” سیستم قلبی عروقی انسان “اطلاعاتی ندارد”. فقط یاد میگیرد الگوهای پیکسلی مرتبط با یک چهره را کپی کند. اگرچه میتوان آن را آموزش داد تا نتیجه بصری یک ضربان قلب را تقلید کند، تولید سیگنالهای فیزیولوژیکی سازگار و دقیق برای یک هویت جدید از صفر مستلزم مدلسازی کل سیستم بیولوژیکی خواهد بود که یک چالش بسیار بالاتر است. در نتیجه، معتبرترین تحقیقات تشخیص بر این “شکافهای فیزیکی” متمرکز خواهد شد و نه تنها rPPG، بلکه سایر نشانههایی مانند الگوهای تنفس ظریف، اتساع ناخودآگاه مردمک و ریزحالتهایی را در بر میگیرد که توسط فرایندهای بیولوژیکی پیچیدهای کنترل میشوند و شبیهسازی آنها با دقت بالا دشوار است.
ایجاد اعتماد دیجیتال: پیشگیری فعال از طریق واترمارک و منبع
با توجه به محدودیتهای ذاتی استراتژیهای تشخیص صرفاً واکنشی، طرحهای بادوامتر و پایدارتر برای پیشگیری از آسیب جعل عمیق شامل اقدامات فعال است. این تکنیکها در تلاشند تا از لحظه ایجاد، اعتماد و مسئولیتپذیری در اکوسیستم رسانههای دیجیتال ایجاد کنند. به جای تمرکز بر شناسایی جعلیات پس از ایجاد و انتشار آنها ، این پارادایم تمرکز را به تأیید اصالت و منبع محتوای قانونی تغییر میدهد. دو تکنیک برجسته در این حوزه، واترمارک دیجیتال پزشکی قانونی و منشاء محتوا مبتنی بر بلاک چین هستند.
واترمارک دیجیتال پزشکی قانونی: امضای نامرئی
واترمارک دیجیتال پزشکی قانونی یک تکنیک فعال است که یک شناسه منحصر به فرد و غیر قابل تشخیص را مستقیماً در محتوای دیجیتال تعبیه میکند (مثلاً تصاویر ، فیلمها یا اسناد). بر خلاف واترمارکهای قابل مشاهده ، مانند آرمهایی که روی تصویر روکش شدهاند ، واترمارکهای پزشکی قانونی در دادههای خود فایل پنهان هستند و به گونهای طراحی شدهاند که فوقالعاده قوی باشند. یک واترمارک پزشکی قانونی به خوبی طراحی شده میتواند از عملیات رایج فایل، از جمله فشردهسازی، برش، تغییر اندازه، تنظیم رنگ و حتی اسکرینشات یا ضبط دوربین در صفحه، جان سالم به در ببرد.
در زمینه پیشگیری از جعل عمیق، واترمارکهای پزشکی قانونی چندین عملکرد کلیدی را انجام میدهند:
رهگیری منبع و مسئولیتپذیری: با تعبیه اطلاعات منحصر به فردی که سازنده، کاربر یا کانال توزیع را شناسایی میکند، اگر یک جعل عمیق مخرب درز کند یا مورد سوء استفاده قرار گیرد، میتوان از واترمارکها برای ردیابی منشاء آن استفاده کرد. به عنوان مثال، در یک محیط ویدیوی درخواستی (VOD) یا سازمانی ، یک سیستم میتواند از واترمارک A/B استفاده کند تا به هر کاربر یک نسخه کمی متفاوت و منحصر به فرد واترمارک شده از ویدیو ارائه دهد. اگر یک کپی به صورت آنلاین ظاهر شود، واترمارک را میتوان استخراج کرد تا منبع دقیق نشت را شناسایی کند و شواهد قوی برای اقدامات قانونی یا اداری ارائه دهد.
تأیید اصالت: واترمارکها میتوانند به عنوان مهر اصالت برای محتوای رسمی عمل کنند. سازمانهای دولتی ، شرکتها یا خبرگزاریها میتوانند واترمارکهای منحصربهفردی را در رسانههای قانونی خود تعبیه کنند. این امر امکان تأیید ارتباطات واقعی را فراهم میکند و به شناسایی و جلوگیری از تلاشها برای جعل هویت با استفاده از جعلهای عمیق کمک میکند.
رهگیری چرخه عمر: حامیان معتقدند واترمارکها را میتوان در مراحل مختلف چرخه عمر محتوا ادغام کرد. به عنوان مثال، یک واترمارک را میتوان هنگام آپلود در رسانههای اجتماعی ، برنامههای پیامرسانی، و حتی توسط خود برنامههای ایجاد جعل عمیق تعبیه کرد تا یک رکورد قابل رهگیری از نحوه تولید و توزیع محتوای دستکاری شده ایجاد شود.
فنآوریهای واترمارک پیشرفتهای در حال توسعه هستند که بهطور خاص برای مقابله با دستکاریهای جعل عمیق طراحی شدهاند. یک رویکرد جدید شامل طراحی یک شبکه عصبی است که واترمارک را مستقیماً در_ ویژگیهای هویت_ یک تصویر چهره تعبیه میکند. این امر واترمارک را در برابر دستکاری تعویض چهره بسیار حساس میکند، زیرا این دستکاری ذاتاً ویژگیهای هویت را تغییر میدهد و بنابراین واترمارک را از بین میبرد، در حالی که در برابر اصلاحات سنتی تصویر مانند فشردهسازی یا تغییر اندازه قوی باقی میماند.
علیرغم وعده واترمارک، چالشهای مهمی وجود دارد. اول، واترمارکها شکستناپذیر نیستند. تحقیقات نشان داده است که میتوان از تکنیکهای متخاصم (بهویژه با استفاده از مدلهای انتشار) برای “حل” یا بازسازی تصاویر استفاده کرد و به طور مؤثری واترمارک تعبیهشده را حذف کرد. دوم، و مهمتر از آن، اثربخشی واترمارک به عنوان یک راهحل سیستمی به پذیرش گسترده بستگی دارد. در حال حاضر ، هیچ الزام قانونی یا نظارتی برای برنامههای جعل عمیق یا پلتفرمهای رسانههای اجتماعی برای اجرای واترمارک وجود ندارد ، که استفاده از آن را داوطلبانه و پراکنده میکند.
بلاک چین و منشاء محتوا: دفتر کل غیرقابل تغییر
یک استراتژی فعال مکمل، استفاده از فنّاوری بلاک چین برای ایجاد منشاء محتوا است، یعنی یک رکورد قابل اعتماد، قابل تأیید و مقاوم در برابر دستکاری از منبع و تاریخچه چرخه عمر فایلهای رسانهای. این رویکرد از ویژگیهای اصلی بلاک چین، یعنی ماهیت غیرمتمرکز و غیرقابل تغییر آن، برای ایجاد یک رکورد دائمی و عمومی از اصالت استفاده میکند.
روش ایجاد یک منشاء مبتنی بر بلاک چین معمولاً شامل سه مرحله است:
اثر انگشت محتوا: هنگام ایجاد یا آپلود اولیه در یک پلتفرم شرکتکننده ، یک هش رمزنگاری منحصر به فرد از دادههای فایل生成 . این هش به عنوان یک اثر انگشت دیجیتال عمل میکند؛ هر مقدار از تغییرات در 파일 , 일 완전히 다른 هش تولید خواهد کرد.
רکورڈ ബ്ലکચיין:: આ ਵਿਨੀત هش સાથે , کلیدی metadata ( جیسے , سازنده کی ویریفایی کردہ ديجٹال ہاتھی , ہاتھی , और други متعلقہ विवरण) ایک ٹرانزيکشن کے طور پر ایک بلاکچين دفتر کل میں दर्ज ہوں گے۔ چونکہ ਇਹ دفترکل බෙچنے