آشکار کردن دیپ فیک (جعل عمیق) با ویژگی‌های ساده ( قسمت اول ) : مدل‌های مولد دیپ فیک اخیراً برای بسیاری از برنامه‌های دنیای واقعی به نتایج چشمگیر دست یافته‌اند، و به‌طور موفقیت‌آمیزی، با وضوح بالا، نمونه‌های متنوعی را از مجموعه داده‌های پیچیده تولید می‌کنند. با توجه به این پیشرفت، محتوای دیجیتال جعلی باعث افزایش نگرانی و عدم اطمینان نسبت به محتوای تصاویر شده‌اند، و در نتیجه روش‌های خودکار برای تشخیص این تصاویر جعلی ناشی از هوش مصنوعی، نیازی ضروری هستند.

با وجود این واقعیت که، به نظر می‌رسد بسیاری از الگوریتم‌های ویرایش چهره، چهره‌های واقعی انسان را به وجود می‌آورند، با بررسی دقیق‌تر، آنها آثار هنری را در حوزه‌های خاصی به نمایش می‌گذارند که غالباً با چشم غیر مسلح تشخیص داده نمی‌شود. در این کار برای آشکار کردن دیپ فیک ، ما یک روش ساده برای تشخیص این قبیل تصاویر چهره جعلی اصطلاحا دیپ فیک[۱] نامیده می‌شوند  ارائه می‌دهیم. روش ما مبتنی بر آنالیز دامنه فرکانس کلاسیک است که به دنبال آن یک کلاسیفایر[۲] اصلی قرار دارد. در مقایسه با سیستم‌های قبلی، که باید با مقادیر زیادی از داده‌های برچسب خورده تغذیه شوند، روش ما تنها با استفاده از چند نمونه مشروح آموزشی نتایج بسیار خوبی را نشان داد و حتی در سناریوهای کاملاً بدون نظارت نیز، به دقت خوب دست یافت. برای ارزیابی، در مورد تصاویر با وضوح بالا، ما چندین مجموعه داده عمومی از چهره‌های واقعی و جعلی را در یک معیار جدید ترکیب کردیم: HQ- چهره‌ها.[۳] با توجه به چنین تصاویر با وضوح بالایی، روش ما، هنگامی که روی ۲۰ نمونه تشریحی آموزش داده شود، به یک دقت طبقه بندی عالی ۱۰۰٪ می‌رسد. در آزمایش دوم، در ارزیابی تصاویر با وضوح متوسط ​​از مجموعه داده‌های CelebA ، روش ما به ۱۰۰٪ دقت در محیط نظارت شده و ۹۶٪ دقت در یک محیط بدون نظارت دست می‌یابد. سرانجام، با ارزیابی توالی‌های ویدئویی با وضوح پایین، از مجموعه داده‌های فیس فورنسیک++،[۴] روش ما به ۹۰٪ دقت در تشخیص فیلم‌های دستکاری شده دست می‌یابد.

مترجم مقاله : پویا جعفری

[۱] DeepFakes

[۲] classifier

[۳] Faces-HQ

[۴] FaceForensics++