آشکار کردن دیپ فیک (جعل عمیق) با ویژگیهای ساده ( قسمت اول ) : مدلهای مولد دیپ فیک اخیراً برای بسیاری از برنامههای دنیای واقعی به نتایج چشمگیر دست یافتهاند، و بهطور موفقیتآمیزی، با وضوح بالا، نمونههای متنوعی را از مجموعه دادههای پیچیده تولید میکنند. با توجه به این پیشرفت، محتوای دیجیتال جعلی باعث افزایش نگرانی و عدم اطمینان نسبت به محتوای تصاویر شدهاند، و در نتیجه روشهای خودکار برای تشخیص این تصاویر جعلی ناشی از هوش مصنوعی، نیازی ضروری هستند.
با وجود این واقعیت که، به نظر میرسد بسیاری از الگوریتمهای ویرایش چهره، چهرههای واقعی انسان را به وجود میآورند، با بررسی دقیقتر، آنها آثار هنری را در حوزههای خاصی به نمایش میگذارند که غالباً با چشم غیر مسلح تشخیص داده نمیشود. در این کار برای آشکار کردن دیپ فیک ، ما یک روش ساده برای تشخیص این قبیل تصاویر چهره جعلی اصطلاحا دیپ فیک[۱] نامیده میشوند ارائه میدهیم. روش ما مبتنی بر آنالیز دامنه فرکانس کلاسیک است که به دنبال آن یک کلاسیفایر[۲] اصلی قرار دارد. در مقایسه با سیستمهای قبلی، که باید با مقادیر زیادی از دادههای برچسب خورده تغذیه شوند، روش ما تنها با استفاده از چند نمونه مشروح آموزشی نتایج بسیار خوبی را نشان داد و حتی در سناریوهای کاملاً بدون نظارت نیز، به دقت خوب دست یافت. برای ارزیابی، در مورد تصاویر با وضوح بالا، ما چندین مجموعه داده عمومی از چهرههای واقعی و جعلی را در یک معیار جدید ترکیب کردیم: HQ- چهرهها.[۳] با توجه به چنین تصاویر با وضوح بالایی، روش ما، هنگامی که روی ۲۰ نمونه تشریحی آموزش داده شود، به یک دقت طبقه بندی عالی ۱۰۰٪ میرسد. در آزمایش دوم، در ارزیابی تصاویر با وضوح متوسط از مجموعه دادههای CelebA ، روش ما به ۱۰۰٪ دقت در محیط نظارت شده و ۹۶٪ دقت در یک محیط بدون نظارت دست مییابد. سرانجام، با ارزیابی توالیهای ویدئویی با وضوح پایین، از مجموعه دادههای فیس فورنسیک++،[۴] روش ما به ۹۰٪ دقت در تشخیص فیلمهای دستکاری شده دست مییابد.
مترجم مقاله : پویا جعفری
[۱] DeepFakes
[۲] classifier
[۳] Faces-HQ
[۴] FaceForensics++