دیپ فیک،مرز باریک بین دروغ و حقیقت

این نوشته شامل آموزش ویدیویی است. برای مشاهده vpn خودتون رو روشن کنید

برای مشاهده ویدیو در یوتوب لطفا VPN خود را روشن کنید

deepfake

(DeepFake | جعل عمیق) بحث داغ این روزای دنیای تکنولوژی است.سیستم‌های دیپ فیک (جعل عمیق) مبتنی بر (Deep Learning|یادگیری عمیق) و( Machine Learning|یادگیری ماشین) کار می‌کنند. دیپ فیک شاید تکنولوژی سرگرم کننده به نظر برسد .اما این تکنولوژی برای جابه جایی چهره افراد و تحریف کردن(Doctoring) ویدیو ها مورد استفاده قرار می‌گیرد. دیپ فیک تکنولوژی هوشمند در عین حال خطرناک است.قابلیت گول زدن افراد با محتویات جعلی توسط دیپ فیک به جرات می‌توان گفت یکی از ترسناک ترین سناریوهای هوش مصنوعی است.البته تمامی تکنولوژی ها قابلیت این را دارند برای مقاصد خصمانه یا مفید مورد استفاده بگیرند. دیپ فیک علاوه بر قابلیت های خصمانه پتانسیل این را دارد که در کارهای مفیدی از جمله تجارت مورد استفاده قرار بگیرد.

DeepFake

معرفی دیپ فیک

اصطلاح دیپ فیک به ویدئوها و صداهای جعلی و تولید شده به وسیله کامپیوتر اطلاق می‌شود.که تشخیص آن‌ها از محتویات واقعی (Genuine) و بدون تغییر (Unaltered) بسیار سخت است. دیپ فیک جهت تغییر فایل‌های ویدئویی، معادل نرم‌افزار فتوشاپ برای تصاویر دیجیتالی محسوب می‌شوند.

در سیستم‌های دیپ فیک یا جعل عمیق، معمولا از دسته خاصی از الگوریتم‌های یادگیری ماشین به نام شبکه‌های مولد تخاصمی» (Generative Adversarial Networks) جهت «ترکیب کردن» (Combine) و «برهم‌نهی» (Superimpose) تصاویر و ویدئوهای موجود، روی مجموعه‌ای از تصاویر یا ویدئوهای «منبع» (Source) استفاده می‌شود.

ویدیو زیر نمونه ای بارز از دیپ فیک است . بر روی چهره رامی ملک بازیگر مشهور سریال مستر ربات پیاده شده است.اگرچه این ویدئو نسبت به‌ دیگر نمونه‌های دیپ‌فیک از کیفیت پایین‌تری برخوردار است. اما قطعاً با پیشرفت این فناوری می‌توان آینده‌ای را متصور شد که هرکس طبق علایق خود، بازیگر موردنظرش را برای صحنه‌های مختلف فیلم‌ درنظر بگیرد.

محتوای دیپ فیک چگونه ساخته می‌شود؟

ویدئوهای دیپ فیک (جعل عمیق)، با استفاده از دو سیستم یا مدل هوش مصنوعی «رقابت کننده» (Competing) پدید می‌آیند. دسته اول از چنین مدل‌ها یا سیستم‌های هوش مصنوعی رقابت کننده، سیستم‌های «مولد» (Generator) نام دارد. دسته دوم، سیستم‌های «متمایزگر یا تمایزی» (Discriminator).

روش کار سیستم‌های هوشمند تولید کننده محتوای دیپ فیک بدین صورت است که ابتدا مدل‌های مولد (Generator)، یک ویدئوی جعلی تولید می‌کند. سپس، ویدئوی تولید شده به عنوان ورودی مدل‌های متمایزگر وارد سیستم می‌شود. وظیفه مدل متمایزگر این است که تشخیص دهد آیا ویدئوی تولید شده واقعی است یا جعلی.

هر بار که مدل متمایزگر بتواند به درستی، جعلی بودن ویدئوها را تشخیص دهد، باز خورد یا سیگنالی در اختیار مدل مولد قرار می‌دهد. این سیگنال یا بازخورد، خطاهای مدل مولد در تولید ویدئوهای تقلبی را مشخص می‌کند. مدل مولد بر اساس «بازخوردهای» (Feedbacks) ایجاد شده، اقدام به تصحیح خطا و تولید ویدئوهای تقلبی جدید می‌کند.

از در کنار هم قرار گرفتن مدل‌های مولد و متمایزگر، شبکه‌های مولد تخاصمی شکل خواهد گرفت. اولین قدم در پیاده‌سازی یک مدل شبکه‌های مولد تخاصمی یا GAN، شناسایی خروجی مطلوب و تولید یک مجموعه داده آموزشی برای مدل مولد است. به محض اینکه عملکرد و دقت مدل مولد در تولید ویدئوهای جعلی به سطح مطلوبی برسد. ویدئوهای تولید شده به عنوان ورودی مدل متمایزگر عمل خواهند کرد.

همانطور که به مرور زمان عملکرد مدل مولد در تولید ویدئوهای جعلی افزایش پیدا می‌کند، مدل متمایزگر نیز دقت بیشتری در تشخیص ویدئوهای جعلی از خود نشان می‌دهد. همچنین، با افزایش دقت و عملکرد مدل متمایزگر در تشخیص ویدئوهای جعلی، دقت مدل مولد در تولید ویدئوهای جعلی با کیفیت و نزدیک به واقعیت افزایش پیدا می‌کند.

کاربردهای دیپ فیک

تولید محتوای ویدئویی

شاید یکی از فناوری‌های مشابهی که پیش از این در صنعت فیلم مورد استفاده شده است، فناوری تولید محتوای ویدئویی با استفاده از «جلوه‌های ویژه» باشد. اگرچه این فناوری (تولید چهره‌های کامپیوتری و جا به جا کردن آن‌ها با چهره بازیگران) سال‌های زیادی است که در صنعت فیلم استفاده می‌شود. با این حال، سادگی دسترسی دیپ فیک و هزینه به مراتب کمتر آن‌ها نسبت به جلوه‌های ویژه پرهزینه، دیپ فیک را به یک انتخاب وسوسه‌برانگیز و هیجان‌آور برای افراد مختلف، به ویژه آماتورهای علاقه‌مند به این حوزه تبدیل کرده است.

البته، نمی‌توان منکر استفاده‌های متعدد این فناوری در صنعت فیلم شد. به عنوان نمونه، این قابلیت برای شرکت‌های سازنده فیلم‌های سینمایی وجود دارد که فیلم‌ها را با بازیگران ناشناخته ضبط کنند . سپس، در مرحله ویرایش، تصاویر بازیگران معروف روی تصاویر ضبط شده قرار داده شود. سناریوی حقیقی دیگر جهت استفاده از فناوری دیپ فیک، تغییر بازیگر فیلم بر اساس بازار فروش و یا امکان انتخاب بازیگر توسط کاربر است. بدین صورت که با استفاده از این فناوری، این امکان برای کاربران فراهم می‌شود تا پیش از پخش یک فیلم، بازیگر مورد علاقه خود را برای ایفای نقش انتخاب کنند.

استفاده از چهره افراد مشهور برای تبلیغات پوشاک

در این سناریو، افراد مشهور چهره‌های مدل شده و کامپیوتری خود را به شرکت‌های تولید پوشاک قرض می‌دهند تا این شرکت‌ها بدون نیاز به فیلم‌برداری کلیپ‌های تبلیغاتی، از چهره آن‌ها برای تبلیغ پوشاک و وسایل جانبی استفاده کنند (قرار دادن چهره افراد معروف روی مانکن‌های لباس).

ساخت انسان‌های مجازی

انسان‌های مجازی دستاورد مهم دیگری در حوزه‌ی تعاملات کاربر دنیای فناوری هستند. آنها با روشی متفاوت از دستیارهای شخصی به سمت بدنه‌ی جامعه حرکت می‌کنند. مسیر آن‌ها از سمت اینفلوئنسرهای دیجیتال دنبال می‌شود؛ اینلفوئنسرهایی که در دسته‌ی انسان‌های مجازی قابل باور قرار می‌گیرند. آن‌ها نوعی از ارتباط را ایجاد می‌کنند که به رفتارهای انسانی عموم جامعه نزدیک‌تر است.

به‌عنوان نمونه‌ای از اینفلوئنسرهای دیجیتال می‌توان به Lil Miquela یا Astro در اینستاگرام اشاره کرد .آنها ارتباطی طبیعی و نزدیک با کاربران دارند. البته پاسخ آن‌ها به کاربران و تعامل‌های مربوطه، توسط افراد دیگر و انسان‌های واقعی نوشته می‌شود. اما رویکردهای موجود نشان از آینده‌‌ای دارند که انسان‌های مجازی به پدیده‌ای رایج در شبکه‌های مجازی تبدیل شوند.

لیل میکولا، اینفلوئنسر مجازی اینستاگرام
لیل میکولا، اینفلوئنسر مجازی اینستاگرام

دیپ فیک و زیرپا گذاشتن اخلاقیات

متأسفانه دیپ‌فیک تنها به یک یا دو حوزه‌ی خاص خلاصه نمی‌شود . آثار مخرب این فناوری را می‌توان در جنبه‌های مختلف زندگی مشاهده کرد.

یکی از بحث‌برانگیز‌ترین و غیراخلاقی‌ترین زمینه‌های فعالیت دیپ‌فیک، تولید محتوای ویدئویی بزرگسالانه است. سال ۲۰۱۷ میلادی، کاربری در وب‌سایت ردیت؛ ویدئویی غیراخلاقی و دروغین از بازیگری با نام Gal Gadot منتشر کرد . که وی را درحال ایفای نقش در فیلم‌های غیراخلاقی نشان می‌داد. اگرچه این ویدئو توسط فناوری دیپ‌فیک ساخته شده بود. اما نوع مونتاژ به‌گونه‌ای بود که در نگاه نخست کمتر کسی می‌توانست متوجه جعلی‌بودن ویدئو شود.

طولی نکشید که اتفاقات مشابه با همین مضمون برای دیگر بازیگران مطرحِ سینما رخ داد. بدین‌گونه، افرادی که در ابتدایی‌ترین جنبه‌های زندگی روزمره خود جانب احتیاط را پیشه می‌کنند. خود را در ویدئو‌هایی دیدند که پیش‌تر تصور آن نیز از ذهن‌ها دور بود.

دیپ فیک مارک زاکربرگ

محدودیت‌های سیستم‌های تولید دیپ فیک

با وجود اینکه نتایج حاصل از تولید ویدئوهای دیپ فیک ممکن است برای کاربران جذاب باشد. اما، استفاده از فناوری‌های هوش مصنوعی و دیپ لرنینگ جهت تولید ویدئوهای دیپ فیک محدودیت‌هایی نیز دارند که در ادامه به آن‌ها می‌پردازیم.

سیستم تنها در صورتی قادر به تولید ویدئوهای دیپ فیک مطلوب خواهد بود که مجموعه‌ بزرگی از تصاویر را برای آموزش در اختیار داشته باشد. برای اینکه سیستم قادر باشد تصویر یک شخص خاص را روی یک ویدئوی خاص قرار دهد، لازم است چیزی حدود 300 الی 2000 تصویر از صورت شخص در اختیار سیستم قرار داده شود تا شبکه عصبی قادر به یادگیری و بازسازی چهره آن شخص و قرار دادن آن روی ویدئوی مورد نظر باشد.

داده‌های آموزشی استفاده شده برای پیاده‌سازی سیستم‌های دیپ فیک، باید به خوبی نمایانگر ویژگی‌های ویدئوی هدف باشد. فرض کنید که قرار باشد چهره شخص A روی چهره شخص B در یک ویدئوی خاص قرار بگیرد. در چنین حالتی، تصاویر آموزشی شخص A باید در زوایا و حالات مختلف در اختیار سیستم قرار بگیرد تا سیستم بتواند به درستی ویژگی‌های چهره این شخص را یاد بگیرد.

ساختن مدل‌های تولید دیپ فیک (جعل عمیق)، هزینه زمانی و محاسباتی زیادی می‌طلبد. سیستم‌های تولید دیپ فیک از ماژول‌های مختلفی نظیر «تشخیص چهره» (Face Detection) و هم‌ترازی تصاویر تشکیل شده‌اند. هر کدام از این ماژول‌ها، قدرت محاسباتی قابل توجهی را به خود اختصاص خواهند داد.مثلا آموزش یک مدل یادگیری عمیق برای تولید دیپ فیک با کیفیت معمولی، چیزی حدود 72 ساعت زمان خواهد برد. برای آموزش چنین سیستمی، به قدرت محاسباتی بسیار زیادی نیاز است. از سوی دیگر، هر مدل دیپ فیک تولید شده، تنها قادر به قرار دادن تصویر یک شخص خاص روی ویدئو خواهد بود . برای قرار دادن تصویر یک شخص دیگر روی ویدئو، احتیاج به آموزش یک مدل دیگر خواهد بود. به عبارت دیگر، سیستم‌های تولید دیپ فیک، مقیاس‌پذیری خوبی از خود نشان نمی‌دهند.

محدودیت های دیپ فیک

و حرف آخر…

فناوری‌های دیپ فیک (جعل عمیق)، یکی از جنجال‌برانگیزترین فناوری‌هایی است که در چند سال اخیر معرفی شده است .طی این مدت کوتاه توانسته است بخش‌های مختلفی از جامعه انسانی و حتی مسائل سیاسی را نیز تحت تأثیر خود قرار دهد. چنین کاربردی از فناوری ممکن است یک هاله ابهام در مورد صحت و اعتبار ویدئوهای منتشر شده در سطح وب ایجاد کند.

با این حال، ظهور دیپ فیک، جذاب بودن این فناوری و کاربردهای گسترده (و مفید) آن در حوزه‌های مختلف علم و فناوری را نشان داد. امروز همه می‌‌دانیم که استفاده‌ی سوء از دیپ فیک، چالش‌هایی را برای جامعه به‌همراه خواهد داشت. به‌علاوه با افزایش آگاهی از زمینه‌های سوءاستفاده، پیشگیری از عواقب آن‌ها نیز آسان‌تر خواهد بود. البته درنهایت این فناوری توسعه یافته است و در دنیای آینده‌ی ما حضور جدی خواهد داشت.

سعیدیگانه

سعیدیگانه

گیک و بنیان‌گذار و سردبیر وبسایت گیک تیوب | بلاگر و یه مهندس نرم افزار با هوشی متوسط که عاشق دنیای تکنولوژیه, کتاب زیاد میخونه, فعال حوزه تکنولوژیه, دوست داره به دیگران کمک کنه و درحال پرداخت سهمش از توسعه جامعشه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا