دیپ فیک چیست و چگونه کار میکند؟
دیپ فیک یا فناوری «جعل عمیق» چیست؟
فناوری هوش مصنوعی، مرزهای تکنولوژی و فناوری را در حوزه «جعل» نیز بسیار جلوتر برده است. در حالی که در گذشته تنها امکان دستکاری عکسها توسط نرمافزارهای گرافیکی و ارائه تصویری خلاف واقعیت وجود داشت، امروزه با فناوری خطرناکتری به نام دیپ فیک روبرو هستیم که میتواند چهره و صدای افراد را به شکل شگفتآوری تقلید کرده و ویدیوهای غیرواقعی تولید کند.
دیپ فیک بر مبنای هوش مصنوعی عمل میکند و به واسطه آن، تصاویر و ویدیوهای دروغین اما «واقعینما» تولید میشوند که میتوانند هر بینندهای را تحت تاثیر قرار دهند. امروزه ویدیوهای دیپ فیک بسیاری از هنرمندان و افراد مشهور ساخته شده و بدون آنکه بیننده متوجه عدم صحت و واقعیت آنها شود، محتوای آنها را باور کرده و در فضای مجازی به انتشار آنها میپردازد.
در حالی که طی سالهای اخیر، برای جلوگیری از فریب خوردن با محتواهای جعلی، بر سواد رسانهای و توجه به «سند» و «فکت» تاکید شده است، با پیشروی بدون محدودیت این فناوری، در واقع اسناد و فکتهای جعلی تولید میشوند. از آنجا که تشخیص مرز بین حقیقت و دروغ گاهی کاملاً غیرممکن میشود، این وضعیت بسیار خطرناک است.
فناوری دیپ فیک، که به آن «جعل عمیق» نیز گفته میشود، برای اولین بار در سال ۲۰۱۴ توسط دانشجوی دکترای علوم کامپیوتر، ایان گودفلو، ابداع شد. دیپ فیک از ترکیب دو واژه Deep (به معنای عمیق) و Fake (به معنای جعلی و دروغین) تشکیل شده و با استفاده از هوش مصنوعی، قادر است تصاویر انسان را به صورت واقعنمایانه تولید کند. در این فناوری، با استفاده از الگوریتمهای یادگیری ماشین، تصاویر، صدا و ویدیوهای موجود از یک شخص تحلیل شده و سپس محتوا و فیلم یا صدای ساختگی بر روی آنها قرار میگیرد.
در این سیستم، یکی از مدلهای هوش مصنوعی وظیفه تولید محتوا (تولید تصاویر افراد) را بر عهده دارد و مدل رقیب، واقعی یا جعلی بودن محتوای تولید شده را تشخیص میدهد. در ابتدای کار، مدل هوش مصنوعی رقیب به راحتی میتواند محتوای جعلی را از واقعی تشخیص دهد؛ اما با گذشت زمان، دقت و عملکرد مدل تولیدکننده به قدری افزایش مییابد که تشخیص جعلی بودن محتوای تولید شده برای مدل رقیب بسیار دشوار میشود.
چرا فناوری دیپ فیک خطرناک است؟
فناوری جعل عمیق نه تنها بازیگران و افراد مشهور را هدف قرار میدهد، بلکه به حریم چهرههای برجسته سیاسی نیز تجاوز کرده است. به عنوان مثال، ویدیویی از باراک اوباما منتشر شد که در آن دونالد ترامپ را فردی حقیر و غیرمنطقی خطاب میکرد. اگرچه این ویدیو صحت نداشت و کاملاً غیرواقعی بود، اما افراد زیادی آن را باور کرده و در فضای مجازی به انتشار آن پرداختند. اوباما در خصوص فناوری دیپ فیک گفته است: «در دنیایی که به سادگی میتوانند صحبتها و ویدیوهای غیرواقعی از من ساخته و منتشر کنند، به مرحلهای خواهیم رسید که تشخیص مرز بین واقعیت و دروغ بسیار مشکل خواهد شد و این مطمئناً بر پایههای دموکراسی ما که بر مبنای حقیقت است، تأثیر خواهد گذاشت.»
با استفاده از این فناوری، افراد با اهداف خصمانه میتوانند فیلمهای غیراخلاقی از چهرههای مشهور تهیه و تولید کرده و زندگی شخصی آنها را به راحتی به خطر بیندازند. این فناوری همچنین میتواند دموکراسی و امنیت ملی یک کشور را نیز تهدید کند.
نرمافزار دیپ فیک Zao و نگرانیهای مربوط به حریم خصوصی
اپلیکیشن چینی Zao، که در زمان خود به عنوان یکی از پرطرفدارترین اپلیکیشنها شناخته میشد، قادر بود در عرض چند ثانیه و با دریافت چند عکس از کاربر، چهره او را به چهره سلبریتی مورد علاقهاش تبدیل کند. با این حال، پس از مدتی، بسیاری از کاربران نارضایتی خود را در خصوص نقض حریم خصوصی اعلام کردند و این نرمافزار مجبور شد سیاستهای خود را در پی واکنشهای جدی کاربران تغییر دهد.
در حال حاضر، برنامههای متنوعی مانند Zao وجود دارند که با استفاده از تکنیکهای هوش مصنوعی و دیپ فیک، چهره کاربر را تغییر میدهند و بیشتر جنبه سرگرمی دارند. اما با توجه به گزارشهای متعدد در مورد نقض حریم شخصی کاربران، لازم است قبل از استفاده از این نوع اپلیکیشنها، قوانین مربوط به هر کدام به دقت مطالعه شود. نکته حائز اهمیت این است که با گسترش فناوری دیپ فیک، در آیندهای نه چندان دور، تشخیص مرز بین حقیقت و دروغ عملاً غیرممکن خواهد شد.
استفاده از دیپ فیک در شایعهپراکنیهای اخیر
در روزهای اخیر، از این فناوری در کنار روشهای دیگر، برای تولید شایعاتی در خصوص رهبر ایران استفاده شده است.
چندی پیش (۱۴ خرداد)، کانالی با عنوان «خبررسان شبکه یک»، خبری با این عنوان منتشر کرد: «انتقاد دکتر شاهین محمدصادقی به آیتالله گلپایگانی رئیس دفتر مقام معظم رهبری / چرا جلوی شرکت حضرت آقا در مراسم امروز را نگرفتید؟ سلامت ایشان اوجب واجبات است.»
در این خبر، به نقل از «گفتگوی دکتر شاهین محمدصادقی، جراح فوق تخصص و نماینده ادوار مجلس در گفتگو با شبکه خبر صدا و سیما»، مواردی مانند «احتمال عود بیماری که رهبری برای آن جراحی کردند»، وجود «علائم التهاب» و «استرسزا بودن» دیدارهای رهبر انقلاب مطرح شده و برای باورپذیر جلوه دادن خبر، از نام یک دارو و چند اصطلاح علمی نیز استفاده شده است.
هیچ دیدگاهی درج نشده - اولین نفر باشید