تاریخ انتشار : یکشنبه ۳ تیر ۱۴۰۳ - ۲۰:۰۲ خبرنگار : سارا دهنوی
کد خبر : 4554

دیپ فیک چیست و چگونه کار می‌کند؟

دیپ فیک چیست و چگونه کار می‌کند؟
فناوری هوش مصنوعی، با پیشرفت‌های چشمگیر خود، امکان تولید محتوای جعلی و واقع‌نما را به طرز نگران‌کننده‌ای افزایش داده است. دیپ فیک، به عنوان یکی از خطرناک‌ترین مظاهر این فناوری، با توانایی تقلید صدا و چهره افراد، تهدیدی جدی برای اعتماد عمومی، حریم خصوصی و حتی امنیت ملی محسوب می‌شود.

دیپ فیک یا فناوری «جعل عمیق» چیست؟

فناوری هوش مصنوعی، مرزهای تکنولوژی و فناوری را در حوزه «جعل» نیز بسیار جلوتر برده است. در حالی که در گذشته تنها امکان دستکاری عکس‌ها توسط نرم‌افزارهای گرافیکی و ارائه تصویری خلاف واقعیت وجود داشت، امروزه با فناوری خطرناک‌تری به نام دیپ فیک روبرو هستیم که می‌تواند چهره و صدای افراد را به شکل شگفت‌آوری تقلید کرده و ویدیوهای غیرواقعی تولید کند.

دیپ فیک بر مبنای هوش مصنوعی عمل می‌کند و به واسطه آن، تصاویر و ویدیوهای دروغین اما «واقعی‌نما» تولید می‌شوند که می‌توانند هر بیننده‌ای را تحت تاثیر قرار دهند. امروزه ویدیوهای دیپ فیک بسیاری از هنرمندان و افراد مشهور ساخته شده و بدون آنکه بیننده متوجه عدم صحت و واقعیت آن‌ها شود، محتوای آن‌ها را باور کرده و در فضای مجازی به انتشار آن‌ها می‌پردازد.

در حالی که طی سال‌های اخیر، برای جلوگیری از فریب خوردن با محتواهای جعلی، بر سواد رسانه‌ای و توجه به «سند» و «فکت» تاکید شده است، با پیشروی بدون محدودیت این فناوری، در واقع اسناد و فکت‌های جعلی تولید می‌شوند. از آنجا که تشخیص مرز بین حقیقت و دروغ گاهی کاملاً غیرممکن می‌شود، این وضعیت بسیار خطرناک است.

فناوری دیپ فیک، که به آن «جعل عمیق» نیز گفته می‌شود، برای اولین بار در سال ۲۰۱۴ توسط دانشجوی دکترای علوم کامپیوتر، ایان گودفلو، ابداع شد. دیپ فیک از ترکیب دو واژه Deep (به معنای عمیق) و Fake (به معنای جعلی و دروغین) تشکیل شده و با استفاده از هوش مصنوعی، قادر است تصاویر انسان را به صورت واقع‌نمایانه تولید کند. در این فناوری، با استفاده از الگوریتم‌های یادگیری ماشین، تصاویر، صدا و ویدیوهای موجود از یک شخص تحلیل شده و سپس محتوا و فیلم یا صدای ساختگی بر روی آن‌ها قرار می‌گیرد.

در این سیستم، یکی از مدل‌های هوش مصنوعی وظیفه تولید محتوا (تولید تصاویر افراد) را بر عهده دارد و مدل رقیب، واقعی یا جعلی بودن محتوای تولید شده را تشخیص می‌دهد. در ابتدای کار، مدل هوش مصنوعی رقیب به راحتی می‌تواند محتوای جعلی را از واقعی تشخیص دهد؛ اما با گذشت زمان، دقت و عملکرد مدل تولیدکننده به قدری افزایش می‌یابد که تشخیص جعلی بودن محتوای تولید شده برای مدل رقیب بسیار دشوار می‌شود.

چرا فناوری دیپ فیک خطرناک است؟

فناوری جعل عمیق نه تنها بازیگران و افراد مشهور را هدف قرار می‌دهد، بلکه به حریم چهره‌های برجسته سیاسی نیز تجاوز کرده است. به عنوان مثال، ویدیویی از باراک اوباما منتشر شد که در آن دونالد ترامپ را فردی حقیر و غیرمنطقی خطاب می‌کرد. اگرچه این ویدیو صحت نداشت و کاملاً غیرواقعی بود، اما افراد زیادی آن را باور کرده و در فضای مجازی به انتشار آن پرداختند. اوباما در خصوص فناوری دیپ فیک گفته است: «در دنیایی که به سادگی می‌توانند صحبت‌ها و ویدیوهای غیرواقعی از من ساخته و منتشر کنند، به مرحله‌ای خواهیم رسید که تشخیص مرز بین واقعیت و دروغ بسیار مشکل خواهد شد و این مطمئناً بر پایه‌های دموکراسی ما که بر مبنای حقیقت است، تأثیر خواهد گذاشت.»

با استفاده از این فناوری، افراد با اهداف خصمانه می‌توانند فیلم‌های غیراخلاقی از چهره‌های مشهور تهیه و تولید کرده و زندگی شخصی آن‌ها را به راحتی به خطر بیندازند. این فناوری همچنین می‌تواند دموکراسی و امنیت ملی یک کشور را نیز تهدید کند.

نرم‌افزار دیپ فیک Zao و نگرانی‌های مربوط به حریم خصوصی

اپلیکیشن چینی Zao، که در زمان خود به عنوان یکی از پرطرفدارترین اپلیکیشن‌ها شناخته می‌شد، قادر بود در عرض چند ثانیه و با دریافت چند عکس از کاربر، چهره او را به چهره سلبریتی مورد علاقه‌اش تبدیل کند. با این حال، پس از مدتی، بسیاری از کاربران نارضایتی خود را در خصوص نقض حریم خصوصی اعلام کردند و این نرم‌افزار مجبور شد سیاست‌های خود را در پی واکنش‌های جدی کاربران تغییر دهد.

در حال حاضر، برنامه‌های متنوعی مانند Zao وجود دارند که با استفاده از تکنیک‌های هوش مصنوعی و دیپ فیک، چهره کاربر را تغییر می‌دهند و بیشتر جنبه سرگرمی دارند. اما با توجه به گزارش‌های متعدد در مورد نقض حریم شخصی کاربران، لازم است قبل از استفاده از این نوع اپلیکیشن‌ها، قوانین مربوط به هر کدام به دقت مطالعه شود. نکته حائز اهمیت این است که با گسترش فناوری دیپ فیک، در آینده‌ای نه چندان دور، تشخیص مرز بین حقیقت و دروغ عملاً غیرممکن خواهد شد.

استفاده از دیپ فیک در شایعه‌پراکنی‌های اخیر

در روزهای اخیر، از این فناوری در کنار روش‌های دیگر، برای تولید شایعاتی در خصوص رهبر ایران استفاده شده است.

چندی پیش (۱۴ خرداد)، کانالی با عنوان «خبررسان شبکه یک»، خبری با این عنوان منتشر کرد: «انتقاد دکتر شاهین محمدصادقی به آیت‌الله گلپایگانی رئیس دفتر مقام معظم رهبری / چرا جلوی شرکت حضرت آقا در مراسم امروز را نگرفتید؟ سلامت ایشان اوجب واجبات است.»

در این خبر، به نقل از «گفتگوی دکتر شاهین محمدصادقی، جراح فوق تخصص و نماینده ادوار مجلس در گفتگو با شبکه خبر صدا و سیما»، مواردی مانند «احتمال عود بیماری که رهبری برای آن جراحی کردند»، وجود «علائم التهاب» و «استرس‌زا بودن» دیدارهای رهبر انقلاب مطرح شده و برای باورپذیر جلوه دادن خبر، از نام یک دارو و چند اصطلاح علمی نیز استفاده شده است.

برچسب ها :

ناموجود
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.