تجارگستران
  • سیاسی
  • فرهنگی
  • ورزشی
  • بین الملل
  • عکس
  • اقتصادی
ما را دنبال کنید:
ایتا
گپ
بله
سروش
آپارات
تلگرام
فید
اینستاگرام

کلیه مطالب توسط خبرگزاری هفت تیر تحت مجوز بین المللی هستند.

دیپ فیک چیست و چگونه کار می‌کند؟

دیپ فیک چیست و چگونه کار می‌کند؟

فناوری هوش مصنوعی، با پیشرفت‌های چشمگیر خود، امکان تولید محتوای جعلی و واقع‌نما را به طرز نگران‌کننده‌ای افزایش داده است. دیپ فیک، به عنوان یکی از خطرناک‌ترین مظاهر این فناوری، با توانایی تقلید صدا و چهره افراد، تهدیدی جدی برای اعتماد عمومی، حریم خصوصی و حتی امنیت ملی محسوب می‌شود.
سارا دهنوی
تیر 3, 1403 | کد خبر : 4554 | 4 دقیقه خواندن
چاپ خبر

دیپ فیک یا فناوری «جعل عمیق» چیست؟

فناوری هوش مصنوعی، مرزهای تکنولوژی و فناوری را در حوزه «جعل» نیز بسیار جلوتر برده است. در حالی که در گذشته تنها امکان دستکاری عکس‌ها توسط نرم‌افزارهای گرافیکی و ارائه تصویری خلاف واقعیت وجود داشت، امروزه با فناوری خطرناک‌تری به نام دیپ فیک روبرو هستیم که می‌تواند چهره و صدای افراد را به شکل شگفت‌آوری تقلید کرده و ویدیوهای غیرواقعی تولید کند.

دیپ فیک بر مبنای هوش مصنوعی عمل می‌کند و به واسطه آن، تصاویر و ویدیوهای دروغین اما «واقعی‌نما» تولید می‌شوند که می‌توانند هر بیننده‌ای را تحت تاثیر قرار دهند. امروزه ویدیوهای دیپ فیک بسیاری از هنرمندان و افراد مشهور ساخته شده و بدون آنکه بیننده متوجه عدم صحت و واقعیت آن‌ها شود، محتوای آن‌ها را باور کرده و در فضای مجازی به انتشار آن‌ها می‌پردازد.

در حالی که طی سال‌های اخیر، برای جلوگیری از فریب خوردن با محتواهای جعلی، بر سواد رسانه‌ای و توجه به «سند» و «فکت» تاکید شده است، با پیشروی بدون محدودیت این فناوری، در واقع اسناد و فکت‌های جعلی تولید می‌شوند. از آنجا که تشخیص مرز بین حقیقت و دروغ گاهی کاملاً غیرممکن می‌شود، این وضعیت بسیار خطرناک است.

فناوری دیپ فیک، که به آن «جعل عمیق» نیز گفته می‌شود، برای اولین بار در سال ۲۰۱۴ توسط دانشجوی دکترای علوم کامپیوتر، ایان گودفلو، ابداع شد. دیپ فیک از ترکیب دو واژه Deep (به معنای عمیق) و Fake (به معنای جعلی و دروغین) تشکیل شده و با استفاده از هوش مصنوعی، قادر است تصاویر انسان را به صورت واقع‌نمایانه تولید کند. در این فناوری، با استفاده از الگوریتم‌های یادگیری ماشین، تصاویر، صدا و ویدیوهای موجود از یک شخص تحلیل شده و سپس محتوا و فیلم یا صدای ساختگی بر روی آن‌ها قرار می‌گیرد.

در این سیستم، یکی از مدل‌های هوش مصنوعی وظیفه تولید محتوا (تولید تصاویر افراد) را بر عهده دارد و مدل رقیب، واقعی یا جعلی بودن محتوای تولید شده را تشخیص می‌دهد. در ابتدای کار، مدل هوش مصنوعی رقیب به راحتی می‌تواند محتوای جعلی را از واقعی تشخیص دهد؛ اما با گذشت زمان، دقت و عملکرد مدل تولیدکننده به قدری افزایش می‌یابد که تشخیص جعلی بودن محتوای تولید شده برای مدل رقیب بسیار دشوار می‌شود.

چرا فناوری دیپ فیک خطرناک است؟

فناوری جعل عمیق نه تنها بازیگران و افراد مشهور را هدف قرار می‌دهد، بلکه به حریم چهره‌های برجسته سیاسی نیز تجاوز کرده است. به عنوان مثال، ویدیویی از باراک اوباما منتشر شد که در آن دونالد ترامپ را فردی حقیر و غیرمنطقی خطاب می‌کرد. اگرچه این ویدیو صحت نداشت و کاملاً غیرواقعی بود، اما افراد زیادی آن را باور کرده و در فضای مجازی به انتشار آن پرداختند. اوباما در خصوص فناوری دیپ فیک گفته است: «در دنیایی که به سادگی می‌توانند صحبت‌ها و ویدیوهای غیرواقعی از من ساخته و منتشر کنند، به مرحله‌ای خواهیم رسید که تشخیص مرز بین واقعیت و دروغ بسیار مشکل خواهد شد و این مطمئناً بر پایه‌های دموکراسی ما که بر مبنای حقیقت است، تأثیر خواهد گذاشت.»

با استفاده از این فناوری، افراد با اهداف خصمانه می‌توانند فیلم‌های غیراخلاقی از چهره‌های مشهور تهیه و تولید کرده و زندگی شخصی آن‌ها را به راحتی به خطر بیندازند. این فناوری همچنین می‌تواند دموکراسی و امنیت ملی یک کشور را نیز تهدید کند.

نرم‌افزار دیپ فیک Zao و نگرانی‌های مربوط به حریم خصوصی

اپلیکیشن چینی Zao، که در زمان خود به عنوان یکی از پرطرفدارترین اپلیکیشن‌ها شناخته می‌شد، قادر بود در عرض چند ثانیه و با دریافت چند عکس از کاربر، چهره او را به چهره سلبریتی مورد علاقه‌اش تبدیل کند. با این حال، پس از مدتی، بسیاری از کاربران نارضایتی خود را در خصوص نقض حریم خصوصی اعلام کردند و این نرم‌افزار مجبور شد سیاست‌های خود را در پی واکنش‌های جدی کاربران تغییر دهد.

در حال حاضر، برنامه‌های متنوعی مانند Zao وجود دارند که با استفاده از تکنیک‌های هوش مصنوعی و دیپ فیک، چهره کاربر را تغییر می‌دهند و بیشتر جنبه سرگرمی دارند. اما با توجه به گزارش‌های متعدد در مورد نقض حریم شخصی کاربران، لازم است قبل از استفاده از این نوع اپلیکیشن‌ها، قوانین مربوط به هر کدام به دقت مطالعه شود. نکته حائز اهمیت این است که با گسترش فناوری دیپ فیک، در آینده‌ای نه چندان دور، تشخیص مرز بین حقیقت و دروغ عملاً غیرممکن خواهد شد.

استفاده از دیپ فیک در شایعه‌پراکنی‌های اخیر

در روزهای اخیر، از این فناوری در کنار روش‌های دیگر، برای تولید شایعاتی در خصوص رهبر ایران استفاده شده است.

چندی پیش (۱۴ خرداد)، کانالی با عنوان «خبررسان شبکه یک»، خبری با این عنوان منتشر کرد: «انتقاد دکتر شاهین محمدصادقی به آیت‌الله گلپایگانی رئیس دفتر مقام معظم رهبری / چرا جلوی شرکت حضرت آقا در مراسم امروز را نگرفتید؟ سلامت ایشان اوجب واجبات است.»

در این خبر، به نقل از «گفتگوی دکتر شاهین محمدصادقی، جراح فوق تخصص و نماینده ادوار مجلس در گفتگو با شبکه خبر صدا و سیما»، مواردی مانند «احتمال عود بیماری که رهبری برای آن جراحی کردند»، وجود «علائم التهاب» و «استرس‌زا بودن» دیدارهای رهبر انقلاب مطرح شده و برای باورپذیر جلوه دادن خبر، از نام یک دارو و چند اصطلاح علمی نیز استفاده شده است.

هیچ دیدگاهی درج نشده - اولین نفر باشید

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

تمامی حقوق محفوظ است!

دی تمز

  • صفحه نخست
  • اقتصادی
  • سیاسی
  • فرهنگی
  • بین الملل
  • ورزشی
  • اینفوگرافیک
  • شهروند خبرنگار
  • تماس با ما
  • درباره ما