اولین “دیپ فیک” در ایران
فناوری هوش مصنوعی مرزهای فناوری و فناوری را به قلمرو «جعلی» کشانده است و اگر در گذشته تنها با نرم افزارهای گرافیکی امکان دستکاری عکس و نشان دادن چیزی خلاف واقعیت (به نام فتوشاپ) به بیننده وجود داشت، امروزه با فناوری ما با تهدید خطرناک تری روبرو هستیم که می تواند در کمال تعجب از چهره و صدای افراد تقلید کرده و آنها را به عنوان ویدیوهای غیر واقعی منتشر کند.
فناوری Deepfake مبتنی بر هوش مصنوعی است که به لطف آن تصاویر و ویدیوهای جعلی ایجاد می شود، اما “واقعی” است و می تواند هر بیننده ای را تحت تاثیر قرار دهد. امروزه بسیاری از هنرمندان و شخصیت های مشهور ویدئوهای جعلی می سازند و بیننده محتوای آنها را باور می کند و بدون اینکه متوجه صحت و واقعی بودن آنها باشد، آن را در فضای مجازی منتشر می کند.
در حالی که در سال های اخیر برای جلوگیری از گمراه شدن توسط مطالب کذب، بر سواد رسانه ای و توجه به “اسناد” و “حقایق” تاکید شده است، اما با پیشرفت بدون محدودیت این فناوری، اسناد و حقایق نادرست تولید شده است. . و از آنجایی که تشخیص مرز حقیقت و دروغ گاهی کاملاً غیرممکن می شود، بسیار خطرناک است.
تکنولوژی عمیق جعلی چیست؟
فناوری Deepfake اولین بار در سال 2014 توسط یک دانشجوی دکترا به نام Ian Goodfellow اختراع شد. دیپ فیک از ترکیب دو کلمه Deep به معنای عمیق و Fake به معنای جعلی و دروغین ساخته شده است و بر اساس هوش مصنوعی قادر به تولید واقعی تصاویر انسانی است. در این فناوری به کمک الگوریتمهای یادگیری ماشینی، تصاویر، صدا و فیلمهای موجود فرد مورد تجزیه و تحلیل قرار میگیرد و محتوای جعلی، ویدیو یا صوت در آن بارگذاری میشود.
در این سیستم وظیفه یکی از مدل ها تولید محتوا (تولید تصاویر افراد) و وظیفه مدل رقیب تشخیص واقعی یا جعلی بودن عکس تولید شده است. البته در ابتدای کار، مدل هوش مصنوعی رقیب به راحتی قادر است عکس ها و مطالب جعلی را از واقعی تشخیص دهد. اما با گذشت زمان، دقت و عملکرد مدل هوش مصنوعی تولیدکننده به قدری افزایش می یابد که تشخیص جعلی بودن محتوای تولید شده برای مدل رقیب بسیار دشوار می شود.
چرا فناوری دیپ فیک خطرناک است؟
فناوری جعل عمیق نه تنها بازیگران و افراد مشهور را هدف قرار داده است، بلکه به زندگی خصوصی شخصیت های بزرگ سیاسی نیز نفوذ کرده است. برای مثال ویدئویی از باراک اوباما منتشر شد که در آن او دونالد ترامپ را فردی حقیر و غیرمنطقی خواند. اگرچه این ویدئو واقعیت ندارد و کاملا غیر واقعی است، اما خیلی ها آن را باور کردند و شروع به انتشار آن در فضای مجازی کردند. اوباما همچنین درباره فناوری Deepfake گفت: در دنیایی که می توانند به راحتی داستان ها و ویدیوهای غیرواقعی از من بسازند و منتشر کنند، به نقطه ای می رسیم که تشخیص واقعیت و دروغ بسیار دشوار خواهد بود و این قطعاً بر پایه های آن استوار است. دموکراسی ما بر اساس حقیقت است، اثر خواهد داشت.
با این فناوری افراد با اهداف خصمانه می توانند فیلم های غیراخلاقی از افراد مشهور تهیه و تولید کنند و به راحتی جان شخصی آنها را به خطر بیندازند یا دموکراسی و امنیت ملی یک کشور را به خطر بیندازند.
نرم افزار دیپ فیک Zao که ویدیوهای جعلی ایجاد می کند
اپلیکیشن چینی Zao که زمانی به عنوان یکی از محبوب ترین اپلیکیشن ها شناخته می شد، قادر است با دریافت چند عکس از کاربر، چهره کاربر را در کسری از ثانیه به سلبریتی مورد علاقه خود تبدیل کند. اما پس از مدتی بسیاری از کاربران به سرعت موجی از نارضایتی را در خصوص نقض حریم خصوصی خود اعلام کردند و حالا این نرم افزار پس از واکنش و بازخورد جدی که از سوی کاربران دریافت کرده، سیاست های خود را تغییر داده است.
در حال حاضر برنامه های مختلفی مانند Zao وجود دارد که با استفاده از هوش مصنوعی و تکنیک های دیپ فیک چهره کاربر را تغییر می دهد و بیشتر جنبه سرگرمی و سرگرمی دارد، اما با توجه به گزارش های متعدد در مورد نقض حریم خصوصی کاربران، باید قبل از استفاده از آنها بررسی شود. نوع برنامه ها، قوانین هر کدام را با دقت بخوانید. اما آنچه مهم است این است که با توسعه فناوری دیپ فیک، در آینده ای نه چندان دور، تشخیص حقیقت و دروغ عملا غیرممکن خواهد بود.
روشی ترکیبی برای شایعه پراکنی درباره رهبر انقلاب
در روزهای اخیر از جمله این روش برای شایعه سازی درباره رهبر انقلاب استفاده شده است.
چندی پیش (14 خرداد) یکی از شبکه های خبری شبکه یک با عنوان «انتقاد دکتر شاهین محمد صادقی از آیت الله گلپایگانی رئیس دفتر مقام معظم رهبری/چرا نگفتید؟ جلوی شرکت حضرت آقا در مراسم امروز گرفته شود؟ سلامتی آنها یک وظیفه است. »
در این خبر به نقل از «دکتر شاهین محمد صادقی فوق تخصص جراح و نماینده مجلس در گفتگو با شبکه خبر صداو سیما»، «احتمال عود بیماری که سران تحت عمل جراحی قرار گرفتند»، حضور علائم التهاب» در این خبر ذکر شده است. و «استرس» بودن جلسات رهبر انقلاب را ایشان ذکر می کنند و اسم یک دارو و یکی دو کلمه علمی هم به اعتبار تاپیک معروف است.
نکته مهم در این زمینه منبع این شایعه است: کانالی با آرم شبکه اول سیما که «خبرسان 1» نیز نامیده می شود و در توضیح آن «وابسته به صدا و سیمای جمهوری اسلامی ایران» است. . و آدرس آن سداوسیما است.
این کانال توسط فعالان سایبری آلبانیایی اداره می شود، اما در انتخاب اطلاعات و ادبیات استفاده شده سعی می کند شبیه ادبیات رسمی صدا و سیما باشد تا معتبر باشد. این در حالی است که چنین مصاحبه ای انجام نشده است.
نکته دیگر انتشار اخبار تکمیلی بعد از این مطلب است که سعی در افزایش اعتبار شایعه اولیه دارد: اول یک پیام مجازی که هر کسی می تواند در یک دقیقه ایجاد کند. با این محور: «واکنش شدید دکتر مهدی کردی به اظهارات شب گذشته دکتر شاهین محمد صادقی درباره وضعیت سلامتی رهبران» منتشر میشود. البته ما نمی دانیم این پزشک کرد کیست، چه سمتی دارد و انتقاداتش را کجا بیان کرده است؟
در مرحله بعد، نامه ای به رئیس صدا و سیما منتسب می شود که وی را مقصر «سخنان محمد صادقی در خبر» می داند تا شایعه اصلی (سخنان محمد صادقی) برای مردم تایید و تکرار شود. البته این خبر با تکذیب روابط عمومی این سازمان همراه بود زیرا نامه ای را به جبلی رهبر صداوسیما نسبت می دهد:
جعل عمیق سلامتی رهبر انقلاب
در 29 فروردین 1403 دکتر علیرضا مرندی رئیس فرهنگستان علوم پزشکی و پزشک رهبر انقلاب در برنامه برمودای شبکه نسیم با بازی کامران نجف زاده حضور یافت و درباره سلامتی حضرت عالی صحبت کرد. رهبر انقلاب.
همین کانال در تاریخ 11 و 22 خرداد، فایل صوتی حاوی جعل عمیق را منتشر کرد و سپس در تیک توک، یوتیوب و توییتر بازنشر خواهد شد.
در این فایل صوتی که بر روی تصویر جعلی صفحه اینستاگرام کامران نجف زاده قرار گرفته است، صدای مرندی و نجف زاده با همان فناوری عمیقا جعلی بازسازی شده است.
در این فایل صوتی صدای دکتر مرندی آمده است که «داده های پزشکی تا زمستان امسال ضامن سلامتی رهبران خواهد بود و پس از آن انشالله دعای مردم شفا خواهد یافت». این به خواننده القا می کند که آیت الله خامنه ای از یک بیماری سخت رنج می برد.
در این فایل ساخته شده کلمات نجف زاده و مرندی برش داده شده و از نتیجه فایل هوش مصنوعی استفاده شده است. علاوه بر این، اظهاراتی مانند تضمین بیمار تا زمان معین و ابراز نگرانی از زمان معین به ندرت توسط پزشک بیان می شود.
کسانی که صدای دکتر مرندی را شنیده اند به راحتی تفاوت لحن صدای او را با این صدای اختراعی تشخیص می دهند. با این حال، این تشخیص برای همه امکان پذیر نیست.
اما در این صورت علاوه بر ساخت این فایل صوتی، شایعات اضافی جایگزین شایعه اولیه می شود.
مثلاً ادعا می شود: «مجری برنامه برمودا چند ساعت بعد به دستور آقای وحید جلیلی معاون صدا و سیما این پیام را حذف کرد… می گویند آقای علی خرم نجف زاده را مجبور کرده است. فایل صوتی منتشر شده را تکذیب و آن را شایعه خواند. به نظر می رسد نجف زاده شرط کرده است که اگر اتهامی علیه او مطرح نشود، این کار را انجام خواهد داد. اندکی دیرتر، شایعه «تأیید شده» دستگیری مجری برمودا منتشر شد تا اخبار کذب اولیه بیشتر موثق شود.
فرهنگستان علوم پزشکی پس از این شایعات اعلام کرد: اخیرا پرونده دروغی از مکالمه تلفنی مجری برنامه برمودا با دکتر سید علیرضا مرندی منتشر شده است که کذب است.
تاریخچه شایعه سلامتی رهبر انقلاب
شایعات درباره سلامتی رهبر انقلاب به این موارد محدود نمی شود و دو سال پیش (14/23 سپتامبر 1401) روزنامه آمریکایی نیویورک تایمز در گزارشی به نقل از منابع آگاه مدعی شد که وی تحت عمل جراحی قرار گرفته است. . و بیمار بود و همه برنامه ها لغو شده بود اما 3 روز بعد رهبر انقلاب در مراسم دانش آموزی اربعین شرکت کردند.
البته درک اینکه چرا باید مکرراً به این موضوع تکراری توجه کرد چندان دشوار نیست. با این حال، آنچه جامعه را در برابر اخبار جعلی پیشرفته در عصر هوش مصنوعی مصون میکند، دقت، آگاهی و اعتماد روزافزون مردم است.
مراجع:
کاما، رسانه های خبری و…