به گزارش همشهری آنلاین، اخیرا نماهنگی میهنپرستانه در کشور منتشر شد که با کمک تکنولوژی "دیپ فیک" به تصاویر مشاهیر درگذشته ایرانی جان بخشیده و آوازی میهنی را اجرا کرده بود.
تکنولوژی دیپ فیک یا جعل عمیق، مدتی است در قالب برنامههایی کاربردی اختیار عموم مردم قرار گرفته و با وجود جنبههایی زیبا، مانند همین نماهنگ، جنبههای هولناکی از جعل و تولید محتوای دروغین نیز دارد.
اکنون برنامهنویسان پا را فراتر گذاشته و وارد تولید محتوای غیر واقعی با عنوان "فیک نیود" یا برهنگی جعلی شدهاند. این اتفاق میتواند برای کسانی که عادت به انتشار تصاویر خود در فضای مجازی دارند دردسرساز شود.
به گزارش بیزینس اینسایدر، یک ربات تلگرامی تا کنون به عکس ۶۸۰ هزار زن که برخی از آنها زیر سن قانونی بودند دست پیدا کرده و از آنها تصاویر برهنه جعلی ساخته است.
این خبر را شرکت سنسیتی که مسئولیت نظارت بر محتوای تولید شده از طریق دیپ فیک را دارد اعلام کرد و هشدار داد که این ربات میتواند تبعات سنگین اجتماعی ایجاد کند.
ترسناکتر اینکه، این ربات تصاویر جعلی تولیدی خود را در صورت پرداخت پول بدون نشانگذاری در اختیار کاربران قرار میدهد.
پیش از این نگرانی استفاده از دیپ فیک در مورد ساخت و انتشار اخبار جعلی بود ولی اکنون این تکنولوژی وارد حوزه تهدید و اخاذی شده و بسیار نگرانکننده است.
سنسیتی گفت: "به نظر میرسد بیشتر تصاویر اصلی از صفحات شبکههای اجتماعی یا مستقیما از طریق ارتباطات خصوصی گرفته شده است افراد احتمالا از هدف قرار گرفتن آنها آگاهی ندارند."
فناوری دیپ فیک از نوعی هوش مصنوعی به نام "گان" (Generator Adversarial Networks) استفاده میکند و پس از الگو برداری از موارد واقعی، تصاویر جعلی نسبتا قانع کننده ایجاد کند.