با مطالعه جدیدی از Podcastle، یک پلت فرم پادکست مبتنی بر هوش مصنوعی، ۱۰۰۰ آمریکایی را مورد بررسی قرارداد تا نظر آنها را در مورد افراد مشهوری که بیشتر در معرض خطر شبیه‌سازی صدا هستند، جمع‌آوری کند.

همشهری آنلاین - یکتا فراهانی: نتایج تحقیق پلت فرم پادکست مبتنی بر هوش مصنوعی در مورد شبیه‌سازی صدای افراد مشهور نشان داد به نظر پاسخ‌دهندگان، آرنولد شوارتزنگر به دلیل داشتن واضح‌ترین صدا برای تکرار و شبیه‌سازی بیشتر در معرض خطر است.

افراد در معرض خطر

۸۶ درصد از افراد مورد بررسی نیز معتقدند لهجه متمایز و قابل تشخیص فرماندار سابق کالیفرنیا ؛ بیشتر او را در معرض خطر قرار می دهد. پس از شوارتزنگر، دونالد ترامپ، کیم کارداشیان، سیلوستر استالونه و کریستوفر واکن قرار گرفتند.

تقریباً یک نفر از هر چهار گزارش کرده است که لحن و زیروبمی ثابت صدای کارداشیان باعث می‌شود صدای او راحت‌تر شبیه‌سازی شود.


بیشتر بخوانید:

این سمعک با هوش مصنوعی کار می‌کند

چند راه ساده برای جلوگیری از هک شدن موبایل

حضور در رسانه‌

در همین حال، ۳۹ درصد گفتند که صدای ترامپ به دلیل آشنایی با حضور مکرر رسانه‌ها، به راحتی قابل تکرار است. پاسخ دهندگان، ترامپ را بیشتر در معرض خطر می دانستند. البته نظر آنها احتمالاً ناشی از آشفتگی سیاسی بی سابقه در رسانه های مختلف است.

سلبریتی‌ها و سیاستمداران به طور یکسان به‌عنوان رایج‌ترین قربانیان در رسانه‌های اجتماعی ظاهر شده‌اند.

عملکرد دیپ‌فیک

هفته گذشته، ایلان ماسک ویدئویی از نامزد احتمالی دموکرات انتخابات ریاست‌جمهوری کامالا هریس را برای ایکس پست کرد.

وزارت امنیت داخلی ایالات متحده در گزارشی در سال ۲۰۱۹ آنها را تأیید و ادعا کرد که این خطر ناشی از فناوری نیست؛ بلکه از تمایل طبیعی مردم به باور آنچه می بینند ناشی می شود.

نتایج این گزارش نشان می‌دهد دیپ‌فیک‌ها و رسانه‌های مصنوعی نیازی به باورپذیر بودن ندارند.

درحالی‌که از پاسخ‌دهندگان در این مطالعه خواسته نشد در مورد سوءاستفاده احتمالی از فناوری شبیه‌سازی صدای هوش مصنوعی اظهارنظر کنند، رهبران شرکت ابراز نگرانی کرده‌اند.

شبیه‌سازی صدای هوش مصنوعی

آرتاوازد یریتسیان، مدیرعامل پادکاسل به U.S Sun گفت: او به‌خوبی از استفاده از فناوری شبیه‌سازی صدای هوش مصنوعی توسط بازیگران آگاه است.

به عقیده او؛ هر فناوری را بخواهید معرفی کنید، همیشه افرادی هستند که از آن برای موضوعات بد یا مخرب، استفاده می‌کنند.

کاربران می‌توانند صدا را بدون ترک پلتفرم Podcastle ضبط و ویرایش کنند. این شامل استفاده از هوش مصنوعی برای تولید کلمات یا عباراتی است که آنها ضبط نکرده‌اند.

جایگزینی انسان

یریتسیان می‌گوید هدف این پلتفرم «خودکار و شبیه‌سازی» فرآیند تولید به‌جای «جایگزینی یک انسان» است و چک‌هایی را برای جلوگیری از ایجاد دیپ‌فیک‌های صوتی نیز در نظر گرفته است
به‌این‌ترتیب یک کاربر باید جملات خاصی را ضبط کند تا تأیید کند یک شخص واقعی در حال صحبت‌کردن است؛ برخلاف کلیپ‌های مجرمانه سایبری که صدای شخص دیگری را به سیستم منتقل می‌کند.

به گفته یریتسیان، این محتوا به طور ایمن رمزگذاری می‌شود تا هیچ‌کس دیگری نتواند به صدای شما دسترسی پیدا کند.

او با تشریح پدیده‌ای به نام فیشینگ صوتی می‌گوید: من فکر می‌کنم بزرگ‌ترین تهدیدها دلایل فیشینگ هستند؛ جایی که یک مجرم با استفاده از صدای یکی از اقوام یا دوستانش اطلاعات حساب بانکی خود را درخواست می‌کند.

فیشینگ صوتی

تنها چیزی که یک مجرم سایبری به آن نیاز دارد چند ثانیه صداست که معمولاً در رسانه‌های اجتماعی یافت می‌شود. برای ایجاد یک دیپ‌فیک که سپس برای فریب‌دادن قربانیان ناآگاه برای تسلیم اطلاعات شخصی خود از طریق تلفن استفاده می‌شود.

کارشناسان امنیت سایبری از این پدیده به‌عنوان «فیشینگ صوتی » یا «ویشینگ» یاد می‌کنند. دفاع موفق در برابر این شکل از حمله سایبری اضطراری با درک علائم کلاهبرداری شروع می‌شود.

مجرمان سایبری

مجرمان اغلب از قربانیان خود می‌خواهند فوراً برای اصلاح اتهامات تقلبی یا تأیید اطلاعات شخصی اقدام کنند؛ بنابراین همیشه باید احتیاط کنید، زیرا ممکن است شناسه تماس‌گیرنده برای تأیید هویت کافی نباشد.

کارشناسان امنیتی توصیه می‌کنند در صورت دریافت تماسی که مشکوک به کلاهبرداری است، تماس را قطع کنید و مستقیماً با سازمان یا فرد تماس بگیرید.