یک مطالعه جدید روند نگران کننده یادگیری سیستم های هوش مصنوعی برای فریب دادن انسان ها را بررسی می کند. محققان دریافتند که سیستم‌های هوش مصنوعی مانند Meta’s CICERO که برای بازی‌های مختلف توسعه پیدا کرده اند؛ اما اهداف آموزشی، معمولا آن را به عنوان یک استراتژی برتر قلمداد می کنند.

خطرات فریبنده هوش مصنوعی

همشهری آنلاین -یکتا فراهانی: قابلیت های متنوع هوش مصنوعی فراتر از بازی است و به برنامه های جدی گسترش می یابد. اما به طور بالقوه امکان تقلب یا تأثیرگذاری بر انتخابات را هم فراهم می آورد. بنابراین بسیاری افراد خواستار اقدام فوری نظارتی برای مدیریت خطرات فریب هوش مصنوعی هستند و فکر می کنند بهتر است این سیستم‌ها دسته بندی شوند.

خطرات فریبنده هوش مصنوعی | هوش مصنوعی چطور زندگی ما را تحت تاثیر قرار می دهد؟

ذات فریبنده هوش مصنوعی

سیستم‌های هوش مصنوعی توانایی فریب را به عنوان یک استراتژی برای دستیابی به اهداف خود نشان داده‌اند؛ حتی در زمینه‌هایی که به توسعه‌دهندگان قصد دارند صداقت را تقویت کنند.

با وجود آنکه ابتدا هوش مصنوعی فقط در بازی ها مشاهده شد اما به مرور در بسیاری از زمینه های دیگر هم توسعه پیدا کرد؛ به انداره ای که در حال حاضر ظرفیت های فریبنده هوش مصنوعی پیامدهای قابل توجهی پیدا کرده است.

آموزش هوش مصنوعی

بسیاری از سیستم‌های هوش مصنوعی (AI) آموزش دیده اند چگونه می توانند انسان‌ها را فریب دهند. در مقاله ای که در ژورنال Patterns در دهم می منتشر شد، محققان خطرات فریب توسط سیستم‌های هوش مصنوعی را توصیف می‌کنند و از دولت‌ها می‌خواهند قوانین محکم تری برای رسیدگی به این موضوع وضع کنند.

پیتر اس پارک، نویسنده اول و عضو فوق دکترای ایمنی وجودی هوش مصنوعی در MIT می گوید: توسعه دهندگان هوش مصنوعی درک مطمئنی از آنچه باعث رفتارهای نامطلوب هوش مصنوعی مانند فریب می شود، ندارند.

بیشتر بخوانیم:

هوش مصنوعی گوگل با ویژگی‌های جذاب معرفی شد
ساختمان‌های ناایمن پلمپ می‌شوند | جزئیات پایش ایمنی ساختمان‌های مهم تهران

استراتژی مبتنی بر فریب

به طور کلی ما فکر می‌کنیم هوش مصنوعی به این دلیل می تواند ما را به آسانی فریب دهد که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد درست در زمینه آموزشی هوش مصنوعی در نظر گرفته شده است. چون در واقع فریب به آنها کمک می کند تا به این ترتیب بهتر بتوانند به اهداف خود دست یابند.

پارک و همکارانش ادبیاتی را تجزیه و تحلیل کردند که بر روش‌هایی متمرکز بود که سیستم‌های هوش مصنوعی، اطلاعات نادرست را از طریق فریب‌های آموخته‌شده منتشر می‌کنند.

بارزترین نمونه فریب هوش مصنوعی که محققان در تجزیه و تحلیل خود کشف کردند Meta’s CICERO بود؛ یک سیستم هوش مصنوعی طراحی شده برای بازی دیپلماسی که کاربران را به ایجاد همکاری و داشتن اتحاد تشویق می کند.

توانایی بلوف زدن

پارک می‌گوید: ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است در فریبکاری استاد باشد. او موفق شده هوش مصنوعی خود را برای برنده شدن در بازی دیپلماسی آموزش دهد.
دیگر سیستم‌های هوش مصنوعی نیز توانایی بلوف زدن در بازی پوکر را علیه بازیکنان انسانی حرفه‌ای، حملات جعلی در طول بازی استراتژیک Starcraft II برای شکست دادن حریفان، و ارائه نادرست ترجیحات آنها برای به دست آوردن دست برتر نشان دادند.

به عقیده پارک اشکالی ندارد سیستم‌های هوش مصنوعی در بازی‌ها تقلب کنند، اما این موضوع می‌تواند منجر به پیشرفت در قابلیت‌های هوش مصنوعی فریبنده شود که می‌تواند در آینده به اشکال پیشرفته‌تر فریب هوش مصنوعی تبدیل شود.

تقلب در ارزیابی ایمنی

محققان دریافتند بعضی سیستم‌های هوش مصنوعی حتی یاد گرفته‌اند در تست‌هایی که برای ارزیابی ایمنی آنها طراحی شده‌اند تقلب کنند.

در یک مطالعه، ارگانیسم‌های هوش مصنوعی در یک شبیه‌ساز دیجیتالی که به منظور فریب آزمایشی برای از بین بردن سیستم‌های هوش مصنوعی ساخته شده بود به سرعت تکثیر می‌شوند.

غیر قابل کنترل شدن توسط انسان

پارک هشدار می‌دهد خطرات کوتاه‌مدت فریبنده هوش مصنوعی شامل آسان‌تر کردن تقلب و دستکاری در انتخابات برای بازیگران به شمار می رود. ضمن آنکه در نهایت، اگر این سیستم‌ها بتوانند این مجموعه مهارت‌ها را اصلاح کنند، انسان‌ها می‌توانند کنترل آنها را از دست بدهند.

او می‌گوید: ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفته‌تر محصولات آینده هوش مصنوعی و مدل‌های متنوع آن آماده شویم. اما با پیشرفته‌تر شدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کند نیز جدی‌تر خواهند شد.

خطرات فریبنده هوش مصنوعی | هوش مصنوعی چطور زندگی ما را تحت تاثیر قرار می دهد؟

مذاکرات اقتصادی

پارک و همکارانش فکر نمی‌کنند جامعه هنوز اقدام مناسبی برای رسیدگی به فریب هوش مصنوعی داشته باشد. اما باید دید که چگونه می توان سیاست‌های طراحی‌شده برای کاهش فریب هوش مصنوعی را با توجه به اینکه دست اندرکاران هوش مصنوعی هنوز تکنیک‌هایی برای کنترل این سیستم‌ها ندارند به اجرا در آورد.

همچنین به نظر می رسد اگر ممنوعیت فریب‌کاری هوش مصنوعی در حال حاضر امکان پذیر نیست، می توان سیستم‌های هوش مصنوعی را در محدوده های پرخطر طبقه‌بندی کرد.

توجه داشته باشیم با پیشرفته‌تر شدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند نیز جدی‌تر خواهند شد.

کد خبر 853985

برچسب‌ها

پر بیننده‌ترین اخبار دانش

دیدگاه خوانندگان امروز

پر بیننده‌ترین خبر امروز

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha