همشهری آنلاین -یکتا فراهانی: قابلیت های متنوع هوش مصنوعی فراتر از بازی است و به برنامه های جدی گسترش می یابد. اما به طور بالقوه امکان تقلب یا تأثیرگذاری بر انتخابات را هم فراهم می آورد. بنابراین بسیاری افراد خواستار اقدام فوری نظارتی برای مدیریت خطرات فریب هوش مصنوعی هستند و فکر می کنند بهتر است این سیستمها دسته بندی شوند.
ذات فریبنده هوش مصنوعی
سیستمهای هوش مصنوعی توانایی فریب را به عنوان یک استراتژی برای دستیابی به اهداف خود نشان دادهاند؛ حتی در زمینههایی که به توسعهدهندگان قصد دارند صداقت را تقویت کنند.
با وجود آنکه ابتدا هوش مصنوعی فقط در بازی ها مشاهده شد اما به مرور در بسیاری از زمینه های دیگر هم توسعه پیدا کرد؛ به انداره ای که در حال حاضر ظرفیت های فریبنده هوش مصنوعی پیامدهای قابل توجهی پیدا کرده است.
آموزش هوش مصنوعی
بسیاری از سیستمهای هوش مصنوعی (AI) آموزش دیده اند چگونه می توانند انسانها را فریب دهند. در مقاله ای که در ژورنال Patterns در دهم می منتشر شد، محققان خطرات فریب توسط سیستمهای هوش مصنوعی را توصیف میکنند و از دولتها میخواهند قوانین محکم تری برای رسیدگی به این موضوع وضع کنند.
پیتر اس پارک، نویسنده اول و عضو فوق دکترای ایمنی وجودی هوش مصنوعی در MIT می گوید: توسعه دهندگان هوش مصنوعی درک مطمئنی از آنچه باعث رفتارهای نامطلوب هوش مصنوعی مانند فریب می شود، ندارند.
بیشتر بخوانیم:
هوش مصنوعی گوگل با ویژگیهای جذاب معرفی شد
ساختمانهای ناایمن پلمپ میشوند | جزئیات پایش ایمنی ساختمانهای مهم تهران
استراتژی مبتنی بر فریب
به طور کلی ما فکر میکنیم هوش مصنوعی به این دلیل می تواند ما را به آسانی فریب دهد که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد درست در زمینه آموزشی هوش مصنوعی در نظر گرفته شده است. چون در واقع فریب به آنها کمک می کند تا به این ترتیب بهتر بتوانند به اهداف خود دست یابند.
پارک و همکارانش ادبیاتی را تجزیه و تحلیل کردند که بر روشهایی متمرکز بود که سیستمهای هوش مصنوعی، اطلاعات نادرست را از طریق فریبهای آموختهشده منتشر میکنند.
بارزترین نمونه فریب هوش مصنوعی که محققان در تجزیه و تحلیل خود کشف کردند Meta’s CICERO بود؛ یک سیستم هوش مصنوعی طراحی شده برای بازی دیپلماسی که کاربران را به ایجاد همکاری و داشتن اتحاد تشویق می کند.
توانایی بلوف زدن
پارک میگوید: ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است در فریبکاری استاد باشد. او موفق شده هوش مصنوعی خود را برای برنده شدن در بازی دیپلماسی آموزش دهد.
دیگر سیستمهای هوش مصنوعی نیز توانایی بلوف زدن در بازی پوکر را علیه بازیکنان انسانی حرفهای، حملات جعلی در طول بازی استراتژیک Starcraft II برای شکست دادن حریفان، و ارائه نادرست ترجیحات آنها برای به دست آوردن دست برتر نشان دادند.
به عقیده پارک اشکالی ندارد سیستمهای هوش مصنوعی در بازیها تقلب کنند، اما این موضوع میتواند منجر به پیشرفت در قابلیتهای هوش مصنوعی فریبنده شود که میتواند در آینده به اشکال پیشرفتهتر فریب هوش مصنوعی تبدیل شود.
تقلب در ارزیابی ایمنی
محققان دریافتند بعضی سیستمهای هوش مصنوعی حتی یاد گرفتهاند در تستهایی که برای ارزیابی ایمنی آنها طراحی شدهاند تقلب کنند.
در یک مطالعه، ارگانیسمهای هوش مصنوعی در یک شبیهساز دیجیتالی که به منظور فریب آزمایشی برای از بین بردن سیستمهای هوش مصنوعی ساخته شده بود به سرعت تکثیر میشوند.
غیر قابل کنترل شدن توسط انسان
پارک هشدار میدهد خطرات کوتاهمدت فریبنده هوش مصنوعی شامل آسانتر کردن تقلب و دستکاری در انتخابات برای بازیگران به شمار می رود. ضمن آنکه در نهایت، اگر این سیستمها بتوانند این مجموعه مهارتها را اصلاح کنند، انسانها میتوانند کنترل آنها را از دست بدهند.
او میگوید: ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفتهتر محصولات آینده هوش مصنوعی و مدلهای متنوع آن آماده شویم. اما با پیشرفتهتر شدن قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکند نیز جدیتر خواهند شد.
مذاکرات اقتصادی
پارک و همکارانش فکر نمیکنند جامعه هنوز اقدام مناسبی برای رسیدگی به فریب هوش مصنوعی داشته باشد. اما باید دید که چگونه می توان سیاستهای طراحیشده برای کاهش فریب هوش مصنوعی را با توجه به اینکه دست اندرکاران هوش مصنوعی هنوز تکنیکهایی برای کنترل این سیستمها ندارند به اجرا در آورد.
همچنین به نظر می رسد اگر ممنوعیت فریبکاری هوش مصنوعی در حال حاضر امکان پذیر نیست، می توان سیستمهای هوش مصنوعی را در محدوده های پرخطر طبقهبندی کرد.
توجه داشته باشیم با پیشرفتهتر شدن قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند نیز جدیتر خواهند شد.