به گزارش همشهری آنلاین و به نقل از ساینس الرت، دههها است که از این ایده که هوش مصنوعی که بشر را نابود میکند صحبت میشود و برنامههایی مانند چت جیپیتی این نگرانیها را تجدید کرده است.
بنابراین چقدر احتمال دارد که بتوانیم ابر هوش کامپیوتری سطح بالا را کنترل کنیم؟ دانشمندان میگویند که چنین چیزی ممکن نیست. نکته مهم این است که کنترل یک ابر هوش بسیار فراتر از درک انسان نیازمند شبیهسازی آن ابر هوش است که ما میتوانیم آن را تحلیل کنیم، اما اگر ما قادر به درک آن نباشیم، ایجاد چنین شبیهسازی غیرممکن است.
به گفته نویسندگان مقاله، اگر ما نوع سناریوهایی را که یک هوش مصنوعی قرار است ایجاد کند، درک نکنیم، نمیتوان قوانینی مانند «هوش مصنوعی نباید به انسانها آسیب برساند» تنظیم کرد. هنگامی که یک سیستم کامپیوتری در سطحی بالاتر از محدوده برنامهنویسان ما کار میکند، دیگر نمیتوان محدودیتها را تعیین کرد.
محققان در سال ۲۰۲۱ نوشتند: «یک ابرهوش کامپیوتری مشکلی از اساس متفاوت با آنچه که معمولا تحت عنوان «اخلاق روبات» مورد مطالعه قرار میگیرد، ایجاد میکند. این به این دلیل است که یک ابرهوش چندوجهی است، و بنابراین به طور بالقوه قادر به جمعآوری منابع متنوعی برای دستیابی به اهدافی است که برای انسان غیرقابل درک است، چه رسد به اینکه قابل کنترل باشد.
بخشی از استدلال تیم از مسئله توقف ارائه شده توسط آلن تورینگ در سال ۱۹۳۶ ناشی می شود. یعنی آیا ما میتوانیم بفهمیم یک برنامه کامپیوتری به نتیجه و پاسخ میرسد (متوقف میشود) و یا اینکه برای همیشه در تلاش برای یافتن پاسخ در یک حلقه ابدی باقی میماند.
برای مثال، هر برنامهای که برای جلوگیری از آسیب رساندن هوش مصنوعی به انسانها و نابودی جهان نوشته شده باشد، ممکن است به نتیجه برسد (و متوقف شود) یا خیر. در هر صورت از نظر ریاضی غیرممکن است که کاملا مطمئن باشیم و این یعنی قابل کنترل نیست.
در اوایل سال جاری، غولهای فناوری از جمله ایلان ماسک و استیو وزنیاک، بنیانگذار اپل، نامهای سرگشاده امضا کردند و از بشریت خواستند که کار روی هوش مصنوعی را حداقل به مدت ۶ ماه متوقف کنند تا ایمنی آن بررسی شود.
این تحقیق در ژانویه ۲۰۲۱ در مجله تحقیقات هوش مصنوعی منتشر شد.