به گزارش همشهری آنلاین، متا که قبلاً فیسبوک نام داشت، این قابلیت جدید را به عنوان هوش مصنوعی «سرگرم کننده» میبیند. با این حال، برخی افراد دیگر احساس میکنند که آخرین پیشرفت فناوری میتواند اولین گام به سمت ایجاد «خطرناکترین مصنوعات در تاریخ بشر» باشد، که یک فیلسوف آمریکایی به آن لغب «افراد تقلبی» داده است.
روز چهارشنبه ۲۷ سپتامبر، غول شبکه اجتماعی از راه اندازی ۲۸ چت بات خبر داد که ظاهراً شخصیت خاص خود را دارند و به طور ویژه برای کاربران جوان طراحی شدهاند. این لیست شامل افرادی از جمله ویکتور، به اصطلاح ورزشکار سهگانه است که میتواند به شما انگیزه دهد تا «بهترین خود باشید» و سالی، «دوست آزادهای که به شما میگوید چه زمانی نفس عمیق بکشید» است. کاربران اینترنت همچنین میتوانند با مکس، یک «آشپز با تجربه» که «نکات و ترفندهای آشپزی» را میگوید، چت کنند، یا با لوئیز که «میتواند از صحبتهای خود پشتیبانی کند»، وارد یک بحث کلامی شوید.
متا برای تقویت این ایده که چت باتها دارای شخصیت هستند و صرفاً ترکیبی از الگوریتمها نیستند، به هر یک از آنها چهرهای داده است. به لطف همکاری با افراد مشهور، این رباتها شبیه جت ستتر آمریکایی و پاریس هیلتون، چارلی داملیو، ستاره TikTok و نائومی اوزاکا، تنیسور آمریکایی-ژاپنی هستند.
این تمام ماجرا نیست
متا حسابهای فیسبوک و اینستاگرام را برای هر یک از نمایندگان مکالمه خود باز کرده است تا به آنها در خارج از رابطهای چت دسترسی داشته باشد و در تلاش است که تا سال آینده به آنها قابلیت صدا نیز بدهد. شرکت مارک زاکربرگ همچنین به دنبال فیلمنامه نویسانی بود که بتوانند «شخصیت و سایر محتوای روایی پشتیبانی را بنویسند که برای مخاطبان جذاب باشد».
همه این تلاشها، یک پروژه جاهطلبانه برای ساختن هوش مصنوعیهایی که تا حد امکان شبیه به انسان هستند را نشان میدهد.
این رقابت برای بوجود آوردن «افراد تقلبی» بسیاری از ناظران که قبلاً نگران پیشرفتهای اخیر در تحقیقات مدل زبان (LLM) مانند ChatGPT و Llama ۲ و همتای فیسبوک آن هستند، را نگران میکند. ون دو پول، یک استاد اخلاق و فناوری میگوید، بدون اینکه بخواهیم به اندازه برخی از افراد زیادهروی کنیم و خواستار زندانی شدن زاکربرگ باشیم، تعدادی از متفکران هستند که رویکرد عمدا فریبنده این گروههای بزرگ را محکوم میکنند.
هوش مصنوعی با شخصیت «به معنای واقعی کلمه غیرممکن» است
به گفته این فرد، ایده مکالمه با یک شخصیت به معنای واقعی کلمه غیرممکن است. الگوریتمها قادر به نشان دادن «نیت در اعمال خود» یا «اراده آزاد» نیستند، دو ویژگی که ارتباط نزدیکی با ایده یک شخصیت دارند. متا و دیگران در بهترین حالت می توانند از ویژگی های خاصی که شخصیت را میسازند تقلید کنند. بهعنوان مثال، باید از نظر فناوری امکانپذیر باشد که مثلاً به یک ربات چت بیاموزیم تا مانند شخصی که کاربر آن است عمل کند. به عنوان مثال، AI Amber متا، که قرار است شبیه هیلتون باشد، ممکن است بتواند به همان شیوهای صحبت کند که نفس انسانیاش میتواند.
گام بعدی آموزش این LLMها برای بیان نظرات مشابه با شخصی است که شبیه آنها ساخته شدهاند. این یک رفتار بسیار پیچیدهتر برای برنامهریزی است، زیرا شامل ایجاد نوعی تصویر ذهنی دقیق از همه نظرات یک فرد است. همچنین این خطر وجود دارد که رباتهای چت از کار بیفتند. بر اساس گزارش وال استریت ژورنال که توانست به اسناد داخلی شرکت مراجعه کند، یکی از این چت باتها که متا آزمایش کرد، نظرات «زن ستیزانه» را بیان کرد. دیگری مرتکب گناهی کبیره شد و از زاکربرگ انتقاد و از TikTok تمجید کرد.
برای ساخت این رباتهای گفتگو، متا توضیح میدهد که قصد دارد «داستانهای شخصی منحصربهفرد» را به آنها ارائه دهد. به عبارت دیگر، سازندگان این هوش مصنوعی برای آنها بیوگرافی نوشتهاند به این امید که بتوانند شخصیتی بر اساس آنچه در مورد خود خواندهاند ایجاد کنند. آنا استراسر، فیلسوف آلمانی که در پروژهای برای ایجاد یک مدل زبانی بزرگ با قابلیت فلسفه ورزی درگیر بود، گفت:«رویکرد جالبی است، اما اضافه کردن روانشناسان به این تیمها برای درک بهتر ویژگیهای شخصیتی نیز مفید میشد».
جدیدترین پروژه هوش مصنوعی متا به وضوح ناشی از عطش سود است. استراسر میگوید: «بیتردید مردم برای اینکه بتوانند با پاریس هیلتون یا افراد مشهور دیگری صحبت کنند و رابطه مستقیم داشته باشند، آماده پرداخت هزینه خواهند بود.»
به گفته ون دو پول، هرچه کاربران بیشتر احساس کنند که با یک انسان صحبت میکنند، هرچه احساس راحتی بیشتری داشته باشند، مدت بیشتری میمانند و احتمال بازگشت دوباره آنها بیشتر میشود و در دنیای رسانههای اجتماعی، زمان صرف شده در فیس بوک و تبلیغات آن معادل با پول است.
رایانه، موجود زنده یا چیزی بین این دو؟
مطمئناً تعجبآور نیست که اولین حمله متا به هوش مصنوعی دارای شخصیت، چت رباتهایی هستند که عمدتاً نوجوانان را هدف قرار میدهند. با این حال، کارشناسان احساس میکنند که متا با تاکید بر «ویژگی های انسانی» هوش مصنوعی بازی خطرناکی را، راه انداخته است. ون دو پول گفت:«من واقعاً ترجیح میدادم این گروه به جای اینکه سعی کنند آنها را انسانیتر جلوه دهند تلاش بیشتری برای توضیح محدودیتهای این چتباتها میکردند».
ظهور این LLM های قدرتمند باعث ناراحتی شده است؛ این ChatGPT ها نوع سومی از عامل ها هستند، دوگانگی بین اینکه آیا رایانه است یا موجود زنده و انسانها هنوز در حال یادگیری نحوه تعامل با این موجودات عجیب و غریب هستند. بنابراین، با ایجاد این باور در مردم که یک چت بات میتواند شخصیتی داشته باشد، متا پیشنهاد میکند که با او بیشتر شبیه یک انسان دیگر رفتار شود تا یک رایانه.
هوش مصنوعی، عامل مرگ
به گفته ون دو پول، «کاربران اینترنت تمایل دارند به آنچه این هوش مصنوعیها میگویند اعتماد کنند» که این موضوع، آنها را خطرناک میکند. این فقط یک خطر تئوری نیست، مردی در بلژیک در مارس ۲۰۲۳ پس از بحث در مورد عواقب گرمایش جهانی با یکی از هوش مصنوعیها به مدت شش هفته، دست به خودکشی زد.
مهمتر از همه، اگر مرز بین دنیای هوش مصنوعی و انسان در نهایت به طور کامل محو شود، به طور بالقوه، اعتماد را به هر چیزی که آنلاین مییابیم از بین میبرد زیرا ما نمیدانیم چه کسی چه چیزی را نوشته است. همانطور که کارشناسی در مقاله خود هشدار داد، این امر در را به روی ویران کردن تمدن ما باز می کند و چت کردن با هوش مصنوعی شبیه به هیلتون و دیگر اشخاص به این معنی است که ما در مسیر نابود کردن جهان هستیم.