به گزارش همشهری آنلاین، احتمالا در فیلمهای علمی- تخیلی دیدهاید که روباتها، ماشینها یا سامانههای کامپیوتری که بهدست انسانها طراحی و ساخته شدهاند، بر زندگی خالقانشان چیره میشوند و سر به طغیان میگذارند و علیه اربابانشان میشورند. اما آیا این نگرانی که زندگی انسان در معرض تهدید هوش مصنوعی قرار دارد صرفا ایدهای جذاب برای ساخت فیلم و سریال و نوشتن کتاب است یا ریشه در واقعیت دارد و انسان باید نگران روزی باشد که اختیار زندگیاش از دست خودش خارج شود و فناوریهایی که برای راحتی خود خلق کرده، درصدد سلب آسایش از او برخواهند آمد؟
شاید خیلی خیالپردازی باشد که فکر کنیم فناوریهای هوش مصنوعی تهدیدی برای جان انسانها خواهند بود. همین حالا هم بسیاری از پیشرفتهای حاصل در حوزه هوش مصنوعی به بهبود زندگی انسان منجر شده است. با این حال، نمیتوان کتمان کرد که هوش مصنوعی تغییراتی در جهان سالهای نهچندان دور آینده ایجاد خواهد کرد که لازم است از حالا به این تغییرات و تأثیراتی که روی زندگی انسان میگذارد بیندیشیم.
پیش از هر سخن دیگری، اول ببینیم هوش مصنوعی چیست؟ بهطور خلاصه، هوش مصنوعی هوشی است که توسط ماشینها ظهور پیدا میکند، در مقابل هوش طبیعی که توسط جانوران شامل انسانها نمایش مییابد. برخی منابع اصطلاح «هوش مصنوعی» را جهت توصیف ماشینی استفاده میکنند که عملکردهای «شناختی» را از روی ذهن انسانها تقلید میکند، همچون «یادگیری» و «حل مسئله»، هرچند این تعریف کاملا دقیق نیست. پژوهشگاه فرهنگ، هنر و ارتباطات با دغدغه بررسی تأثیرات هوش مصنوعی در جامعه به برگزاری سلسله نشستهای «فرهنگ عمومی، اخلاق و هوش مصنوعی» اهتمام ورزیده که هفته پیش نخستین نشست آن برگزار شد. در ادامه، گزارش این نشست که به بررسی ابعاد مختلف این موضوع اختصاص داشته آمده است.
پدیدهای ورای مرزها
نخستین نشست از سلسله نشستهای «فرهنگ عمومی، اخلاق و هوش مصنوعی» با همکاری شورای فرهنگ عمومی و با حضور احمد پاکتچی (سفیر جمهوری اسلامی ایران در سازمان علمی فرهنگی یونسکو)، محمد حسینیمقدم (عضو هیأتعلمی گروه مطالعات آیندهنگر مؤسسه مطالعات فرهنگی و اجتماعی)، سیدعلی حسینی (دکتری هوش مصنوعی از دانشگاه لندن) و با دبیری محمد نصراوی (دانشجوی دکتری سیاستگذاری فرهنگی) در پژوهشگاه فرهنگ، هنر و ارتباطات، برگزار شد.
در بخش اول این برنامه احمد پاکتچی درباره سند اخلاق هوش مصنوعی در یونسکو به ایراد سخن پرداخت و در باب چیستی هوش مصنوعی گفت: هوش مصنوعی بهعنوان یک فناوری نوین، پدیدهای است بهشدت در حال توسعه که بسیاری از کشورها، سازمانهای بینالمللی و خیلی از متفکران را به این سمت سوق داده که قبل از اینکه برای بشریت اتفاق یا فاجعهای رخ دهد، تدبیری در اینباره بکنند تا هوش مصنوعی مسیر لجامگسیختهای را طی نکند و به بشر صدمهای نزند.
شاید بهطور خاص از سال ۲۰۱۹ تاکنون، موضوع داشتن ابزارهای کنترلی روی هوش مصنوعی موردتوجه دولتها و سازمانهای بینالمللی قرار گرفته است. او با مروری بر سندهای مختلف تصویبشده از سال ۲۰۱۹ تا ۲۰۲۲، از یک دومینوی خیلی تند و سریع یاد کرد و افزود: در این 3سال اسنادی در کشورهای مختلف تصویب شده که شبیه یک دومینوی تند و سریع است. در ژانویه ۲۰۱۹، ایالاتمتحده آمریکا، سندی تحتعنوان «راهنمای تنظیمات کاربستهای هوش مصنوعی» تصویب کرد که بیشتر آییننامهای بود.
چند ماه بعد، اتحادیه اروپا سند دیگری را تحتعنوان «توصیههای سرمایهگذاری برای هوشمصنوعی قابلاعتماد» تصویب کرد تا توصیههایی برای حرکت به سمت هوش مصنوعی قابلاعتماد از حیث سرمایهگذاری ارائه دهد. در ۸آوریل همان سال، اتحادیه اروپا سند دیگری تحتعنوان «هوش مصنوعی قابلاعتماد» تصویب کرد که این بار سعی میکند خطوط راهنمای اخلاقی را برای قابلاعتمادسازی هوش مصنوعی ارائه کند. سرعت و شتاب این بازی دومینو، هرچه که ما به سمت۲۰۲۱ حرکت میکنیم، بیشتر میشود. در سپتامبر۲۰۲۱، شاهد تصویب یک سند ملی با عنوان «هنجارهای اخلاقی برای استفاده هوش مصنوعی» در جمهوری خلق چین هستیم که دقیقا یکماه پس از آن، در فدراسیون روسیه هم اقدام مشابهی صورت میگیرد.
در فاصله روزهای ۹ تا ۲۴ نوامبر۲۰۲۱ هم توصیهنامهای در چهلویکمین کنفرانس عمومی سازمان بینالمللی یونسکو با عنوان «توصیهنامه اخلاق هوش مصنوعی» تصویب میشود که بازتابهای مختلفی از سوی کشورهای مختلف ازجمله ایران داشته است. جمهوری اسلامی ایران تنها کشوری بود که درباره این توصیهنامه تحفظ داد و آن را بهطور رسمی به دبیرخانه یونسکو اعلام کرد. فارغ از دغدغههایی که ممکن است نهادهای مختلف کشور در مورد این سند داشته باشند، این اتفاق بهعنوان یک واقعیت غیرقابلانکار در سطح جهانی در حال رخ دادن است که نمیتوان در مقابل آن مرزهای ملی کشید. ما در این خصوص نیازمندیم که هم سند ملی خودمان را در زمینه اخلاق هوش مصنوعی داشته باشیم و هم بتوانیم سیاستگذاری مناسبی درباره سندهای جهانی داشته باشیم.
سلاحشدگی هوش مصنوعی
سفیر جمهوری اسلامی ایران در سازمان علمی فرهنگی یونسکو به تعارضهای ممکن و محتمل هوش مصنوعی در آینده نیز اشاره و تصریح کرد: توجه به مسئله اخلاق زمانی جدی میشود که در تعارض با قوانین و سیاستها قرار گیرد، بهگونهای که امکان عمل کردن به هردوی آنها نباشد. درخصوص توصیهنامه اخلاق هوش مصنوعی یونسکو هم تعارضاتی با قوانین کشورها دیده میشود. ازجمله اینکه طبق قوانین کشورها، آنها باید در اعمال حاکمیت خود مستقل و مختار باشند که این توصیهنامه محدودیتهایی را بر آنها تحمیل میکند.
به همین دلیل، برخی از کشورها زیر بار آن نمیروند. از طرف دیگر، اگر همه کشورها اطلاعاتشان را در اختیار هم بگذارند، ممکن است در نگاه اول، این اقدام دوستانه بهنظر بیاید اما واقعیت این است که کشورهایی از این کار بیشترین سود و بهره را میبرند که پلتفرمهای جهانی را در اختیار دارند. موضوع تعارض قوانین با اخلاق، موضوعی است که باعث میشود
بهدنبال سازوکارهایی باشیم تا دسترسی عادلانهتر به دستاوردهای هوش مصنوعی را برای ما فراهم کند. از دیگر تعارضهای ممکن، مسئله تعارض اخلاق با سودطلبی اقتصادی است که در این خصوص، کمپانیهای بزرگ، سودهای کلان خود را بر اخلاق ترجیح خواهند داد. همچنین، یکی دیگر از مسائلی که در حوزه هوش مصنوعی وجود دارد و میتوان از آن بهعنوان یکی از تعارضها یاد کرد، مسئله نظامیگری یا سلاحشدگی هوش مصنوعی است.
یکی از نگرانیهایی که امروز وجود دارد، بعد نظامی هوش مصنوعی و تبدیل آن به یک سلاح نظامی است که میتواند روابط امنیتی در سطح جهان را دگرگون کند. لذا یکی از پرسشهای اساسی این است که دستورالعملهایی که برای کاربرد هوش مصنوعی تنظیم میشود، برای کاربردهای غیرنظامی هستند یا همه کاربردها ازجمله کاربرد نظامی هوش مصنوعی را هم شامل میشوند؟ هنوز این مسائل در توصیهنامه هوش مصنوعی یونسکو شکافته نشده و به همین دلیل است که میگوییم هنوز راه نرفته بسیار داریم.
پاکتچی در پایان با اشاره به چالشهای موجود تأکید کرد: اینکه چگونه میتوان تناسبی بین اخلاق هوش مصنوعی با قوانین، مقررات و سیاستهای کشورهای مختلف برقرار و تعارضها را برطرف کرد، بحثهای جدی و حساس هستند که هنوز روی میز هستند. با توجه به حساسیت جمهوری اسلامی ایران در ارتباط با تکتک این موارد، انتظار میرود که کارشناسان و متخصصان ایرانی خیلی جدیتر، پیشروتر و دقیقتر وارد این بحث و گفتوگو شوند.
کاربردهای متنوع هوش مصنوعی
در ادامه محمد حسینیمقدم، در مقدمه سخنان خود درباره اهمیت هوش مصنوعی گفت: امروز هوش مصنوعی موردتأکید صاحبنظران دولتی و خصوصی و نهادهای مدنی قرار گرفته است. این تأکید یا از منظر هراس از گسترش این تکنولوژی است یا از منظر شیفتگی به آن. صرفنظر از این نگاهها، یک اجماعنظر جهانی وجود دارد و هوش مصنوعی در دستور کار کنوانسیونهای بینالمللی قرار گرفته است که این نشان میدهد هوش مصنوعی یک مسئله جاافتاده جهانی است که ما هم باید آن را در دستور کار خود قراردهیم.
هماکنون، ۷۷درصد مردم جهان، از قابلیتهای هوش مصنوعی استفاده میکنند که فقط ۳۳درصد از این موضوع آگاهی دارند. همچنین استفاده از آن در محیط کار یک امر رایج است که از ۱۰ درصد در سال ۲۰۱۵، به ۳۷ درصد در سال ۲۰۲۱ رسیده است. یکی از نقاطعطف ملموسشدن آن برای مردم جهان، شرایط کووید-۱۹ بود که مردم به وضوح نحوه استفاده و مبادله اطلاعات از طریق آن را دیدند. از هوش مصنوعی در دنیا استفادههای متنوعی میشود ازجمله استفاده در خودروهای خودران که تا سال۲۰۵۰، ۹۰درصد تصادفات جادهای را کاهش خواهد داد.
او با اشاره به سطح بهرهمندی جامعه علمی ایران از هوش مصنوعی افزود: نحوه رویارویی جامعه علمی ایران با هوش مصنوعی هم اهمیت دارد. در برآورد جهانی سطح بهرهمندی از روبات در برنامههای آموزشی، رتبه ایران ۳ درصد بوده است. همچنین جایگاه جهانی ایران در تولید مقالات بینالمللی در هوش مصنوعی از سال۱۹۸۰ تا ۲۰۲۰، جایگاه برجستهای است که این نشان میدهد جامعه علمی ایران توانسته بهرغم همه مشکلات و چالشها، در تراز کشورهای صاحب این علم در تولید این علم و دانش مشارکت داشته باشد.
درخصوص کسب مهارتهای دیجیتال هم جایگاه ایران در میانگین جهانی رو به بالاست که این هم نشان میدهد شهروندان ما، مهارتهای دیجیتال را فراگرفتهاند که این خود میتواند دستمایه خوبی برای تحول و دستیابی به بلوغ در حوزه هوش مصنوعی باشد. عضو هیأتعلمی مؤسسه مطالعات فرهنگی و اجتماعی به تغییراتی که هوش مصنوعی در حوزه علم و علمورزی ایجاد خواهد کرد نیز اشاره و خاطرنشان کرد: هوش مصنوعی به انحاء مختلف وضعیت علمورزی را متحول خواهد کرد.
تحول در برنامههای پژوهشی، سرمایههای انسانی، بهکارگیری سرمایههای فیزیکی، همکاریهای علمی بینالمللی، زمان پژوهش، منابع مالی آن، چگونگی ارزیابی پژوهش و چگونگی دستیابی به اهداف پژوهش، ازجمله این تحولات هستند. ستونهای تحول هوش مصنوعی را میتوان در قانونهای مور (افزایش ظرفیت پردازنده)، قانون کرایدرز (افزایش امکان ذخیره بیگ دیتاها) و قانون کوپر (افزایش سرعت پردازش)، توسعه الگوریتمهای هوش مصنوعی، توسعه نرمافزارهای منبع باز، توسعه سختافزارهای محاسباتی و دسترسی به دادهها برشمرد.
برخی از این تحولات در حوزه پارادایمهای کشف علمی صورت خواهد گرفت که در آن از پارادایم مبتنی بر theory driven research به سمت یک پارادایم مبتنی بر data driven research خواهیم رفت. یعنی از مسیر تفسیر و تبین به سمت دادهها و نمونهها گذار خواهیم کرد.
حسینیمقدم در پایان به ذکر چالشهای پیشروی توسعه علم در سایه هوش مصنوعی پرداخت که فقدان رویکردهای نظری برای یکپارچهسازی دادهها و مدلهای هوش مصنوعی در تحلیل کلاندادهها، شکاف میان دانشمندان و مهندسان در بهرهمندی از هوش مصنوعی (الگوریتم، سختافزار، نیروی انسانی و...)، شکاف در دسترسی به دادهها، تقویت فرهنگ سلبریتی در علم، حکمرانی بنگاهها در پیشرفت علم و افزایش مشارکت علمی شرکتهای بزرگ در توسعه یادگیری عمیق در برابر دانشگاههای نخبه، از جمله آنها بود.
مسئولیت و هوش مصنوعی
سیدعلی حسینی، سخنران سوم این نشست با اشاره به مهمترین مسائل موجود در حوزه اخلاق هوش مصنوعی اظهار داشت: یکی از مهمترین مسائلی که در اخلاق هوش مصنوعی مطرح است، حریم خصوصی افراد و دسترسی شرکتهای مختلف به دادههای افراد است که حریم خصوصی آنها را نقض میکند. شفافیت یا عدمشفافیت الگوریتمها و تصمیماتی که این الگوریتمها میگیرند، رعایت انصاف، مواسات و برابری در آموزش الگوریتمها، کاربرد هوش مصنوعی در حوزههای نظامی بهویژه استفاده از ابزار نظامی هوشمند مستقل و خودکار و نهایتا مسئله مسئولیتپذیری، از دیگر موارد مهمی هستند که در حوزه اخلاق هوش مصنوعی همواره مطرح هستند. یکی از بحثهای اولیهای که در توسعه دادن این ماشینها مطرح شد، بحث مسئولیتپذیری بود که چطور باید باشد و چهکسی باید پاسخگو باشد؛ مثلاً مسئولیت خسارت مالی افرادی که شغلشان را به روباتها میبازند، با چهکسی است؟ و یا اینکه مسئولیت در هنگام تصادف یک ماشینخودران، با کیست؟ اینها ازجمله سؤالات مهمی است که در زمینه اخلاق هوش مصنوعی مطرح هستند.
او با اشاره به نقطهعطف توجه به مبحث اخلاق در هوش مصنوعی در اروپا اضافه کرد: یکی از نقاطعطف توجهی که در اروپا در قسمتهای مختلف جامعه به مبحث اخلاق و اخلاقمداری در هوش مصنوعی شد، اتفاق بین فیسبوک و شرکت انگلیسی کمبریج آنالتیکا بود که در مارس۲۰۱۴ رخ داد که طی آن، دادههای کاربران فیسبوک و حساب رأیدهندگان آمریکایی به عوامل روسی فروخته شد و مورد تبلیغات هدفمند قرار گرفت. این اتفاق و آبروریزی بزرگ، سروصدای زیادی ایجاد و بحث اخلاق در هوش مصنوعی را پررنگ کرد. حسینی با بیان اینکه هر کشور، شرکت و منطقهای تعریف، تفسیر و روش خاص خود را دارد، حساسیت ایران در مقابل هوش مصنوعی را یک رویکرد طبیعی دانست و گفت: شرکتها، مناطق و کشورها، تعاریف، تفاسیر و روشهای خاص خود را در زمینه هوش مصنوعی دارند. لذا اگر کشوری مثل ایران هم میخواهد اصول و روش خود را اجرا کند، کاملاً طبیعی است و این فرصت برای او باز است. مثلاً اروپا، بیشتر روی حفظ حریم خصوصی افراد تأکید دارد اما آمریکا، بیشتر به مسائلی مثل تبعیض نژادی و جنسیتی توجه میکند. اگر ما هم میخواهیم روی هوش مصنوعی کار کنیم، باید ببینیم چه مسائلی برای ما مهم است و هوش مصنوعی میتواند چه خدماتی به ما ارائه دهد.