مسائلی از این قبیل که آیا از یک سامانه رایانهای میتوان همان کارکردهای ذهن انسان را متوقع بود؟ اگر پاسخ آری است، آیا تمام حقوقی که به انسان تعلق میگیرد؛ بر آن نیز بار میشود؟ آیا ماشین احساس دارد؟ آیا وجدان دارد؟ و آیا باید اخلاقی عمل کند؟ غیراخلاقی عمل کردن سامانههای رایانهای از قبیل آدمک (روبات)ها به چه معناست؟ نقش طراحان و برنامهریزان در اینجا چه میشود؟ آیا ما محق هستیم هر ارزش و داده اخلاقیای را در سامانههای آنها بگنجانیم؟و... مطلب حاضر با نگاه به روند رو به افزایش سامانههای آدمکی(روباتی) در زندگی انسان معاصر میکوشد تا به تبیین و بررسی این پرسشها بپردازد.
رایانه درتمام زوایای زندگی مدرن امروزی از سامانههای خانگی گرفته که افزارهایی برای سرگرمی، ارتباط و جستوجو هستند تا سامانههای مالی که میلیونها معامله را در بازارهای جهانی، روزانه انجام میدهند، نقش برجستهای ایفا میکند و در این میان سامانههای روباتیک نیز در راه هستند.
آنها در سامانههای کارخانهای و خدماترسانی بیمارستانی، راهنمای موزه، اسباب بازیها و حتی سلاحهای مرگبار مورد استفاده در جنگ عراق و افغانستان ظاهر شدهاند و بهزودی ما شاهد خدمات روباتیک در منزل و برای سالمندان نیز خواهیم بود.
مهندسان همیشه به امنیت سامانههایی که طراحی نموده توجه خاصی مبذول داشتهاند با این حال طراحان سیستمهای رایانهای همواره قادر نیستند تاواکنشها را در شرایط و ورودیهای جدید پیشبینی کنند، بنابراین همان طور که تکنولوژی پیچیده و پیچیدهتر میشود و نسل جدید روباتهای متفکر پا به عرصه ظهور میگذارند امنیت بیش ازپیش مورد توجه قرار میگیرد.
نتیجتا فلاسفه و مهندسان آستینها را بالا زده تا سامانههای رایانهای و روباتهایی را طراحی کنند که بتوانند استدلالهای اخلاقی و وجدانی داشته باشند. گسترش روباتهای مستقل و متفکر که جنبههای مثبت و منفی زیادی در زندگی انسان دارد، مبحث جدیدی را مطرح میسازد که از آن با عناوین علم اخلاق ماشینی، هوش مصنوعی و علم اخلاق روباتیک یاد میکنند. این حیطه از فلسفه نوین توجه خود را روی ساخت روباتهایی که قادرند تا تصمیمات اخلاقی و عقلانی بگیرند، معطوف ساخته است.طراحی سیستمها و روباتهایی که به انسان ضرر نمیرسانند خود چالشی علمیو عملی را پیش رو دارد.
علم اخلاق ماشینی در جستوجوی یافتن پاسخی برای مجهولات زیر است: آیا ماشینها ابزاری هستند که در مقام کارگزار قادرند تا تصمیماتی مبنی بر اخلاقیات بگیرند؟ اگر پاسخ مثبت است چرا؟ و اگرنه باز به چه علت؟آیا تصمیمات اخلاقی و وجدانی، میتواند ازقاعدههای رایانهای و روباتیک پیروی کند؟ اگر بله، چرا؟ آیا انسان به راستی خواهان آن است که ماشینها قادر به تصمیمگیری شوند؟ چه موقع؟در چه شرایطی؟چه نوع تصمیمات اخلاقی باید عملی شود یا به مرحله اجرا درآید؟ همانند کثرت احتمالات رایانهای، پاسخ به این سؤالات در فلسفه نیز جای تفکر و تعمق بسیار دارد.
نظام اخلاق ماشینی از طریق ارزشهایی که در سیستم آن طراحی و نصب گردیده معین میشود. ابتدا ماشینهای پیچیده، حیطه عمل محدودی داشتند تا طراحان بتوانند تمام موقعیتهایی که ماشین با آن مواجه میشود را پیشبینی کرده و در فضای عمل محدود طراحی شده عمل کنند. با این حال با پیشرفت تکنولوژی و پدیدار شدن سیستمهای نوظهور روباتیک طراحان ومهندسان دیگر قادر به پیشبینی دقیق در برابر ورودیهای جدید نیستند، بنا براین ماشینها نیاز به نوعی اخلاقیات کارآمد دارند، بدان معنی که آنها مجموعهای از ملاحظات اخلاقی را برای انتخاب رشته عمل خود پردازش میکنند.
اینکه ماشین قاعدتا میتواند یک کارفرمای مصنوعی متعهد و خودآگاه با هوشی همانند انسان باشد، موضوعی است که تئوری پردازان با آن مخالف هستند. با این وجود این مباحث در حال حاضر عکس العمل بسیاری از فیلسوفان، قانونگذاران و آیندهشناسان را برانگیخته است. مباحثی نظیر آنکه چه موقع کارگزاران روباتیک باید مسئولیت اعمالشان را بهعهده بگیرند و آیا آنها مستحق داشتن اموال شخصی و حقوق مدنیاند یا نه، ما را در فهم حیطه عمل کارگزار مصنوعی و مسئولیتهای قانونی او یاری میدهد.
چالشهای ماشین اخلاق گرا
اگر ترن به مسیر فعلی خود ادامه دهد 5نفر از خدمه را در انتهای مسیر خواهد کشت.
با این حال فردی در کنار مرکز کنترل ایستاده که میتواند ترن را به مسیر دیگری هدایت کند. متأسفانه با تغییر مسیر ترن نیز تنها یک نفر کشته خواهد شد. اگر شما مسئول کنترل ترن بودید چه میکردید ؟ آیا رایانه و روبات میتواند ترن را به مسیردیگری هدایت کند ؟ بیشتر مردم در این شرایط تصمیم میگیرند تا ترن را از ریلی به ریل دیگر تغییر مسیر داده تا جان 5 نفر را نجات دهند، حتی اگر جان فرد بیگناهی به خطر بیفتد.
در وضعیتی متفاوت هیچ تغییر مسیری امکان ندارد. شما در کنار پلی در حضور مردی درشت هیکل ایستادهاید و میتوانید با هل دادن مرد به پایین روی ریل قطار جان 5نفر را نجات دهید. در این شرایط تنها درصد اندکی از مردم میگویند که مرد را به پایین پرت خواهند کرد.
با وارد شدن روبات به این سناریو احتمالات جالب توجه و شاید نگران کنندهای فرض میشود. برای مثال فرض کنید که روباتی ساختهاید که در کنار این مرد ایستاده است. از روبات انتظار دارید چه عکسالعملی نشان دهد؟ آیا روبات را طوری برنامهریزی میکنید که مرد را از بالای پل به پایین هل دهد، حتی اگر خود حاضر به انجام چنین کاری نباشید؟ البته ممکن است روبات، واکنشی نشان دهد که نتیجه مشابهی در پی داشته باشد. برای مثال با پریدن به پایین، جان مسافران را نجات دهد. راه حلی که به ذائقه ما انسانها گاهی خوش نمیآید! ترنهای بدون راننده امروزه در فرودگاهها و و سیستم متروهای لندن، پاریس و کپنهاک امری عادی است و احتمال دارد که این سیستمهای رایانهای روزی با چالشی نظیرآنچه که ذکر شد مواجه شوند.
اما در حال حاضر خطراتی که انسان را تهدید میکند، بیشتر از جانب سیستمهایی است که شبکههای برق فشار قوی، سیستمهای مالی و سلاحهای کشنده را کنترل میکنند. حوزه جدید اخلاق ماشینی عملا در باب پرسشهایی به کند وکاو میپردازد که منطبق با ساخت روباتی سازگار با وجدانیات و اخلاقیات باشد. بنابر این ارزشهایی که برای روبات برنامهریزی شده توسط مهندسان و طراحان وارد سیستم رایانهای او میشود.
برای برنامهریزی آسان طراحان و مهندسان میتوانند تمام شرایطی که سیستم رایانهای با آن مواجه میشود را پیشبینی کرده تا بتوانندعکس العمل مناسب را طرح ریزی کنند. ضرورتی ندارد که روباتها تصمیمات اخلاقی و وجدانی انسان را عینا بازسازی کند با این حال توانایی حساسیت به این مسائل مقیاسی برای ارزیابی انجام وظیفه این کارگزاران مصنوعی اخلاق مدار (AMA ) است.حصول اطمینان از آنکه این روباتها به راستی در گرفتن تصمیمات خویش قابل اعتمادند امری ضروری است در غیراین صورت باید از گسترش حیطه کار آنها نظیر سیستمهای مربوط به سلاحها و روباتهای امداد رسان اجتناب کنیم.
امروزه علم اخلاق ماشینی عمدتا از یک سری مباحث فلسفی تشکیل شده که با تجربیات محدود ابزار وسیستمهای قادر به تصمیمگیری وجدانی در هم میآمیزد. با این حال این حیطه بسیار مورد توجه فلاسفه قرار گرفته و گستره عظیمیاز مباحثات فلسفی را بهوجود آورده است. مباحثات موجود از این جملهاند:
- روان شناسی اخلاقی روباتها: چگونه یک کارگزار مصنوعی میتواند درستی و نادرستی، ویژگیهای اخلاقی و انتخاب بهترین راه مواجه با چالشهای جدید را شناسایی کند و آن را ارتقا دهد؟
- نقش احساسات: آیا نیازی هست تا احساسات انسانی در روباتها نیز عینا شبیهسازی شود تا او بتواند وظایف وجدانی و اخلاقی خویش را به درستی انجام دهد؟ چگونه؟ به چه منظوری؟ چه موقع؟ و شاید با نگاهی دقیقتر بتوانیم این سؤال را اینگونه بیان کنیم: چگونه یک فرد میتواند اثرات منفی احساسات، گرایشهای اخلاقی و هوش هیجانی را در هنگام تصمیمگیری برهم منطبق سازد ؟
- نقش وجدان: آیا یک ماشین میتواند دارای وجدان باشد یا درک درستی از آن داشته باشد؟ آیا تجربه همراه با خودشناسی برای یک ماشین کارگزار اخلاق گرا لازم است یا نه ؟
- معیاری برای تعیین محدوده اخلاقی کارفرمایان مصنوعی: یک کارفرما چه تواناییهایی نیاز دارد تا بتواند مسئولیت وجدانی یا تعهد قانونی خود را انجام دهد؟ آیا جامعه باید حقوقی برای این کارگزاران که فرض میشود در اعمالشان مسئولند، قائل شود ؟
اینها و دیگر سؤالات با توجه به چالشهای عملی که شامل ساختن روباتها و ارزیابی آنها در شرایط خاص است در حیطه AMAها قرار میگیرد و در بخش عملی بدون شک به تجربیات فکری فلسفه نیاز پیدا خواهیم کرد. همان طور که دنیل دنت در سال 1995 ذکرکرده است: سازندگان روبات، کار فلسفی انجام میدهند، نه آنچه خود فکر میکنند در حال انجام آن هستند در تجربیات فکری فلاسفه، خورشید همیشه میدرخشد، انرژی همواره در جریان است و بازیگران سینما و سینماداران همواره دقیقا آنچه را انجام میدهند که تئوریهای فلسفی از آنان خواسته است.
فلاسفه هیچگاه از زاییدههای ذهنی خود متحیر نمیشوند و این تحیر تنها برای شنوندگان و مخاطبان است و همان طور که رونالد دو سوسا درخطابه به یاد ماندنی خویش ذکر کرده ؛ قسمت اعظم فلسفه، همانند بازی فکری تنیس بدون تور است اما چارچوب فکری شما روبات سازان دارای تور است. با این حال این دو از نظر درجه با یکدیگر متفاوتند. اثبات افکار اغلب چیزی است که شما برای آن درتلاشید.
در ساختن AMA ها بین تئوریهای فلسفی و تئوریهای تجربی سامانههای رایانهای پل ارتباطی پدیدار میشود و رایانهها آماده بسترسازی و آزمایش تئوریهای فلسفی در باب تصمیمگیری و اخلاق میشوند.
آلن کربای