واضح آرشیو وب فارسی:خبر آنلاین: دانش - آیا میتوان روباتها را طوری ساخت که بر اساس وجدان و اخلاقیات، وظیفه خود را تشخیص و آنرا به درستی انجام دهند؟ کارگران مصنوعی بااحساس هماکنون وجود ندارند، ولی به راحتی میتوان آنها را تصور کرد: قطارهای بدون رانندهای که به طور خودکار از ریلی که روی آن 5 نفر مهندس مشغول کار هستند، تغییر مسیر میدهند؛ یا هواپیماهای نظامی تهاجمی بدون سرنشین که میتوانند اهداف مجاز نظامی را از اماکن غیر نظامی که نباید به آنها آسیبی برسد، تشخیص دهند. در کتاب «ماشینهای بااخلاق»، وندل والاچ اخلاقشناس و کالین آلن فیلسوف، سه سوال را مطرح میکنند: «آیا دنیا به کارگران مصنوعی بااحساس نیاز دارد؟ آیا مردم میخواهند که کامپیوترها بتوانند تصمیمات اخلاقی بگیرند؟ و اینکه مهندسان و فیلسوفان برای طراحی و ساخت چنین کارگرانی چگونه باید اقدام کنند؟» کتاب «ماشینهای بااخلاق» برخلاف داستانهای تخیلی هالیوود در مورد ماشینهای هوشمند ولی بدطینت و رویای پژوهشگران در مورد برتری ماشینها و تمدن با محوریت ماشین، دقیق، متعادل و آموزنده است. نویسندگان این کتاب بی هیچ اشارهای به مسائل مرتبط با فناوری، پارهای از موضوعات پایهای اخلاقی و فلسفی را در ارتباط با ماشینها جمعآوری کردهاند. آنها برای بررسی اینکه آیا ماشینهای غیرهوشمند میتوانند کارگران با احساس واقعی باشند، روی «اخلاقیات کاربردی» تمرکز کردهاند. «کارگران بااحساس، رفتارشان را با توجه موارد زیر بررسی و تنظیم میکنند: آسیبهایی که ممکن است در نتیجه کارهایشان وارد شود و یا وظایفی که ممکن است نادیده گرفته شوند». کتاب، گستره وسیعی از دیدگاهها را پوشش میدهد؛ پژوهشهای در حال انجام کنونی را از بالا به پایین و بر مبنای انطباق با نظریههای معمول و متعارف اخلاقی دستهبندی میکند؛ و از پایین به بالا، استراتژیهای تکاملی یا آموزشی این دستگاهها را طبقهبندی میکند و کارهای انجام شده روی پیادهسازی احساسات در کامپیوترها را ذکر میکند. از آنجاکه در زمان کنونی هیچ روباتی به درک اخلاقیات کاربردی نزدیک نشده، ممکن است بحثهای کتاب پیش از موعد به نظر برسند. نویسندگان کتاب این را صرفا شروع بحث میدانند، ولی این خطر وجود دارد که بیان زودهنگام چنین مباحثی، تمام کارها را در آینده تحتالشعاع قرار دهد. تاثیر قوانین سه گانه آیزاک آسیموف روی روباتیک، مثالی واضح از اخلاقیات سلسله مراتبی بر پایه اصول برای روباتها است. هدف بیانشده نویسندگان این کتاب، بیان مباحث به طریقی است که مهندسان را در فرایند طراحی کارگران مصنوعی بااحساس راهنمایی کند. ولی سه مشکل اساسی در ارتباط با نحوه بیان مساله این دو نفر وجود دارد. اول، نویسندگان مورد خاص خود را هم بر حسب نیاز به تکامل اخلاقی و هم بر حسب سیستمهایی که مورد تحلیل قرار میدهند، بسط دادهاند. در پاسخ به این سوال که آیا دنیا نیاز به چنین کارگران مصنوعی بااحساسی دارد یا نه، آنها به مثال قطعی گسترده برق در ایالات شمالی آمریکا در سال 2003 اشاره میکنند که در آن، «نرمافزارها و سیستمهای کنترل نیروگاهها فرایند خاموشی را فعال کردند، و تقریبا هیچ زمانی را برای مداخله انسانی باقی نگذاشتند». در پی آن، آنها چنین استدلال کردند که «لازم است که سیستمهای خودکار بتوانند محاسبهای از مخاطرات در مقابل نتایج داشته باشند». مثال آنها تعجببرانگیز است: زیرساختهای شبکه بسیار بزرگ برق خیلی با جارو برقیهای روباتی و پرستارانی که ممکن است نیاز به احساس داشته باشند، متفاوت است. بهرغم اینکه کتاب عمدتا روی روباتهای واقعی و شبیهسازیهای کامپیوتری مورد نیاز برای طراحی آنها متمرکز شده، نویسندگان کتاب تعمدا گستره مبحث را وسعت میدهند تا بتواند نرمافزارهای کنترل سیستمها و روباتهای نرمافزاری را نیز شامل شود. ولی آنها به مباحث اخلاقی مرتبط با آنها نمیپردازند که شامل مواردی مانند حریم خصوصی میشود که توسط نرمافزارهایی مانند «روباتهای نرمافزاری جستجوی اطلاعات که در شبکه پرسه میزنند» تهدید میشود. این که از مردم بپرسید آیا میخواهند که کامپیوترها بتوانند تصمیمات اخلاقی بگیرند، احتمالا به پاسخ متفاوتی منجر میشود تا این که از آنها همین سوال را در مورد روباتهای فیزیکی بپرسید، که در آنها مسائل کنترل و مسئولیتپذیری راحتتر هستند و علت آن هم محلی بودن این روباتهاست. مورد دوم این است که تمرکز روی خودکار بودن در تعریف نویسندگان از روبات با تاکید بر «استقلال از نظارت مستقیم انسانی»، روباتهای بسیار مهمی را که با نظارت مستقیم انسانی و با کنترل از راه دور کار میکنند، از حوزه بحث خارج میکند. نمونهای از این روباتها جراحی از راه دور است، چیزی که فواید بسیار زیادتری دارد، ولی درگیر مباحث اخلاقی و فلسفی کمتری نسبت به دیگر ابزارها است. نمونه دیگر، هواپیماهای نظامی تهاجمی بدون سرنشین هستند که هیچ مبحث جدید اخلاقی را در بر نمیگیرند. در این موارد میشد پافشاری کرد و فناوریهای بهتری برای نظارت و کنترل از راه دور طراحی کرد. برای مثال، در پی حادثه قطار لوسآنجلس در کالیفرنیا که سپتامبر 2008 اتفاق افتاد، منتقدان گفتند که نصب دوربینهای مراقبت در کابین قطارها (بهجای آموزشهای اخلاقی بیشتر به رانندگان) میتوانست از حوادثی که ناشی از این عملکردها است، بکاهد. در این مورد نیز گزارش شده که راننده از خواندن پیغامهای متعدد سیستم گیج شده بود. بدینترتیب، نباید در تعریف فناوریهای هدف روی عملکرد خودکار تاکید کرد: «آیا یک دستگاه خودکار باید در صورتیکه نمیتواند بدون آسیبزدن به انسانها کاری را انجام دهد، به ناظر انسانی هشدار دهد؟ (و اگر چنین باشد، آیا به اندازه کافی خودکار است؟)» سوم، اینکه کتاب از پیادهسازی اخلاقیات انسانی حمایت میکند؛ چراکه این تنها چیزی است که ما در مورد آن میدانیم. این انتخاب خیلی قطعی نیست. چون برای آینده قابل پیشبینی، روباتها از نظر ظرفیت تصمیمگیری اخلاقی، در مقایسه با انسانها در جایگاه پایینتری قرار خواهند داشت. در نتیجه اخلاقیات سلسه مراتبی آسیموف، در مقایسه با اخلاقیات انسانی که بر برابری و تساوی تمام عوامل اخلاقی تاکید دارد، نیاز به بازنگری خواهد داشت. اخلاقیات سگها میتواند جایگزین مناسبی باشد. روباتها همانند سگها، توانایی متفاوتی برای اتخاذ تصمیمات اخلاقی مناسب دارند. بعضی خانوادهها، سگهای تربیتشده خوبی دارند که میتوان آنها را بدون قلاده نگاه داشت، اما سگهای دیگری هم هستند که تنها زمانی میشد به آنها اعتماد کرد که عوامل تحریککنندهای مانند گربهها و سنجابها حضور نداشته باشند؛ و البته سگهای دیگری نیز یافت میشوند که برای آرام نگاه داشتن آنها نه تنها به قلاده، که به پوزهبند نیز نیاز است. توجه داشته باشید که همه آنها حیوانات اهلی هستند و بر یک راهنما متمرکزند. یک هدف با ارزش برای اخلاقیات روباتها در آینده نزدیک، میتواند ماشینهایی باشد که ما میتوانیم به این ترتیب طبقهبندی کنیم، در نتیجه میتوانیم هر یک از آنها را بر اساس میزان قابلیت اعتماد و کنترل طبقهبندی کنیم که به آنها اجازه میدهد که به بهترین وجه خدمت کنند. «ماشینهای بااخلاق» در مورد اخلاقیات روباتهای آینده بحث میکند، ولی قضاوت در مورد این کتاب هنگامی امکانپذیر خواهد شد که ببینیم آیا خواهد توانست قواعد خود را تحمیل کند و یا اینکه بیش از حد زود منتشر شده است. نیچر، شماره 457؛ ژانویه 2009 - ترجمه: مجید جویا
این صفحه را در گوگل محبوب کنید
[ارسال شده از: خبر آنلاین]
[مشاهده در: www.khabaronline.ir]
[تعداد بازديد از اين مطلب: 368]