تور لحظه آخری
امروز : سه شنبه ، 13 آذر 1403    احادیث و روایات:  امام علی (ع):براستى كه حقيقت خوشبختى آن است كه پايان كار انسان خوشبختى باشد و حقيقت بدبختى آن ا...
سرگرمی سبک زندگی سینما و تلویزیون فرهنگ و هنر پزشکی و سلامت اجتماع و خانواده تصویری دین و اندیشه ورزش اقتصادی سیاسی حوادث علم و فناوری سایتهای دانلود گوناگون شرکت ها

تبلیغات

تبلیغات متنی

صرافی ارکی چنج

صرافی rkchange

سایبان ماشین

دزدگیر منزل

تشریفات روناک

اجاره سند در شیراز

قیمت فنس

armanekasbokar

armanetejarat

صندوق تضمین

Future Innovate Tech

پی جو مشاغل برتر شیراز

آراد برندینگ

خرید یخچال خارجی

موسسه خیریه

واردات از چین

حمية السكري النوع الثاني

ناب مووی

دانلود فیلم

بانک کتاب

دریافت دیه موتورسیکلت از بیمه

طراحی سایت تهران سایت

irspeedy

درج اگهی ویژه

تعمیرات مک بوک

دانلود فیلم هندی

قیمت فرش

درب فریم لس

زانوبند زاپیامکس

روغن بهران بردبار ۳۲۰

قیمت سرور اچ پی

خرید بلیط هواپیما

بلیط اتوبوس پایانه

قیمت سرور dl380 g10

تعمیرات پکیج کرج

لیست قیمت گوشی شیائومی

خرید فالوور

پوستر آنلاین

بهترین وکیل کرج

بهترین وکیل تهران

خرید اکانت تریدینگ ویو

خرید از چین

خرید از چین

تجهیزات کافی شاپ

ساختمان پزشکان

محصولات فوراور

خرید سرور اچ پی ماهان شبکه

دوربین سیمکارتی چرخشی

همکاری آی نو و گزینه دو

کاشت ابرو طبیعی و‌ سریع

الک آزمایشگاهی

الک آزمایشگاهی

خرید سرور مجازی

قیمت بالابر هیدرولیکی

قیمت بالابر هیدرولیکی

قیمت بالابر هیدرولیکی

لوله و اتصالات آذین

قرص گلوریا

نمایندگی دوو در کرج

خرید نهال سیب

وکیل ایرانی در استانبول

وکیل ایرانی در استانبول

وکیل ایرانی در استانبول

رفع تاری و تشخیص پلاک

پرگابالین

دوره آموزش باریستا

مهاجرت به آلمان

بهترین قالیشویی تهران

بورس کارتریج پرینتر در تهران

تشریفات روناک

نوار اخطار زرد رنگ

 






آمار وبسایت

 تعداد کل بازدیدها : 1837166436




هواشناسی

نرخ طلا سکه و  ارز

قیمت خودرو

فال حافظ

تعبیر خواب

فال انبیاء

متن قرآن



اضافه به علاقمنديها ارسال اين مطلب به دوستان آرشيو تمام مطالب
archive  refresh

بهترین انتخاب: روبات با اخلاق سگی


واضح آرشیو وب فارسی:خبر آنلاین: دانش  - آیا می‌توان روبات‌ها را طوری ساخت که بر اساس وجدان و اخلاقیات، وظیفه خود را تشخیص و آن‌را به درستی انجام دهند؟ کارگران مصنوعی بااحساس هم‌اکنون وجود ندارند، ولی به راحتی می‌توان آنها را تصور کرد: قطارهای بدون راننده‌ای که به طور خودکار از ریلی که روی آن 5 نفر مهندس مشغول کار هستند، تغییر مسیر می‌دهند؛ یا هواپیماهای نظامی تهاجمی بدون سرنشین که می‌توانند اهداف مجاز نظامی را از اماکن غیر نظامی که نباید به آنها آسیبی برسد، تشخیص دهند. در کتاب «ماشین‌های بااخلاق»، وندل والاچ اخلاق‌شناس و کالین آلن فیلسوف، سه سوال را مطرح می‌کنند: «آیا دنیا به کارگران مصنوعی بااحساس نیاز دارد؟ آیا مردم می‌خواهند که کامپیوترها بتوانند تصمیمات اخلاقی بگیرند؟ و این‌که مهندسان و فیلسوفان برای طراحی و ساخت چنین کارگرانی چگونه باید اقدام کنند؟» کتاب «ماشین‌های بااخلاق» برخلاف داستان‌های تخیلی هالیوود در مورد ماشین‌های هوشمند ولی بدطینت و رویای پژوهشگران در مورد برتری ماشین‌ها و تمدن با محوریت ماشین، دقیق، متعادل و آموزنده است. نویسندگان این کتاب بی هیچ اشاره‌ای به مسائل مرتبط با فناوری، پاره‌ای از موضوعات پایه‌ای اخلاقی و فلسفی را در ارتباط با ماشین‌ها جمع‌آوری کرده‌اند. آنها برای بررسی این‌که آیا ماشین‌های غیرهوشمند می‌توانند کارگران با احساس واقعی باشند، روی «اخلاقیات کاربردی» تمرکز کرده‌اند. «کارگران بااحساس، رفتارشان را با توجه موارد زیر بررسی و تنظیم می‌کنند: آسیب‌هایی که ممکن است در نتیجه کارهایشان وارد شود و یا وظایفی که ممکن است نادیده گرفته شوند». کتاب، گستره وسیعی از دیدگاه‌ها را پوشش می‌دهد؛ پژوهش‌های در حال انجام کنونی را از بالا به پایین و بر مبنای انطباق با نظریه‌های معمول و متعارف اخلاقی دسته‌بندی می‌کند؛ و از پایین به بالا، استراتژی‌های تکاملی یا آموزشی این دستگاه‌ها را طبقه‌بندی می‌کند و کارهای انجام شده روی پیاده‌سازی احساسات در کامپیوترها را ذکر می‌کند. از آنجاکه در زمان کنونی هیچ روباتی به درک اخلاقیات کاربردی نزدیک نشده، ممکن است بحث‌های کتاب پیش از موعد به نظر برسند. نویسندگان کتاب این را صرفا شروع بحث می‌دانند، ولی این خطر وجود دارد که بیان زودهنگام چنین مباحثی، تمام کارها را در آینده تحت‌الشعاع قرار دهد. تاثیر قوانین سه گانه آیزاک آسیموف روی روباتیک، مثالی واضح از اخلاقیات سلسله مراتبی بر پایه اصول برای روبات‌ها است. هدف بیان‌شده نویسندگان این کتاب، بیان مباحث به طریقی است که مهندسان را در فرایند طراحی کارگران مصنوعی بااحساس راهنمایی کند. ولی سه مشکل اساسی در ارتباط با نحوه بیان مساله این دو نفر وجود دارد. اول، نویسندگان مورد خاص خود را هم بر حسب نیاز به تکامل اخلاقی و هم بر حسب سیستم‌هایی که مورد تحلیل قرار می‌دهند، بسط داده‌اند. در پاسخ به این سوال که آیا دنیا نیاز به چنین کارگران مصنوعی بااحساسی دارد یا نه، آنها به مثال قطعی گسترده برق در ایالات شمالی آمریکا در سال 2003 اشاره می‌کنند که در آن، «نرم‌افزارها و سیستم‌های کنترل نیروگاه‌ها فرایند خاموشی را فعال کردند، و تقریبا هیچ زمانی را برای مداخله انسانی باقی نگذاشتند». در پی آن، آنها چنین استدلال کردند که «لازم است که سیستم‌های خودکار بتوانند محاسبه‌ای از مخاطرات در مقابل نتایج داشته باشند». مثال آنها تعجب‌برانگیز است: زیرساخت‌های شبکه بسیار بزرگ برق خیلی با جارو برقی‌های روباتی و پرستارانی که ممکن است نیاز به احساس داشته باشند، متفاوت است. به‌رغم این‌که کتاب عمدتا روی روبات‌های واقعی و شبیه‌سازی‌های کامپیوتری مورد نیاز برای طراحی آنها متمرکز شده، نویسندگان کتاب تعمدا گستره مبحث را وسعت می‌دهند تا بتواند نرم‌افزارهای کنترل سیستم‌ها و روبات‌های نرم‌افزاری را نیز شامل شود. ولی آنها به مباحث اخلاقی مرتبط با آنها نمی‌پردازند که شامل مواردی مانند حریم خصوصی می‌شود که توسط نرم‌افزارهایی مانند «روبات‌های نرم‌افزاری جستجوی اطلاعات که در شبکه پرسه می‌زنند» تهدید می‌شود. این که از مردم بپرسید آیا می‌خواهند که کامپیوترها بتوانند تصمیمات اخلاقی بگیرند، احتمالا به پاسخ متفاوتی منجر می‌شود تا این که از آنها همین سوال را در مورد روبات‌های فیزیکی بپرسید، که در آنها مسائل کنترل و مسئولیت‌پذیری راحت‌تر هستند و علت آن هم محلی بودن این روبات‌هاست. مورد دوم این است که تمرکز روی خودکار بودن در تعریف نویسندگان از روبات با تاکید بر «استقلال از نظارت مستقیم انسانی»، روبات‌های بسیار مهمی را که با نظارت مستقیم انسانی و با کنترل از راه دور کار می‌کنند، از حوزه بحث خارج می‌کند. نمونه‌ای از این روبات‌ها جراحی از راه دور است، چیزی که فواید بسیار زیادتری دارد، ولی درگیر مباحث اخلاقی و فلسفی کمتری نسبت به دیگر ابزارها است. نمونه دیگر، هواپیماهای نظامی تهاجمی بدون سرنشین هستند که هیچ مبحث جدید اخلاقی را در بر نمی‌گیرند. در این موارد می‌شد پافشاری کرد و فناوری‌های بهتری برای نظارت و کنترل از راه دور طراحی کرد. برای مثال، در پی حادثه قطار لوس‌آنجلس در کالیفرنیا که سپتامبر 2008 اتفاق افتاد، منتقدان گفتند که نصب دوربین‌های مراقبت در کابین قطارها (به‌جای آموزش‌های اخلاقی بیشتر به رانندگان) می‌توانست از حوادثی که ناشی از این عملکردها است، بکاهد. در این مورد نیز گزارش شده که راننده از خواندن پیغام‌های متعدد سیستم گیج شده بود. بدین‌ترتیب، نباید در تعریف فناوری‌های هدف روی عملکرد خودکار تاکید کرد: «آیا یک دستگاه خودکار باید در صورتی‌که نمی‌تواند بدون آسیب‌زدن به انسان‌ها کاری را انجام دهد، به ناظر انسانی هشدار دهد؟ (و اگر چنین باشد، آیا به اندازه کافی خودکار است؟)» سوم، این‌که کتاب از پیاده‌سازی اخلاقیات انسانی حمایت می‌کند؛ چراکه این تنها چیزی است که ما در مورد آن می‌دانیم. این انتخاب خیلی قطعی نیست. چون برای آینده قابل پیش‌بینی، روبات‌ها از نظر ظرفیت تصمیم‌گیری اخلاقی، در مقایسه با انسان‌ها در جایگاه پایین‌تری قرار خواهند داشت. در نتیجه اخلاقیات سلسه مراتبی آسیموف، در مقایسه با اخلاقیات انسانی که بر برابری و تساوی تمام عوامل اخلاقی تاکید دارد، نیاز به بازنگری خواهد داشت. اخلاقیات سگ‌ها می‌تواند جایگزین مناسبی باشد. روبات‌ها همانند سگ‌ها، توانایی متفاوتی برای اتخاذ تصمیمات اخلاقی مناسب دارند. بعضی خانواده‌ها، سگ‌های تربیت‌شده خوبی دارند که می‌توان آنها را بدون قلاده نگاه داشت، اما سگ‌های دیگری هم هستند که تنها زمانی می‌شد به آنها اعتماد کرد که عوامل تحریک‌کننده‌ای مانند گربه‌ها و سنجاب‌ها حضور نداشته باشند؛ و البته سگ‌های دیگری نیز یافت می‌شوند که برای آرام نگاه داشتن آنها نه تنها به قلاده، که به پوزه‌بند نیز نیاز است. توجه داشته باشید که همه آنها حیوانات اهلی هستند و بر یک راهنما متمرکزند. یک هدف با ارزش برای اخلاقیات روبات‌ها در آینده نزدیک، می‌تواند ماشین‌هایی باشد که ما می‌توانیم به این ترتیب طبقه‌بندی کنیم، در نتیجه می‌توانیم هر یک از آنها را بر اساس میزان قابلیت اعتماد و کنترل طبقه‌بندی کنیم که به آنها اجازه می‌دهد که به بهترین وجه خدمت کنند. «ماشین‌های بااخلاق» در مورد اخلاقیات روبات‌های آینده بحث می‌کند، ولی قضاوت در مورد این کتاب هنگامی امکان‌پذیر خواهد شد که ببینیم آیا خواهد توانست قواعد خود را تحمیل کند و یا این‌که بیش از حد زود منتشر شده است. نیچر، شماره 457؛ ژانویه 2009 - ترجمه: مجید جویا




این صفحه را در گوگل محبوب کنید

[ارسال شده از: خبر آنلاین]
[مشاهده در: www.khabaronline.ir]
[تعداد بازديد از اين مطلب: 368]

bt

اضافه شدن مطلب/حذف مطلب







-


گوناگون

پربازدیدترینها
طراحی وب>


صفحه اول | تمام مطالب | RSS | ارتباط با ما
1390© تمامی حقوق این سایت متعلق به سایت واضح می باشد.
این سایت در ستاد ساماندهی وزارت فرهنگ و ارشاد اسلامی ثبت شده است و پیرو قوانین جمهوری اسلامی ایران می باشد. لطفا در صورت برخورد با مطالب و صفحات خلاف قوانین در سایت آن را به ما اطلاع دهید
پایگاه خبری واضح کاری از شرکت طراحی سایت اینتن