واضح آرشیو وب فارسی:هدانا: شاید تلاش مهندسان جهت تعلیم ربات ها برای سرپیچی کردن از فرامین انسان ها در ابتدا کمی نگران کننده به نظر برسد. آیا واقعا باید برای سیستم های هوش مصنوعی آینده، امکان سرپیچی از دستورات را فراهم کنیم؟ اما با کمی تفکر می توان به این نتیجه رسید که ویژگی یاد شده می تواند از بروز حوادث زیادی جلوگیری کند و در حقیقت ناجی جان انسان ها باشد. رباتی را تصور کنید که در خط تولید یک شرکت خودروسازی مشغول فعالیت است: این ربات در شرایط عادی باید از فرامین و دستورات از پیش تعیین شده ای پیروی کند؛ اما در صورتی که جان انسانی در خطر باشد ربات یاد شده باید به اندازه ای هوشمند باشد که با هدف کاهش احتمال وقوع حادثه، انجام وظایف پیش فرض خود را متوقف کند. برای دستیابی به چنین قابلیتی، یک تیم از لابراتوار تعامل انسان و ربات در دانشگاه تافتس تحقیقات خود را آغاز کرده اند. اساس کار این تیم برمبنای شروط Felicity تشکیل شده است. مغز انسان نیز برای تصمیم گیری در مورد وظایف محول شده، بر مبنای همین شروط عمل می کند. براساس این شروط ما قبل از اقدام به انجام کاری به صورت ناخوداگاه، موارد زیر را در نظر می گیریم: آیا با نحوه ی انجام این کار آشنا هستم؟ آیا از لحاظ فیزیکی امکان انجام آن را دارم و می توان اکنون انجامش دهم؟ آیا بر اساس نقش خود در اجتماع موظف به انجام این کار هستم؟ و در پایان، آیا با انجام این کار، هنجاری را نقض می کنم؟ اگر ربات ها قادر به پرسیدن این سوالات از خود باشند، در نهایت قادر به سازگار کردن خود با شرایط غیر منتظره خواهند بود. دو سوال پایانی، نقشی کلیدی در این فرآیند ایفا می کنند. یک ربات باید قادر به تشخیص صلاحیت اپراتور خود باشد؛ علاوه بر این باید امکان بررسی پیامدهای انجام دستورات داده شده توسط اپراتور را داشته باشد و در صورتی که دستوری در نهایت منجر به وارد آمدن صدمه به خود یا دیگران و در حالت کلی بروز حادثه ای شود، از انجام آن سرپیچی کند. عملی کردن این ایده کار بسیار دشواری است. در دموی منتشر شده توسط این تیم، مهندسان در حال تست تعدادی مکالمه ی ساده بین ربات و کاربر هستند که امکان انجام چند داد و ستد ساده را فراهم می کند. این به مفهوم آن است که ربات می تواند دلایلی را برای انجام ندادن کاری فراهم کند؛ در حالی که اپراتور می تواند دلایل بیشتری برای انجام دستورات توسط ربات بیاورد. به عنوان مثال در این دمو، ربات می گوید که در صورت پیشروی به سمت لبه ی میز، سقوط خواهد کرد. اما در ادامه و با کسب اطمینان خاطر از جانب اپراتور به حرکت خود ادامه می دهد و در لحظه ی رسیدن به لبه ی میز، اپراتور آن را می گیرد. محققین توسعه دهنده ی خودروهای خودران نیز با مسئله ی مشابهی درگیر هستند؛ اگر خودروی خودران در یک موقعیت بحرانی گرفتار شود که در طی آن جان چندین انسان تهدید می شود، آیا عمدا مسیر خود را تغییر داده و با برخورد با یک دیوار جان تنها سرنشین خود را به خطر می اندازد، یا با طی مسیر فعلی خود و در نهایت برخورد با جمعیت منجر به مرگ یا جراحت افراد بیشتری می شود؟ تحقیقات نشان می دهد که عموم مردم با به حداقل رسیدن تلفات موافق هستند؛ حتی اگر این به مفهوم مرگ سرنشین خودرو باشد. طبق مقاله ای که اخیرا منتشر شده، اگرچه فراهم کردن امکان سرپیچی از فرامین در ربات ها به صورت بالقوه می تواند خطرآفرین باشد، اما در حقیقت تبعیت کورکورانه ربات ها از فرامین، امکان وقوع حوادث بیشتری را به دنبال دارد. در این مقاله چنین آمده است: انسان ها به دلایل مختلفی از دستورات سرپیچی می کنند؛ این دلایل می توانند مجموعه ی گسترده ای را از ناتوانی در انجام دستورات تا تردیدهای اخلاقی در مورد پیامدهای انجام آن ها را شامل شوند. حلقه ی گمشده در معماری ادراکی ربات ها، مجموعه ای از مکانیزم های یکپارچه برای فراهم کردن امکان تصمیم گیری برای پذیرش یا رد دستورات با در نظر گرفتن تمامی احتمالات و در نهایت فراهم کردن توضیحی قانع کننده در مورد دلیل انجام ندادن دستور توسط ربات است. در پایان از شما دعوت می کنیم تا دموی منتشر شده توسط تیم تحقیقاتی دانشگاه تافتس را تماشا کنید:
یکشنبه ، ۸آذر۱۳۹۴
[مشاهده متن کامل خبر]
این صفحه را در گوگل محبوب کنید
[ارسال شده از: هدانا]
[تعداد بازديد از اين مطلب: 13]