واضح آرشیو وب فارسی:عصر ایران: هشدار دانشمندان درمورد ظهور رباتهای قاتل
طرح استفاده ابزاری از فناوری هوش مصنوعی به عنوان جایگزینی برای نیروهای نظامی از سالها قبل مطرح شده است، اما با توجه به پیشرفت روزافزون تکنولوژی و رقابت فشرده شرکتهای دولتی و بخش خصوصی در این زمینه، انتظار میرود تا سال آینده میلادی اولین نمونه خودکار ربات مجهز به سلاح کشنده توسط محققان ارتش ایالات متحده آمریکا تولید و به کار گرفته شود.
محققان معتقدند که با توجه به سرمایهگذاری هنگفت دولتی و بخش خصوصی در زمینه تولید رباتهای هوشمند جنگی، باید وجه منفی عملکرد این تجهیزات کشنده را نیز در نظر گرفت.
طرح استفاده ابزاری از فناوری هوش مصنوعی به عنوان جایگزینی برای نیروهای نظامی از سالها قبل مطرح شده است، اما با توجه به پیشرفت روزافزون تکنولوژی و رقابت فشرده شرکتهای دولتی و بخش خصوصی در این زمینه، انتظار میرود تا سال آینده میلادی اولین نمونه خودکار ربات مجهز به سلاح کشنده توسط محققان ارتش ایالات متحده آمریکا تولید و به کار گرفته شود. دانشمندان معتقدند که با روی کار آمدن فناوری رباتیک به عنوان ابزاری جهت کشتن انسانها چه به صورت خودکار و یا کنترل از راه دور، تصمیمگیری برای کشتن شهروندان بیگناه بسیار آسانتر از شرایط واقعی خواهد شد. امکان تصمیمگیری اتفاقی یا بدون قضاوت توسط فناوری هوش مصنوعی به کار رفته در رباتهای مجهز به سلاحهای واقعی غیرقابل پیشگیری است، بنابراین امکان هدفگیری شهروندان معمولی به جای افراد مسلح همواره وجود دارد. فناوری رباتهای مجهز به سلاح یا killer robots میتواند در شکلهای گوناگونی ظاهر شود. در واقع این فناوری را میتوان در تجهیزات زمینی، هوایی و حتی دریایی به کار گرفت. اگرچه همیشه کارشناسان علم رباتیک خطر ورود رباتهای هوشمند مجهز به سلاح را هشدار میدهند، اما طبق معمول شرکتهای تولیدکننده سلاح با در دست داشتن ابزار مالی و لابیگری در سیاست به هدف خود دست مییابند و همواره شهروندان بیگناه قربانی میشوند. کارشناسان رباتیک همچنین معتقدند که جایگزینی هوش مصنوعی در هدفگیری و تصمیم به شلیک به جای منطق انسان یک تصمیم کاملا خطرناک و غیرعاقلانه است، چرا که در این حالت یک ربات تصمیم میگیرد که به یک هدف انسانی بدون در نظر گرفتن منطق و اهمیت جان انسان شلیک کند. اکثر حقوقدانان آمریکایی معتقدند که متاسفانه از نظر مسائل حقوقی در شرایطی که ربات به طور خودسرانه و برخلاف منطق عملی را انجام دهد، هیچکس مقصر نخواهد شد و نمیتوان هوش مصنوعی را مقصر قلمداد کرد. در واقع بهترین اقدام برای جلوگیری از وقوع چنین بحرانی، جلوگیری از ساخت چنین وسایل خطرناکی است یا در خوشبینانهترین حالت تصمیم تیراندازی باید توسط یک انسان انجام شود نه یک ماشین هوشمند. منبع: ایسنا
تاریخ انتشار: ۰۸:۳۱ - ۳۱ خرداد ۱۳۹۵ - 20 June 2016
این صفحه را در گوگل محبوب کنید
[ارسال شده از: عصر ایران]
[تعداد بازديد از اين مطلب: 19]