تور لحظه آخری
امروز : شنبه ، 14 مهر 1403    احادیث و روایات:  امام جواد (ع):سه چیز است که هر کس آن را مراعات کند ، پشمیان نگردد : 1 - اجتناب از عجله ، 2 - مشورت ...
سرگرمی سبک زندگی سینما و تلویزیون فرهنگ و هنر پزشکی و سلامت اجتماع و خانواده تصویری دین و اندیشه ورزش اقتصادی سیاسی حوادث علم و فناوری سایتهای دانلود گوناگون شرکت ها




آمار وبسایت

 تعداد کل بازدیدها : 1820854642




هواشناسی

نرخ طلا سکه و  ارز

قیمت خودرو

فال حافظ

تعبیر خواب

فال انبیاء

متن قرآن



اضافه به علاقمنديها ارسال اين مطلب به دوستان آرشيو تمام مطالب
 refresh

افزایش هشدار درباره استفاده از ربات های قاتل در ارتشها


واضح آرشیو وب فارسی:علت نیوز: به گزارش علت، کارشناسان هوش مصنوعی، وکلاء و فعالان روز سه شنبه در نشستی در سازمان ملل با سازمان دهی پویشی موسوم به «روباتهای قاتل را متوقف کنید» در مورد اتکای غیرقابل پیش بینی به هواپیماهای بدون سرنشین ارزان و هوش مصنوعی فاقد شعور در دنیای واقعی هشدار دادند. توبی والش استاد هوش مصنوعی در […]به گزارش علت، کارشناسان هوش مصنوعی، وکلاء و فعالان روز سه شنبه در نشستی در سازمان ملل با سازمان دهی پویشی موسوم به «روباتهای قاتل را متوقف کنید» در مورد اتکای غیرقابل پیش بینی به هواپیماهای بدون سرنشین ارزان و هوش مصنوعی فاقد شعور در دنیای واقعی هشدار دادند. توبی والش استاد هوش مصنوعی در دانشگاه نیو ساوت ولز گفت، این فناوریهای نگران کننده حداکثر چند سال با ما فاصله دارد و با استفاده از سیستم های نیمه خودکار از قبیل هواپیماهای بدون سرنشین چندی طول نخواهد کشید که رایانه جایگزین انسان خواهد شد. والش و دیگر اعضای این پویش (کمپین ) تصویر نگران کننده ای از کاربرد وسیع هوش مصنوعی مهار نشده در میادین جنگ و مرزهای ملی ارائه دادند. به گفته آنها، بر خلاف فناوریهای لازم برای تسلیحات هسته ای، منابع لازم برای ایجداد روباتهای قاتل با گذشته زمان هر چه ارزان تر و قابل وصول تر می شوند و هر کسی با یک پرنده بدون سرنشین، تلفن هوشمند و نرم افزار مناسب از طریق اینترنت می تواند یک روبات قاتل کوچک بسازد. با توجه به سهل الوصول تر شدن روباتها – و وضعیت پیشرفته کاربرد هوش مصنوعی در آمریکا و انگلیس – به گفته کارشناسان ممکن است نهایتا مشترکات روباتهای قاتل با سلاح های ای کی چهل و هفت بیش از بمب های هسته ای باشد. استیو گاس مدیر بخش تسلیحات دیده بان حقوق بشر به گاردین گفت: در آینده شاهد استفاده از این تجهیزات نه فقط در جنگ های مسلحانه بلکه برای تامین امنیت داخلی، گشت زنی مرزی و عملیات ضد شورش خواهیم بود. به گفته وی، سکوهای فیزیکی قبلا موجود است، این یک افسانه علمی نیست بلکه راهی کاملا جدید برای جنگ است که همه چیز متحول می سازد. پیتر آسارو استاد مدرسه عالی در نیویورک خاطرنشان کرد، ماشین ها بدون کنترل انسانی قابلیت کاربرد در شرایط جنگی و غیرقابل پیش بینی را ندارند و اگر درست تنظیم نشوند معلوم نیست چه کسی مسئول عملکرد اشتباه آنها خواهد بود. والش همچنین هشدار داد، این تجهیزات ما را به جنگ ترغیب خواهند کرد چون تصور می شود با استفاده از آنها به آسانی می توان جنگید اما درواقع ما قادر به تمایزات فنی بین نظامی و غیرنظامی نخواهیم بود. به گفته وی، هوش مصنوعی نیمه خودکار حتی تحت زمانی که ظاهرا توسط انسان کنترل می شود، به اشتباهات مخربی می انجامد. در جنگ اول خلیج فارس، موشکهای پاتریوت هواپیماهای آمریکایی و انگلیسی را هدف قرار دادند و اسناد تازه فاش شده درباره برنامه هواپیماهای بدون سرنشین آمریکا تعداد کثیری از ترورهایی را فاش کردکه مشخص نبود چه کسانی در آنها کشته شده بودند. وی به گاردین گفت: گرچه هوش مصنوعی در شرایط کنترل شده – یک کارخانه یا آزمایشگاه- می تواند کاملا خوب عمل کند، امروز هوش مصنوعیِ فاقد شعور در دنیای واقعی غیرقابل پیش بینی بهیچوجه قابل مقایسه با مغز انسان نیست، چه رسد در میدان جنگ. آمریکا، انگلیس، اسرائیل و کره جنوبی برنامه های پیشرفته ای در زمینه هوش مصنوعی داشته و از جمله کشورهایی اند که بیشترین هزینه نظامی را دارند. آمریکا و انگلیس سیاستهایی در خصوص هوش مصنوعی نظامی دارند اما فعالانی که خواهان گفتگوهایی در سازمان ملل درباره کنترل هدفمند انسان بر این تجهیزاتند، قوانین این دو کشور در زمینه هوش مصنوعی را بسیار مبهم می دانند. به گفته آنها، روسیه و چین نیز به آرامی برنامه های خود را در این زمینه توسعه می دهند.


یکشنبه ، ۱۵آذر۱۳۹۴


[مشاهده متن کامل خبر]





این صفحه را در گوگل محبوب کنید

[ارسال شده از: علت نیوز]
[مشاهده در: www.elat.ir]
[تعداد بازديد از اين مطلب: 22]

bt

اضافه شدن مطلب/حذف مطلب







-


گوناگون

پربازدیدترینها
طراحی وب>


صفحه اول | تمام مطالب | RSS | ارتباط با ما
1390© تمامی حقوق این سایت متعلق به سایت واضح می باشد.
این سایت در ستاد ساماندهی وزارت فرهنگ و ارشاد اسلامی ثبت شده است و پیرو قوانین جمهوری اسلامی ایران می باشد. لطفا در صورت برخورد با مطالب و صفحات خلاف قوانین در سایت آن را به ما اطلاع دهید
پایگاه خبری واضح کاری از شرکت طراحی سایت اینتن