تور لحظه آخری
امروز : شنبه ، 19 آبان 1403    احادیث و روایات:  امام علی (ع):شمار قطره هاى آبها و ستارگان آسمان و ذرات گردوغبار پراكنده در هوا وحركت مورچه برسنگ ب...
سرگرمی سبک زندگی سینما و تلویزیون فرهنگ و هنر پزشکی و سلامت اجتماع و خانواده تصویری دین و اندیشه ورزش اقتصادی سیاسی حوادث علم و فناوری سایتهای دانلود گوناگون شرکت ها

تبلیغات

تبلیغات متنی

صرافی ارکی چنج

صرافی rkchange

سایبان ماشین

دزدگیر منزل

تشریفات روناک

اجاره سند در شیراز

قیمت فنس

armanekasbokar

armanetejarat

صندوق تضمین

Future Innovate Tech

پی جو مشاغل برتر شیراز

لوله بازکنی تهران

آراد برندینگ

موسسه خیریه

واردات از چین

حمية السكري النوع الثاني

ناب مووی

دانلود فیلم

بانک کتاب

دریافت دیه موتورسیکلت از بیمه

قیمت پنجره دوجداره

بازسازی ساختمان

طراحی سایت تهران سایت

irspeedy

درج اگهی ویژه

تعمیرات مک بوک

دانلود فیلم هندی

قیمت فرش

درب فریم لس

زانوبند زاپیامکس

روغن بهران بردبار ۳۲۰

قیمت سرور اچ پی

خرید بلیط هواپیما

بلیط اتوبوس پایانه

قیمت سرور dl380 g10

تعمیرات پکیج کرج

لیست قیمت گوشی شیائومی

خرید فالوور

پوستر آنلاین

بهترین وکیل کرج

بهترین وکیل تهران

اوزمپیک چیست

خرید اکانت تریدینگ ویو

خرید از چین

خرید از چین

تجهیزات کافی شاپ

نگهداری از سالمند شبانه روزی در منزل

بی متال زیمنس

ساختمان پزشکان

ویزای چک

محصولات فوراور

خرید سرور اچ پی ماهان شبکه

دوربین سیمکارتی چرخشی

همکاری آی نو و گزینه دو

کاشت ابرو طبیعی و‌ سریع

الک آزمایشگاهی

الک آزمایشگاهی

 






آمار وبسایت

 تعداد کل بازدیدها : 1827578960




هواشناسی

نرخ طلا سکه و  ارز

قیمت خودرو

فال حافظ

تعبیر خواب

فال انبیاء

متن قرآن



اضافه به علاقمنديها ارسال اين مطلب به دوستان آرشيو تمام مطالب
 refresh

خطر انقراض انسان بر اثر ویروس‌های مرگبار و ربات‌های قاتل


واضح آرشیو وب فارسی:ایسنا: یکشنبه ۱۲ اردیبهشت ۱۳۹۵ - ۱۰:۳۴




1462077384819_10.jpg

یک گزارش جدید نشان می‌دهد که افزایش سیستم‌های هوش مصنوعی و ویروس‌های قاتل باعث انقراض انسانها خواهد شد. همچنین بلایای طبیعی، سلاحهای هسته‌ای و تغییرات آب‌وهوایی نیز به عنوان تهدیدات طولانی‌مدت برای انسان در نظر گرفته شده‌اند. به گزارش سرویس علمی ایسنا، این گزارش با عنوان "خطرهای فاجعه‌بار جهانی" که توسط محققان دانشگاه آکسفورد، پروژه اولویت‌های جهانی و بنیاد چالش‌های جهانی تدوین شده، به دسته‌بندی رویدادهای فاجعه‌باری پرداخته که ممکن است تا 10 درصد جمعیت را از بین ببرند. خطرهای فاجعه‌بار جهانی سباستیم فارکوهار، رئیس پروژه اولویت‌های جهانی اظهار کرد که رویدادهای زیادی ممکن است بلافاصله رخ ندهند بلکه به تدریج اتفاق افتاده و جهان را بطور فاجعه‌آمیزی تغییر دهند. وی افزود که رخدادهای تاریخی ویرانگر می‌توانند مجددا اتفاق بیفتند. فارکوهار گفت: بسیاری از این خطرها در حال تغییر و رشد هستند چرا که فناوری‌ها به تغییر، توسعه و تغییر شکل جهان ما پرداخته‌اند. البته کارهایی هست که می‌توان در مورد این خطرها انجام داد. بر اساس این گزارش، پنج سال دیگر انفجارهای ابرآتش‌فشان‌ها، برخورد شهاب‌سنگها و سایر فجایع ناشناخته می‌توانند بزرگترین تهدید برای حیات بشر باشند. با ارتقای فناوری‌ها، احتمال منقرض شدن انسان‌ها توسط هوش مصنوعی بیشتر شده است. برای مثال الون ماسک، رئیس شرکتهای اسپیس‌ایکس و تسلا موتورز اخیرا یک ابزار توسعه‌دهنده موسوم به OpenAI Gym ساخته که در اصل برای آموزش ربات‌ها و سایر سیستم‌های هوش مصنوعی طراحی شده است. گزارش آکسفورد این حقیقت را که در آینده ممکن است این سیستم‌ها بر انسان غلبه کنند، رد نکرده است. به گفته فارکوهار، زمانی که این سیستم‌های هوش مصنوعی اهدافی را برای خود تعیین کنند که با ارزش‌های انسانی متفاوت باشد، می‌توانند پیامدهای نامطلوبی در پی داشته باشند. زمانی که درک آنچه که انسان به عنوان ارزش در نظر می‌گیرد برای سیستم‌های قدرتمند هوش مصنوعی مشکل شود می‌توانند به ربات‌های قاتل تبدیل شوند. این گزارش همچنین به شمارش برخی تهدیدات طولانی‌مدت مانند تغییرات آب‌وهوایی، بیماری‌های همه‌گیر مهندسی شده و جنگ هسته‌ای پرداخته زیرا تاثیرات آن‌ها در حال حاضر شروع به تغییر شکل جهان کرده است. افزایش زیست‌شناسی مصنوعی نیز می‌تواند منجر به تولید ویروس‌های مرگبار شود. به گفته فارکوهار، گروههای شبه‌نظامی ممکن است از روشهای دستکاری ژنتیکی ویروس‌ها برای ریشه‌کن کردن میلیون‌ها انسان استفاده کنند. آیا جهان برای چنین رویدادهایی آماده است؟ گزارش محققان نشان داده که متاسفانه جامعه جهانی برای چنین رویدادهای فاجعه‌باری به خوبی آماده نشده است. محققان به رهبران بین‌المللی پیشنهاد کرده‌اند که با همکاری یکدیگر برنامه‌ریزی هماهنگ برای رسیدگی به بیماری‌های همه‌گیر را آغاز، متقابلا با حذف سلاحهای هسته‌ای موافقت و خطرهای احتمالای فناوری زیستی و سیستم‌های هوش مصنوعی را بررسی کنند. انتهای پیام
کد خبرنگار:







این صفحه را در گوگل محبوب کنید

[ارسال شده از: ایسنا]
[مشاهده در: www.isna.ir]
[تعداد بازديد از اين مطلب: 36]

bt

اضافه شدن مطلب/حذف مطلب







-


گوناگون

پربازدیدترینها
طراحی وب>


صفحه اول | تمام مطالب | RSS | ارتباط با ما
1390© تمامی حقوق این سایت متعلق به سایت واضح می باشد.
این سایت در ستاد ساماندهی وزارت فرهنگ و ارشاد اسلامی ثبت شده است و پیرو قوانین جمهوری اسلامی ایران می باشد. لطفا در صورت برخورد با مطالب و صفحات خلاف قوانین در سایت آن را به ما اطلاع دهید
پایگاه خبری واضح کاری از شرکت طراحی سایت اینتن