تور لحظه آخری
امروز : سه شنبه ، 27 شهریور 1403    احادیث و روایات:  امام صادق (ع):مؤمن غبطه مى خورد و حسادت نمى ورزد، منافق حسادت مى ورزد و غبطه نمى خورد.
سرگرمی سبک زندگی سینما و تلویزیون فرهنگ و هنر پزشکی و سلامت اجتماع و خانواده تصویری دین و اندیشه ورزش اقتصادی سیاسی حوادث علم و فناوری سایتهای دانلود گوناگون شرکت ها

تبلیغات

تبلیغات متنی

تریدینگ ویو

کاشت ابرو

لمینت دندان

لیست قیمت گوشی شیائومی

صرافی ارکی چنج

صرافی rkchange

دزدگیر منزل

تشریفات روناک

اجاره سند در شیراز

قیمت فنس

armanekasbokar

armanetejarat

صندوق تضمین

طراحی کاتالوگ فوری

Future Innovate Tech

پی جو مشاغل برتر شیراز

لوله بازکنی تهران

آراد برندینگ

وکیل کرج

خرید تیشرت مردانه

وام لوازم خانگی

نتایج انتخابات ریاست جمهوری

خرید ابزار دقیق

خرید ریبون

موسسه خیریه

خرید سی پی کالاف

واردات از چین

دستگاه تصفیه آب صنعتی

حمية السكري النوع الثاني

ناب مووی

دانلود فیلم

بانک کتاب

دریافت دیه موتورسیکلت از بیمه

خرید نهال سیب سبز

قیمت پنجره دوجداره

بازسازی ساختمان

طراحی سایت تهران سایت

دیوار سبز

irspeedy

درج اگهی ویژه

ماشین سازان

تعمیرات مک بوک

دانلود فیلم هندی

قیمت فرش

درب فریم لس

شات آف ولو

تله بخار

شیر برقی گاز

شیر برقی گاز

خرید کتاب رمان انگلیسی

زانوبند زاپیامکس

بهترین کف کاذب چوبی

پاد یکبار مصرف

روغن بهران بردبار ۳۲۰

قیمت سرور اچ پی

 






آمار وبسایت

 تعداد کل بازدیدها : 1816157219




هواشناسی

نرخ طلا سکه و  ارز

قیمت خودرو

فال حافظ

تعبیر خواب

فال انبیاء

متن قرآن



اضافه به علاقمنديها ارسال اين مطلب به دوستان آرشيو تمام مطالب
 refresh

خطر انقراض انسان بوسیله ویروس ها و ربات های قاتل


واضح آرشیو وب فارسی:عصر پیشرفت: یک گزارش جدید نشان می دهد که افزایش سیستم های هوش مصنوعی و ویروس های قاتل باعث انقراض انسانها خواهد شد. همچنین بلایای طبیعی، سلاحهای هسته ای و تغییرات آب وهوایی نیز به عنوان تهدیدات طولانی مدت برای انسان در نظر گرفته شده اند. به گزارش سرویس علمی ایسنا، این گزارش با عنوان “خطرهای فاجعه بار جهانی” که توسط محققان دانشگاه آکسفورد، پروژه اولویت های جهانی و بنیاد چالش های جهانی تدوین شده، به دسته بندی رویدادهای فاجعه باری پرداخته که ممکن است تا ۱۰ درصد جمعیت را از بین ببرند. خطرهای فاجعه بار جهانی سباستیم فارکوهار، رئیس پروژه اولویت های جهانی اظهار کرد که رویدادهای زیادی ممکن است بلافاصله رخ ندهند بلکه به تدریج اتفاق افتاده و جهان را بطور فاجعه آمیزی تغییر دهند. وی افزود که رخدادهای تاریخی ویرانگر می توانند مجددا اتفاق بیفتند. فارکوهار گفت: بسیاری از این خطرها در حال تغییر و رشد هستند چرا که فناوری ها به تغییر، توسعه و تغییر شکل جهان ما پرداخته اند. البته کارهایی هست که می توان در مورد این خطرها انجام داد. بر اساس این گزارش، پنج سال دیگر انفجارهای ابرآتش فشان ها، برخورد شهاب سنگها و سایر فجایع ناشناخته می توانند بزرگترین تهدید برای حیات بشر باشند. با ارتقای فناوری ها، احتمال منقرض شدن انسان ها توسط هوش مصنوعی بیشتر شده است. برای مثال الون ماسک، رئیس شرکتهای اسپیس ایکس و تسلا موتورز اخیرا یک ابزار توسعه دهنده موسوم به OpenAI Gym ساخته که در اصل برای آموزش ربات ها و سایر سیستم های هوش مصنوعی طراحی شده است. گزارش آکسفورد این حقیقت را که در آینده ممکن است این سیستم ها بر انسان غلبه کنند، رد نکرده است. به گفته فارکوهار، زمانی که این سیستم های هوش مصنوعی اهدافی را برای خود تعیین کنند که با ارزش های انسانی متفاوت باشد، می توانند پیامدهای نامطلوبی در پی داشته باشند. زمانی که درک آنچه که انسان به عنوان ارزش در نظر می گیرد برای سیستم های قدرتمند هوش مصنوعی مشکل شود می توانند به ربات های قاتل تبدیل شوند. این گزارش همچنین به شمارش برخی تهدیدات طولانی مدت مانند تغییرات آب وهوایی، بیماری های همه گیر مهندسی شده و جنگ هسته ای پرداخته زیرا تاثیرات آن ها در حال حاضر شروع به تغییر شکل جهان کرده است. افزایش زیست شناسی مصنوعی نیز می تواند منجر به تولید ویروس های مرگبار شود. به گفته فارکوهار، گروههای شبه نظامی ممکن است از روشهای دستکاری ژنتیکی ویروس ها برای ریشه کن کردن میلیون ها انسان استفاده کنند. آیا جهان برای چنین رویدادهایی آماده است؟ گزارش محققان نشان داده که متاسفانه جامعه جهانی برای چنین رویدادهای فاجعه باری به خوبی آماده نشده است. محققان به رهبران بین المللی پیشنهاد کرده اند که با همکاری یکدیگر برنامه ریزی هماهنگ برای رسیدگی به بیماری های همه گیر را آغاز، متقابلا با حذف سلاحهای هسته ای موافقت و خطرهای احتمالای فناوری زیستی و سیستم های هوش مصنوعی را بررسی کنند. کد خبر : 1795


چهارشنبه ، ۱۵اردیبهشت۱۳۹۵


[مشاهده متن کامل خبر]





این صفحه را در گوگل محبوب کنید

[ارسال شده از: عصر پیشرفت]
[مشاهده در: www.asrpishraft.com]
[تعداد بازديد از اين مطلب: 28]

bt

اضافه شدن مطلب/حذف مطلب







-


گوناگون
پربازدیدترینها
طراحی وب>


صفحه اول | تمام مطالب | RSS | ارتباط با ما
1390© تمامی حقوق این سایت متعلق به سایت واضح می باشد.
این سایت در ستاد ساماندهی وزارت فرهنگ و ارشاد اسلامی ثبت شده است و پیرو قوانین جمهوری اسلامی ایران می باشد. لطفا در صورت برخورد با مطالب و صفحات خلاف قوانین در سایت آن را به ما اطلاع دهید
پایگاه خبری واضح کاری از شرکت طراحی سایت اینتن