تور لحظه آخری
امروز : سه شنبه ، 20 شهریور 1403    احادیث و روایات:  امام علی (ع):خداشناس ترين مردم پر درخواست ترين آنها از خداست.
سرگرمی سبک زندگی سینما و تلویزیون فرهنگ و هنر پزشکی و سلامت اجتماع و خانواده تصویری دین و اندیشه ورزش اقتصادی سیاسی حوادث علم و فناوری سایتهای دانلود گوناگون شرکت ها




آمار وبسایت

 تعداد کل بازدیدها : 1814719826




هواشناسی

نرخ طلا سکه و  ارز

قیمت خودرو

فال حافظ

تعبیر خواب

فال انبیاء

متن قرآن



اضافه به علاقمنديها ارسال اين مطلب به دوستان آرشيو تمام مطالب
 refresh

هشدار «هاوکینگ» درباره تهدید هوش مصنوعی


واضح آرشیو وب فارسی:تابناک: هشدار «هاوکینگ» درباره تهدید هوش مصنوعی
برنده جایزه نوبل فیزیک با اشاره به مضمون فیلم تعالی (Transcendence) که در آن رایانه‌ها توانایی فراتر از انسان پیدا می‌کنند، نسبت به آینده نامطمئن بشر با توسعه فناوری هوش مصنوعی هشدار داد
کد خبر: ۳۹۷۸۶۲
تاریخ انتشار: ۱۴ ارديبهشت ۱۳۹۳ - ۰۷:۰۶ - 04 May 2014




استفان هاوکینگ، فیزیکدان برجسته و برنده جایزه نوبل، حضور روزافزون روبات‌های هوشمند در زندگی انسان را تهدید جدی برای بشریت عنوان کرد.

به گزارش مهر، برنده جایزه نوبل فیزیک با اشاره به مضمون فیلم تعالی (Transcendence) که در آن رایانه‌ها توانایی فراتر از انسان پیدا می‌کنند، نسبت به آینده نامطمئن بشر با توسعه فناوری هوش مصنوعی هشدار داد.

فناوری هوش مصنوعی (AI) با توانایی فکر کردن و سازگاری با محیط اطراف در کنار تمامی مزایای کاربردی برای زندگی انسان، تهدید جدی برای آینده بشریت محسوب می‌شود که از پتانسیل وقوع جنگ، بیماری و فقر برخوردار است.

به گفته هاوکینگ، دستاورد تاریخی در توسعه این فناوری می‌تواند آخرین موفقیت انسان محسوب شود، اگر بشر نحوه برخورد و اجتناب از خطرات هوش مصنوعی را یاد نگیرد.

کشورها در حال توسعه سیستم‌های تسلیحاتی خودکار هستند و همزمان سازمان ملل به‌دنبال ممنوعیت استفاده از این تجهیزات است؛ IBM در حال توسعه تراشه‌های هوشمند است که مسیر را برای ساخت شبکه‌های حسگر با قابلیت تقلید ادراک، رفتار و افکار مغز انسان هموار می‌کند.
در این صورت امکان ساخت ماشین‌های هوشمند با مغز که از هوشی فراتر از انسان برخوردار هستند، فراهم می‌شود.

هاوکینگ خاطرنشان کرد: اگر با خطر حمله موجودات بیگانه طی چند دهه آینده مواجه باشیم تا زمان حمله آنها صبر نکرده و اقدامات دفاعی اضطراری انجام خواهیم داد بنابراین باید تا پیش از توسعه ماشین‌هایی با هوش ابرانسانی که تهدید جدی برای آینده بشریت محسوب می‌شوند، اقدامات پیشگیرانه‌ای انجام دهیم که از وقوع فاجعه جلوگیری کند.











این صفحه را در گوگل محبوب کنید

[ارسال شده از: تابناک]
[مشاهده در: www.tabnak.ir]
[تعداد بازديد از اين مطلب: 40]

bt

اضافه شدن مطلب/حذف مطلب







-


گوناگون

پربازدیدترینها
طراحی وب>


صفحه اول | تمام مطالب | RSS | ارتباط با ما
1390© تمامی حقوق این سایت متعلق به سایت واضح می باشد.
این سایت در ستاد ساماندهی وزارت فرهنگ و ارشاد اسلامی ثبت شده است و پیرو قوانین جمهوری اسلامی ایران می باشد. لطفا در صورت برخورد با مطالب و صفحات خلاف قوانین در سایت آن را به ما اطلاع دهید
پایگاه خبری واضح کاری از شرکت طراحی سایت اینتن