تور لحظه آخری
امروز : پنجشنبه ، 6 دی 1403    احادیث و روایات:  پیامبر اکرم (ص):هیچ تهیدستی سخت تر از نادانی و هیچ مالی سودمندتر از عقل نیست.
سرگرمی سبک زندگی سینما و تلویزیون فرهنگ و هنر پزشکی و سلامت اجتماع و خانواده تصویری دین و اندیشه ورزش اقتصادی سیاسی حوادث علم و فناوری سایتهای دانلود گوناگون شرکت ها

تبلیغات

تبلیغات متنی

صرافی ارکی چنج

صرافی rkchange

سایبان ماشین

دزدگیر منزل

اجاره سند در شیراز

قیمت فنس

armanekasbokar

armanetejarat

صندوق تضمین

Future Innovate Tech

پی جو مشاغل برتر شیراز

خرید یخچال خارجی

موسسه خیریه

واردات از چین

حمية السكري النوع الثاني

ناب مووی

دانلود فیلم

بانک کتاب

دریافت دیه موتورسیکلت از بیمه

طراحی سایت تهران سایت

irspeedy

درج اگهی ویژه

تعمیرات مک بوک

دانلود فیلم هندی

قیمت فرش

درب فریم لس

خرید بلیط هواپیما

بلیط اتوبوس پایانه

تعمیرات پکیج کرج

لیست قیمت گوشی شیائومی

خرید فالوور

پوستر آنلاین

بهترین وکیل کرج

بهترین وکیل تهران

خرید از چین

خرید از چین

تجهیزات کافی شاپ

کاشت ابرو طبیعی و‌ سریع

قیمت بالابر هیدرولیکی

قیمت بالابر هیدرولیکی

قیمت بالابر هیدرولیکی

لوله و اتصالات آذین

قرص گلوریا

نمایندگی دوو در کرج

رفع تاری و تشخیص پلاک

پرگابالین

دوره آموزش باریستا

مهاجرت به آلمان

بهترین قالیشویی تهران

بورس کارتریج پرینتر در تهران

تشریفات روناک

نوار اخطار زرد رنگ

ثبت شرکت فوری

تابلو برق

خودارزیابی چیست

فروشگاه مخازن پلی اتیلن

قیمت و خرید تخت برقی پزشکی

کلینیک زخم تهران

خرید بیت کوین

خرید شب یلدا

پرچم تشریفات با کیفیت بالا و قیمت ارزان

کاشت ابرو طبیعی

پرواز از نگاه دکتر ماکان آریا پارسا

پارتیشن شیشه ای

اقامت یونان

خرید غذای گربه

رزرو هتل خارجی

تولید کننده تخت زیبایی

مشاوره تخصصی تولید محتوا

سی پی کالاف

دوره باریستا فنی حرفه ای

 






آمار وبسایت

 تعداد کل بازدیدها : 1844909926




هواشناسی

نرخ طلا سکه و  ارز

قیمت خودرو

فال حافظ

تعبیر خواب

فال انبیاء

متن قرآن



اضافه به علاقمنديها ارسال اين مطلب به دوستان آرشيو تمام مطالب
 refresh

قوانین ۲۳ گانه هوش مصنوعی - پایگاه خبری تحلیلی گذار


واضح آرشیو وب فارسی:گذار: وب سایت سایبربان: گروهی از دانشمندان فعال حوزه ی هوش مصنوعی به تازگی ۲۳ قانون جدید برای جلوگیری از تهاجم آن ها تصویب کرده اند. فناوری های هوش مصنوعی و روباتیک روزبه روز در حال پیشرفت و گسترش یافتن هستند و زندگی انسان ها به مرور زمان در حال وابسته شدن به آن ها است. در سال ۲۰۱۴، افرادی مانند ایلان […]وب سایت سایبربان: گروهی از دانشمندان فعال حوزه ی هوش مصنوعی به تازگی ۲۳ قانون جدید برای جلوگیری از تهاجم آن ها تصویب کرده اند. فناوری های هوش مصنوعی و روباتیک روزبه روز در حال پیشرفت و گسترش یافتن هستند و زندگی انسان ها به مرور زمان در حال وابسته شدن به آن ها است. در سال ۲۰۱۴، افرادی مانند ایلان ماسک، استیون هاوکینگ و صدها فعال دیگر در زمینه ی دو فناوری مذکور نسبت به توسعه ی بدون نظارت و بی محابای هوش مصنوعی هشدار داده و آن را خطری برای نژاد انسان توصیف کردند. عده ای از این افراد حتی پا را فراتر گذاشته، با تأسیس موسسه های مختلف سعی در ایجاد راه حل های مقابله با این فناوری دارند و به صورت پیوسته در طراحی آن به توسعه دهندگان را مطابق با خواسته های خود راهنمایی می کردند. ایلان ماسک، مدیرعامل شرکت تسلا و اپن ای.آی (Open AI) معتقد است ماشین ها به سرعت در حال گسترش یافتن هستند و هوش آن ها روزی برابر با توان انسان ها عمل خواهد کرد. وی همچنین گفته بود هوش مصنوعی به مراتب می تواند خطرناک تر از سلاح هسته ای باشد. در سال ۲۰۱۴ نیز استیون هاوکینگ اعلام کرد که هوش مصنوعی توانایی منقرض کردن نژاد بشر را دارد. در زمان برگزاری «اجلاس فواید هوش مصنوعی ۲۰۱۷» (Beneficial AI 2017) که از تاریخ ۵ تا ۸ ماه ژانویه سال ۲۰۱۷ برگزار شد، بیش از ۱۰۰ محقق هوش مصنوعی از شرکت ها، دانشگاه ها، رهبران اقتصاد و بسیاری زمینه های دیگر حضور داشتند تا قوانین و اصول جدیدی را برای استفاده ی بهتر از این فناوری ایجاد کنند. در نتیجه ی اجلاس ذکر شده یک توصیه نامه متشکل از ۲۳ بند به نام «Asilomar AI principles» است که در ادامه می توان آن ها را مطالعه کرد: مسائل پژوهشی: ۱) هدف تحقیقات: هدف تحقیقات باید تولید یک هوش مصنوعی مفید باشد نه یک هوش بدون جهت و هدایت نشده. ۲) بودجه ی تحقیقات: سرمایه گذاری روی هوش مصنوعی باید همراه با حصول اطمینان از مفید بودن فناوری تولید شده باشد. این اصول شامل مطرح کردن سؤالاتی در علوم رایانه، قوانین، اقتصاد، اصول اخلافی و مطالعات اجتماعی می شود. به عنوان مثالی از این سؤال ها می توان به موارد زیر اشاره کرد: چگونه می توان سامانه های قدرتمند هوش مصنوعی تولید کرد و مطمئن شد که بدون خراب یا هک شدن، دقیقاً مطابق میل انسان ها عمل می کنند؟ چگونه می توان به صورتی که منافع مردم حفظ شود، به رشد و گسترش رفاه آن ها از طریق خودکارسازی پرداخته و ادامه داد؟ چگونه می توان سیستم قضایی را برای همگام شدن با هوش مصنوعی و خطرات آن بروزرسانی کرد به گونه ای که عملکردی کارآمدتر و عادلانه تر از خود نشان بدهد؟ چه ارزش های در زمینه ی حقوقی و اخلاقی برای هوش مصنوعی باید در نظر گرفته شود؟ ۳) پیوند علم و سیاست: باید بین محققان هوش مصنوعی و سیاست گذاران یک رابطه ی سالم و مفید ایجاد شود. ۴) فرهنگ تحقیقات: باید بین محققان و توسعه دهندگان هوش مصنوعی، یک فرهنگ همکاری، اعتماد و شفافیت ایجاد شود. ۵) اجتناب از عجله: گروه های توسعه دهنده سامانه های هوش مصنوعی باید در مسائل مرتبط با استانداردهای ایمنی، از سهل انگاری و در پیش گرفتن رویکرد کاهش هزینه خودداری کنند ارزش و اخلاق: ۶) ایمنی: سامانه های هوش مصنوعی در طول چرخه ی حیات خود به صورتی که قابل اجرا و عملی باشند، باید امن و ایمن باقی بمانند. ۷) شکست شفافیت: اگر یک سامانه ی هوش مصنوعی باعث ایجاد آسیب شود، باید بتوان دلیل آن را شناسایی کرد. ۸) شفافیت قضایی: در سامانه های قضایی خودکار، سامانه باید بتواند توضیح قانع کننده ای از تصمیم خود ارائه بدهد که توسط یک مرجع صالح قابل تأیید باشد. ۹) مسئولیت: طراحان و سازندگان سامانه های هوش مصنوعی پیشرفته در مفاهیم اخلاقی مرتبط با استفاده، سوءاستفاده و اقدامات این سامانه ها سهیم هستند و علاوه بر امکان شکل دهی این مفاهیم، مسئولیت آن را نیز بر عهده دارند. ۱۰) تنظیم ارزش ها: سامانه های خودمختار سطح بالا باید به گونه ای طراحی شوند که بتوانند از هم راستا بودن ارزش ها، اهداف و عملکردهای خود با انسان ها اطمینان حاصل کنند. ۱۱) ارزش های انسانی: سامانه های هوش مصنوعی باید به گونه طراحی شده و عمل کنند که با آرمان ها، آزادی، تنوع فرهنگی و مسائل حقوقی انسان ها سازگار باشند. ۱۲) حریم خصوصی: مردم باید توان دسترسی، مدیریت و کنترل داده هایی که توسط آن ها تولید شده و به هوش مصنوعی داده می شود تا قدرت تجزیه وتحلیل داده با استفاده از آن بهبود یابد را داشته باشند. ۱۳) آزادی و حریم خصوصی: به کارگیری برنامه های هوش مصنوعی در داده های شخصی نباید آزادی حقیقی یا ذهنی افراد را محدود سازد. ۱۴) مزایای اشتراک گذاری: فناوری هوش مصنوعی باید تا جایی که ممکن است مردم را توانمندتر کرده و به نفع آن ها کار کند. ۱۵) اشتراک گذاری موفقیت: رونق اقتصادی ایجاد شده توسط هوش مصنعی باید با تمام انسان ها به اشتراک گذاشته شود. ۱۶) کنترل انسان: انسان ها باید برای تحقق اهداف انسانی نحوه تصمیم گیری های هوش مصنوعی را انتخاب کنند. ۱۷) عدم خرابکاری: قدرت بالای هوش مصنوعی باید به جای تخریب فرآیندهای اجتماعی و مدنی به تقویت و بهبود سلامت اجتماعی بپردازد. ۱۸) مسابقه تسلیحاتی هوش مصنوعی: باید از ایجاد مسابقه ی تسلیحاتی برای توسعه سلاح های خودمختار خودداری شود. مسائل بلندمدت: ۱۹) هوشیاری توانایی ها: با توجه به این هیچ اجماع نظری وجود ندارد؛ باید از بیان فرضیات قاطع درباره حدود فوقانی قابلیت های آینده هوش مصنوعی اجتناب شود. ۲۰) اهمیت: هوش مصنوعی می تواند نشان دهنده ی تغییر عمیق در تاریخ حیات روی زمین باشد؛ بنابراین باید متناسب با منافع و مراقبت ها برای آن برنامه ریزی شده و مدیریت گردد. ۲۱) خطرات: تهدیدهای مربوط به هوش مصنوعی، به خصوص خطرات فاجعه بار آن ها، باید به تلاش برای کاهش تلاش متناسب با تأثیرات مورد انتظار منجر شود. ۲۲) خود بهبودی بازگشتی: آن دسته از سامانه های هوش مصنوعی که به گونه ای طراحی شده اند که بهبود یا تکرار خودکار آن ها به صورت بازگشتی، به افزایش سریع کیفیت یا کمیت منتهی شود، باید تابع تدابیر کنترل و ایمنی جدی باشند. ۲۳) تأثیرات مفید عمومی: هوش مصنوعی تنها باید برای خدمت به آرمان های اخلاقی مشترک تمام بشریت توسعه یابد، نه یک دولت یا سازمان خاص. منبع:برترینها


پنجشنبه ، ۲۸اردیبهشت۱۳۹۶


[مشاهده متن کامل خبر]





این صفحه را در گوگل محبوب کنید

[ارسال شده از: گذار]
[مشاهده در: www.gozarnews.ir]
[تعداد بازديد از اين مطلب: 57]

bt

اضافه شدن مطلب/حذف مطلب







-


گوناگون

پربازدیدترینها
طراحی وب>


صفحه اول | تمام مطالب | RSS | ارتباط با ما
1390© تمامی حقوق این سایت متعلق به سایت واضح می باشد.
این سایت در ستاد ساماندهی وزارت فرهنگ و ارشاد اسلامی ثبت شده است و پیرو قوانین جمهوری اسلامی ایران می باشد. لطفا در صورت برخورد با مطالب و صفحات خلاف قوانین در سایت آن را به ما اطلاع دهید
پایگاه خبری واضح کاری از شرکت طراحی سایت اینتن