واضح آرشیو وب فارسی:گذار: وب سایت سایبربان: گروهی از دانشمندان فعال حوزه ی هوش مصنوعی به تازگی ۲۳ قانون جدید برای جلوگیری از تهاجم آن ها تصویب کرده اند. فناوری های هوش مصنوعی و روباتیک روزبه روز در حال پیشرفت و گسترش یافتن هستند و زندگی انسان ها به مرور زمان در حال وابسته شدن به آن ها است. در سال ۲۰۱۴، افرادی مانند ایلان […]وب سایت سایبربان: گروهی از دانشمندان فعال حوزه ی هوش مصنوعی به تازگی ۲۳ قانون جدید برای جلوگیری از تهاجم آن ها تصویب کرده اند. فناوری های هوش مصنوعی و روباتیک روزبه روز در حال پیشرفت و گسترش یافتن هستند و زندگی انسان ها به مرور زمان در حال وابسته شدن به آن ها است. در سال ۲۰۱۴، افرادی مانند ایلان ماسک، استیون هاوکینگ و صدها فعال دیگر در زمینه ی دو فناوری مذکور نسبت به توسعه ی بدون نظارت و بی محابای هوش مصنوعی هشدار داده و آن را خطری برای نژاد انسان توصیف کردند. عده ای از این افراد حتی پا را فراتر گذاشته، با تأسیس موسسه های مختلف سعی در ایجاد راه حل های مقابله با این فناوری دارند و به صورت پیوسته در طراحی آن به توسعه دهندگان را مطابق با خواسته های خود راهنمایی می کردند. ایلان ماسک، مدیرعامل شرکت تسلا و اپن ای.آی (Open AI) معتقد است ماشین ها به سرعت در حال گسترش یافتن هستند و هوش آن ها روزی برابر با توان انسان ها عمل خواهد کرد. وی همچنین گفته بود هوش مصنوعی به مراتب می تواند خطرناک تر از سلاح هسته ای باشد. در سال ۲۰۱۴ نیز استیون هاوکینگ اعلام کرد که هوش مصنوعی توانایی منقرض کردن نژاد بشر را دارد. در زمان برگزاری «اجلاس فواید هوش مصنوعی ۲۰۱۷» (Beneficial AI 2017) که از تاریخ ۵ تا ۸ ماه ژانویه سال ۲۰۱۷ برگزار شد، بیش از ۱۰۰ محقق هوش مصنوعی از شرکت ها، دانشگاه ها، رهبران اقتصاد و بسیاری زمینه های دیگر حضور داشتند تا قوانین و اصول جدیدی را برای استفاده ی بهتر از این فناوری ایجاد کنند. در نتیجه ی اجلاس ذکر شده یک توصیه نامه متشکل از ۲۳ بند به نام «Asilomar AI principles» است که در ادامه می توان آن ها را مطالعه کرد: مسائل پژوهشی: ۱) هدف تحقیقات: هدف تحقیقات باید تولید یک هوش مصنوعی مفید باشد نه یک هوش بدون جهت و هدایت نشده. ۲) بودجه ی تحقیقات: سرمایه گذاری روی هوش مصنوعی باید همراه با حصول اطمینان از مفید بودن فناوری تولید شده باشد. این اصول شامل مطرح کردن سؤالاتی در علوم رایانه، قوانین، اقتصاد، اصول اخلافی و مطالعات اجتماعی می شود. به عنوان مثالی از این سؤال ها می توان به موارد زیر اشاره کرد: چگونه می توان سامانه های قدرتمند هوش مصنوعی تولید کرد و مطمئن شد که بدون خراب یا هک شدن، دقیقاً مطابق میل انسان ها عمل می کنند؟ چگونه می توان به صورتی که منافع مردم حفظ شود، به رشد و گسترش رفاه آن ها از طریق خودکارسازی پرداخته و ادامه داد؟ چگونه می توان سیستم قضایی را برای همگام شدن با هوش مصنوعی و خطرات آن بروزرسانی کرد به گونه ای که عملکردی کارآمدتر و عادلانه تر از خود نشان بدهد؟ چه ارزش های در زمینه ی حقوقی و اخلاقی برای هوش مصنوعی باید در نظر گرفته شود؟ ۳) پیوند علم و سیاست: باید بین محققان هوش مصنوعی و سیاست گذاران یک رابطه ی سالم و مفید ایجاد شود. ۴) فرهنگ تحقیقات: باید بین محققان و توسعه دهندگان هوش مصنوعی، یک فرهنگ همکاری، اعتماد و شفافیت ایجاد شود. ۵) اجتناب از عجله: گروه های توسعه دهنده سامانه های هوش مصنوعی باید در مسائل مرتبط با استانداردهای ایمنی، از سهل انگاری و در پیش گرفتن رویکرد کاهش هزینه خودداری کنند ارزش و اخلاق: ۶) ایمنی: سامانه های هوش مصنوعی در طول چرخه ی حیات خود به صورتی که قابل اجرا و عملی باشند، باید امن و ایمن باقی بمانند. ۷) شکست شفافیت: اگر یک سامانه ی هوش مصنوعی باعث ایجاد آسیب شود، باید بتوان دلیل آن را شناسایی کرد. ۸) شفافیت قضایی: در سامانه های قضایی خودکار، سامانه باید بتواند توضیح قانع کننده ای از تصمیم خود ارائه بدهد که توسط یک مرجع صالح قابل تأیید باشد. ۹) مسئولیت: طراحان و سازندگان سامانه های هوش مصنوعی پیشرفته در مفاهیم اخلاقی مرتبط با استفاده، سوءاستفاده و اقدامات این سامانه ها سهیم هستند و علاوه بر امکان شکل دهی این مفاهیم، مسئولیت آن را نیز بر عهده دارند. ۱۰) تنظیم ارزش ها: سامانه های خودمختار سطح بالا باید به گونه ای طراحی شوند که بتوانند از هم راستا بودن ارزش ها، اهداف و عملکردهای خود با انسان ها اطمینان حاصل کنند. ۱۱) ارزش های انسانی: سامانه های هوش مصنوعی باید به گونه طراحی شده و عمل کنند که با آرمان ها، آزادی، تنوع فرهنگی و مسائل حقوقی انسان ها سازگار باشند. ۱۲) حریم خصوصی: مردم باید توان دسترسی، مدیریت و کنترل داده هایی که توسط آن ها تولید شده و به هوش مصنوعی داده می شود تا قدرت تجزیه وتحلیل داده با استفاده از آن بهبود یابد را داشته باشند. ۱۳) آزادی و حریم خصوصی: به کارگیری برنامه های هوش مصنوعی در داده های شخصی نباید آزادی حقیقی یا ذهنی افراد را محدود سازد. ۱۴) مزایای اشتراک گذاری: فناوری هوش مصنوعی باید تا جایی که ممکن است مردم را توانمندتر کرده و به نفع آن ها کار کند. ۱۵) اشتراک گذاری موفقیت: رونق اقتصادی ایجاد شده توسط هوش مصنعی باید با تمام انسان ها به اشتراک گذاشته شود. ۱۶) کنترل انسان: انسان ها باید برای تحقق اهداف انسانی نحوه تصمیم گیری های هوش مصنوعی را انتخاب کنند. ۱۷) عدم خرابکاری: قدرت بالای هوش مصنوعی باید به جای تخریب فرآیندهای اجتماعی و مدنی به تقویت و بهبود سلامت اجتماعی بپردازد. ۱۸) مسابقه تسلیحاتی هوش مصنوعی: باید از ایجاد مسابقه ی تسلیحاتی برای توسعه سلاح های خودمختار خودداری شود. مسائل بلندمدت: ۱۹) هوشیاری توانایی ها: با توجه به این هیچ اجماع نظری وجود ندارد؛ باید از بیان فرضیات قاطع درباره حدود فوقانی قابلیت های آینده هوش مصنوعی اجتناب شود. ۲۰) اهمیت: هوش مصنوعی می تواند نشان دهنده ی تغییر عمیق در تاریخ حیات روی زمین باشد؛ بنابراین باید متناسب با منافع و مراقبت ها برای آن برنامه ریزی شده و مدیریت گردد. ۲۱) خطرات: تهدیدهای مربوط به هوش مصنوعی، به خصوص خطرات فاجعه بار آن ها، باید به تلاش برای کاهش تلاش متناسب با تأثیرات مورد انتظار منجر شود. ۲۲) خود بهبودی بازگشتی: آن دسته از سامانه های هوش مصنوعی که به گونه ای طراحی شده اند که بهبود یا تکرار خودکار آن ها به صورت بازگشتی، به افزایش سریع کیفیت یا کمیت منتهی شود، باید تابع تدابیر کنترل و ایمنی جدی باشند. ۲۳) تأثیرات مفید عمومی: هوش مصنوعی تنها باید برای خدمت به آرمان های اخلاقی مشترک تمام بشریت توسعه یابد، نه یک دولت یا سازمان خاص. منبع:برترینها
پنجشنبه ، ۲۸اردیبهشت۱۳۹۶
[مشاهده متن کامل خبر]
این صفحه را در گوگل محبوب کنید
[ارسال شده از: گذار]
[تعداد بازديد از اين مطلب: 57]