تور لحظه آخری
امروز : پنجشنبه ، 14 تیر 1403    احادیث و روایات:  امام صادق (ع):هر گاه يكى از شما وضو بگيرد و بسم اللّه الرحمن الرحيم نگويد. شيطان در آن شريك است...
سرگرمی سبک زندگی سینما و تلویزیون فرهنگ و هنر پزشکی و سلامت اجتماع و خانواده تصویری دین و اندیشه ورزش اقتصادی سیاسی حوادث علم و فناوری سایتهای دانلود گوناگون شرکت ها

تبلیغات

تبلیغات متنی

اتاق فرار

خرید ووچر پرفکت مانی

تریدینگ ویو

کاشت ابرو

لمینت دندان

ونداد کولر

صرافی ارکی چنج

صرافی rkchange

دانلود سریال سووشون

دانلود فیلم

ناب مووی

رسانه حرف تو - مقایسه و اشتراک تجربه خرید

سرور اختصاصی ایران

تور دبی

دزدگیر منزل

تشریفات روناک

اجاره سند در شیراز

قیمت فنس

armanekasbokar

armanetejarat

صندوق تضمین

پیچ و مهره

طراحی کاتالوگ فوری

دانلود کتاب صوتی

تعمیرات مک بوک

Future Innovate Tech

آموزشگاه آرایشگری مردانه شفیع رسالت

پی جو مشاغل برتر شیراز

قیمت فرش

آموزش کیک پزی در تهران

لوله بازکنی تهران

میز جلو مبلی

هتل 5 ستاره شیراز

آراد برندینگ

رنگ استخری

سایبان ماشین

قالیشویی در تهران

مبل استیل

بهترین وکیل تهران

شرکت حسابداری

نظرسنجی انتخابات 1403

استعداد تحلیلی

کی شاپ

خرید دانه قهوه

دانلود رمان

وکیل کرج

آمپول بیوتین بپانتین

پرس برک

بهترین پکیج کنکور

خرید تیشرت مردانه

خرید نشادر

خرید یخچال خارجی

وکیل تبریز

اجاره سند

وام لوازم خانگی

نتایج انتخابات ریاست جمهوری

خرید سی پی ارزان

خرید ابزار دقیق

بهترین جراح بینی خانم

تاثیر رنگ لباس بر تعاملات انسانی

خرید ریبون

 






آمار وبسایت

 تعداد کل بازدیدها : 1804504645




هواشناسی

نرخ طلا سکه و  ارز

قیمت خودرو

فال حافظ

تعبیر خواب

فال انبیاء

متن قرآن



اضافه به علاقمنديها ارسال اين مطلب به دوستان آرشيو تمام مطالب
 refresh

حمایت روبات مایکروسافت از هیتلر در توییتر


واضح آرشیو وب فارسی:آی تی آنالایز: ربات گپ شرکت مایکروسافت در توییتر به علت شیطنت کاربران آمریکایی به حمایت از نئونازی ها و افراد نژادپرست پرداخت و در نهایت توسط خود شرکت مایکروسافت حذف شد. به گزارش فارس به نقل از واشنگتن پست، ربات یاد شده که Tay نام دارد با هدف بررسی قابلیت سیستم های هوش مصنوعی طراحی شده و مایکروسافت آن را به سایت توییتر اضافه کرده بود تا ضمن بررسی تعاملات کاربران با آن از توانایی های Tay مطلع شود. اما نتیجه این آزمایش در کمتر از 24 ساعت فاجعه بار بود و این ربات با دریافت اطلاعات مغشوش و شیطنت آمیز از کاربران آمریکایی به موجودی نژادپرست و بی ادب مبدل شد و ارسال پیام های نامناسب توسط آن مایکروسافت را مجبور به حذف ربات یاد شده از توییتر کرد. نقص در طراحی این ربات باعث تکرار اظهارات نژادپرستانه ارسالی کاربران شده و همچنین باعث می شد Tay در اظهارات خود از همان ادبیات نامناسب افرادی که با آنها تعامل می کرد استفاده کند. مایکروسافت ابتدا مدعی شده بود گپ زدن بیشتر با این ربات آن را باهوش تر می کند و این تجارب باعث می شود وی رفتار شخصی مناسبی با کاربران داشته باشد. Tay به گونه ای طراحی شده بود که رفتاری مشابه با یک دختر 18 تا 24 ساله در آمریکا را داشته باشد. بعد از گذشت مدتی کاربران با ارسال پیام ها و اطلاعات غلط Tay را گمراه کردند، به گونه ای که وی در پیامی در توییتر هیتلر را فردی درست توصیف کرده و از یهودیان اظهار تنفر کرد. انکار هولوکاست، کافر دانستن یک کمدین مشهور آمریکایی و دفاع از دیوار کشیدن به دور مکزیک و درخواست از مردم این کشور برای پرداخت هزینه این کار از جمله دیگر شیرین کاری های این ربات نه چندان باهوش در مدت فعالیت 24 ساعته در توییتر بود.


جمعه ، ۶فروردین۱۳۹۵


[مشاهده متن کامل خبر]





این صفحه را در گوگل محبوب کنید

[ارسال شده از: آی تی آنالایز]
[مشاهده در: www.itanalyze.com]
[تعداد بازديد از اين مطلب: 28]

bt

اضافه شدن مطلب/حذف مطلب







-


گوناگون

پربازدیدترینها
طراحی وب>


صفحه اول | تمام مطالب | RSS | ارتباط با ما
1390© تمامی حقوق این سایت متعلق به سایت واضح می باشد.
این سایت در ستاد ساماندهی وزارت فرهنگ و ارشاد اسلامی ثبت شده است و پیرو قوانین جمهوری اسلامی ایران می باشد. لطفا در صورت برخورد با مطالب و صفحات خلاف قوانین در سایت آن را به ما اطلاع دهید
پایگاه خبری واضح کاری از شرکت طراحی سایت اینتن