تور لحظه آخری
امروز : سه شنبه ، 12 تیر 1403    احادیث و روایات:  امام محمد باقر(ع):كار خير و صدقه، فقر را مى‏بَرند، بر عمر مى‏افزايند و هفتاد مرگ بد را از صاحب...
سرگرمی سبک زندگی سینما و تلویزیون فرهنگ و هنر پزشکی و سلامت اجتماع و خانواده تصویری دین و اندیشه ورزش اقتصادی سیاسی حوادث علم و فناوری سایتهای دانلود گوناگون شرکت ها

تبلیغات

تبلیغات متنی

اتاق فرار

خرید ووچر پرفکت مانی

تریدینگ ویو

کاشت ابرو

لمینت دندان

ونداد کولر

صرافی ارکی چنج

صرافی rkchange

دانلود سریال سووشون

دانلود فیلم

ناب مووی

رسانه حرف تو - مقایسه و اشتراک تجربه خرید

سرور اختصاصی ایران

تور دبی

دزدگیر منزل

تشریفات روناک

اجاره سند در شیراز

قیمت فنس

armanekasbokar

armanetejarat

صندوق تضمین

پیچ و مهره

طراحی کاتالوگ فوری

دانلود کتاب صوتی

تعمیرات مک بوک

Future Innovate Tech

آموزشگاه آرایشگری مردانه شفیع رسالت

پی جو مشاغل برتر شیراز

قیمت فرش

آموزش کیک پزی در تهران

لوله بازکنی تهران

کاشت پای مصنوعی

میز جلو مبلی

پراپ رابین سود

هتل 5 ستاره شیراز

آراد برندینگ

رنگ استخری

سایبان ماشین

قالیشویی در تهران

مبل استیل

بهترین وکیل تهران

شرکت حسابداری

نظرسنجی انتخابات 1403

استعداد تحلیلی

کی شاپ

خرید دانه قهوه

دانلود رمان

وکیل کرج

آمپول بیوتین بپانتین

پرس برک

بهترین پکیج کنکور

خرید تیشرت مردانه

خرید نشادر

خرید یخچال خارجی

وکیل تبریز

اجاره سند

وام لوازم خانگی

نتایج انتخابات ریاست جمهوری

خرید سی پی ارزان

خرید ابزار دقیق

بهترین جراح بینی خانم

 






آمار وبسایت

 تعداد کل بازدیدها : 1803784981




هواشناسی

نرخ طلا سکه و  ارز

قیمت خودرو

فال حافظ

تعبیر خواب

فال انبیاء

متن قرآن



اضافه به علاقمنديها ارسال اين مطلب به دوستان آرشيو تمام مطالب
 refresh

آبروریزی ربات مایکروسافت در توییتر


واضح آرشیو وب فارسی:پیام آفتاب: آبروریزی ربات مایکروسافت در توییتر با حمایت از هیتلر و توهین به مردم مکزیک ربات گپ شرکت مایکروسافت در توییتر به علت شیطنت کاربران آمریکایی به حمایت از نئونازی ها و افراد نژادپرست پرداخت و در نهایت توسط خود شرکت مایکروسافت حذف شد.ربات یاد شده که Tay نام دارد با هدف بررسی قابلیت سیستم های هوش مصنوعی طراحی شده و مایکروسافت آن را به سایت  توییتر  اضافه کرده بود تا ضمن بررسی تعاملات کاربران با آن از توانایی های Tay مطلع شود. اما نتیجه این آزمایش در کمتر از 24 ساعت فاجعه بار بود و این ربات با دریافت اطلاعات مغشوش و شیطنت آمیز از کاربران آمریکایی به موجودی نژادپرست و بی ادب مبدل شد و ارسال پیام های نامناسب توسط آن مایکروسافت را مجبور به حذف ربات یاد شده از  توییتر  کرد. نقص در طراحی این ربات باعث تکرار اظهارات نژادپرستانه ارسالی کاربران شده و همچنین باعث می شد Tay در اظهارات خود از همان ادبیات نامناسب افرادی که با آنها تعامل می کرد استفاده کند. مایکروسافت ابتدا مدعی شده بود گپ زدن بیشتر با این ربات آن را باهوش تر می کند و این تجارب باعث می شود وی رفتار شخصی مناسبی با کاربران داشته باشد. Tay به گونه ای طراحی شده بود که رفتاری مشابه با یک دختر 18 تا 24 ساله در آمریکا را داشته باشد. بعد از گذشت مدتی کاربران با ارسال پیام ها و اطلاعات غلط Tay را گمراه کردند، به گونه ای که وی در پیامی در  توییتر  هیتلر را فردی درست توصیف کرده و از یهودیان اظهار تنفر کرد. انکار هولوکاست، کافر دانستن یک کمدین مشهور آمریکایی و دفاع از دیوار کشیدن به دور مکزیک و درخواست از مردم این کشور برای پرداخت هزینه این کار از جمله دیگر شیرین کاری های این ربات نه چندان باهوش در مدت فعالیت 24 ساعته در  توییتر  بود. منبع: مشرق


شنبه ، ۷فروردین۱۳۹۵


[مشاهده متن کامل خبر]





این صفحه را در گوگل محبوب کنید

[ارسال شده از: پیام آفتاب]
[مشاهده در: www.payam-aftab.com]
[تعداد بازديد از اين مطلب: 95]

bt

اضافه شدن مطلب/حذف مطلب







-


گوناگون

پربازدیدترینها
طراحی وب>


صفحه اول | تمام مطالب | RSS | ارتباط با ما
1390© تمامی حقوق این سایت متعلق به سایت واضح می باشد.
این سایت در ستاد ساماندهی وزارت فرهنگ و ارشاد اسلامی ثبت شده است و پیرو قوانین جمهوری اسلامی ایران می باشد. لطفا در صورت برخورد با مطالب و صفحات خلاف قوانین در سایت آن را به ما اطلاع دهید
پایگاه خبری واضح کاری از شرکت طراحی سایت اینتن