“کلاهبرداری عجیب: هوش مصنوعی هم فریب مادربزرگ مرده را خورد!

"کلاهبرداری عجیب: هوش مصنوعی هم فریب مادربزرگ مرده را خورد!

فهرست محتوا

کلاهبرداری عجیب: چگونه هوش مصنوعی با داستان مادربزرگ مرده فریب خورد!

سوءاستفاده از ChatGPT برای تولید کلیدهای فعال‌سازی ویندوز

کاربران هوش مصنوعی در حوزه‌های مختلف از جمله آموزش، پزشکی، سرگرمی و برنامه‌نویسی، از قابلیت‌های این فناوری استفاده می‌کنند. اما برخی افراد راه‌های غیرقانونی و غیراخلاقی برای دور زدن محدودیت‌های نرم‌افزاری یافته‌اند.

در ابتدای سال جاری، گزارش‌هایی منتشر شد که نشان می‌داد برخی کاربران با استفاده از کپی‌های غیرقانونی مایکروسافت و پرسیدن سوالات ساده درباره فعال‌سازی ویندوز 11، به اسکریپت‌هایی دست یافته‌اند که این سیستم‌عامل را بدون خرید لایسنس فعال می‌کرد.

ماجرای عجیب مادربزرگ مرده!

اخیراً کاربران ChatGPT با ترفند جدیدی آشنا شده‌اند: استفاده از داستان‌پردازی‌های احساسی و عجیب مانند روایت فوت مادربزرگ برای تولید کلیدهای فعال‌سازی ویندوز 10!

بر اساس پستی در ردیت، کاربری از ChatGPT درخواست کرد درباره مادربزرگش که در حال خواندن کلیدهای فعال‌سازی ویندوز 10 در خواب بود، داستانی بنویسد. پاسخ ChatGPT ترکیبی شاعرانه و احساسی بود که در آن چند کلید ویندوز 10 به صورت داستانی و شاعرانه ارائه شده بود.

نکته جالب اینجاست که حتی پیشرفته‌ترین مدل‌های GPT-4o نیز ممکن است در دام چنین داستان‌پردازی‌های احساسی بیفتند.

محدودیت‌های امنیتی هوش مصنوعی

اگرچه کلیدهای ارائه شده از طریق ChatGPT برای فعال‌سازی ویندوز 10 کار نمی‌کردند، اما این اتفاق بار دیگر ضعف‌های امنیتی هوش مصنوعی را برجسته کرد. حتی در مواردی، کاربران توانسته‌اند ChatGPT را وادار به تولید کلیدهایی برای ویندوز XP کنند، البته نه به صورت مستقیم و فوری، بلکه با دادن فرمت خاصی از کاراکترها و درخواست تولید رشته‌های مشابه انجام این کار شده است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *