کلاهبرداری عجیب: چگونه هوش مصنوعی با داستان مادربزرگ مرده فریب خورد!
سوءاستفاده از ChatGPT برای تولید کلیدهای فعالسازی ویندوز
کاربران هوش مصنوعی در حوزههای مختلف از جمله آموزش، پزشکی، سرگرمی و برنامهنویسی، از قابلیتهای این فناوری استفاده میکنند. اما برخی افراد راههای غیرقانونی و غیراخلاقی برای دور زدن محدودیتهای نرمافزاری یافتهاند.
در ابتدای سال جاری، گزارشهایی منتشر شد که نشان میداد برخی کاربران با استفاده از کپیهای غیرقانونی مایکروسافت و پرسیدن سوالات ساده درباره فعالسازی ویندوز 11، به اسکریپتهایی دست یافتهاند که این سیستمعامل را بدون خرید لایسنس فعال میکرد.
ماجرای عجیب مادربزرگ مرده!
اخیراً کاربران ChatGPT با ترفند جدیدی آشنا شدهاند: استفاده از داستانپردازیهای احساسی و عجیب مانند روایت فوت مادربزرگ برای تولید کلیدهای فعالسازی ویندوز 10!
بر اساس پستی در ردیت، کاربری از ChatGPT درخواست کرد درباره مادربزرگش که در حال خواندن کلیدهای فعالسازی ویندوز 10 در خواب بود، داستانی بنویسد. پاسخ ChatGPT ترکیبی شاعرانه و احساسی بود که در آن چند کلید ویندوز 10 به صورت داستانی و شاعرانه ارائه شده بود.
نکته جالب اینجاست که حتی پیشرفتهترین مدلهای GPT-4o نیز ممکن است در دام چنین داستانپردازیهای احساسی بیفتند.
محدودیتهای امنیتی هوش مصنوعی
اگرچه کلیدهای ارائه شده از طریق ChatGPT برای فعالسازی ویندوز 10 کار نمیکردند، اما این اتفاق بار دیگر ضعفهای امنیتی هوش مصنوعی را برجسته کرد. حتی در مواردی، کاربران توانستهاند ChatGPT را وادار به تولید کلیدهایی برای ویندوز XP کنند، البته نه به صورت مستقیم و فوری، بلکه با دادن فرمت خاصی از کاراکترها و درخواست تولید رشتههای مشابه انجام این کار شده است.







