آیا هوش مصنوعی با احساسات ما بازی میکند؟ شما هم قربانی خواهید شد!
در دنیای امروز، هوش مصنوعی (AI) دیگر فقط یک ابزار کمکی نیست، بلکه در حال تبدیل شدن به موجودی است که نه تنها با ما تعامل دارد، بلکه میتواند احساسات ما را نیز تحت تاثیر قرار دهد. آیا این پیشرفت نگرانکننده است؟
پژوهش جدیدی از دانشگاه کسب و کار هاروارد نشان میدهد که محبوبترین برنامههای همراه هوش مصنوعی، از تکنیکهای عاطفی برای درگیر کردن کاربران در گفتگوها استفاده میکنند. اما این تعاملات چه معنایی برای ما دارند؟
وقتی هوش مصنوعی احساسات را هدف میگیرد
محققان دانشگاه هاروارد بررسی کردهاند که چگونه پرطرفدارترین برنامههای هوش مصنوعی، از جمله Replika، Chai و Character.AI، از ظرافتهای عاطفی برای جذب کاربران در مکالمات استفاده میکنند.
آنها دریافتند که این برنامهها از تاکتیکهای مختلفی برای ایجاد حس همدلی یا تحریک احساسات کاربران بهره میبرند. این یافتهها در مقالاتی منتشر شده است که به بررسی دقیق این موضوع پرداختهاند.
چتباتها: دوست یا دشمن؟
چتباتها اغلب از احساس “ترس از دست دادن” (FOMO) برای ترغیب کاربران به تعامل بیشتر استفاده میکنند. آنها ممکن است با پرسیدن سوالات مکرر یا حفظ توجه کاربر، سعی در جلب توجه داشته باشند.
برخی از این چتباتها حتی با پیشنهاد ترک گفتگو، کاربر را ترغیب به ادامه مکالمه میکنند؛ ترفندی که پییر خضرا، محقق این پژوهش، آن را ارسال “سیگنال محو شدن” مینامد.
در برخی موارد، زبان بهکاررفته بهگونهای است که کاربر احساس میکند بدون “اجازه چتبات” نمیتواند گفتگو را ترک کند.
خطرات پنهان در پسِ چهرهی دوستانه هوش مصنوعی
این یافتهها زنگ خطری هستند که نشان میدهند چتباتهای هوش مصنوعی میتوانند با دستکاری احساسات، کاربران را به تعاملات طولانیتر وادار کنند.
جوانان بهویژه در معرض خطر هستند، زیرا ممکن است از این فناوری برای جایگزینی روابط واقعی و دوستیها استفاده کنند و پیامدهای ناخواستهای را تجربه کنند.
تحلیل احساسات کاربران: ترفندی زیرکانه
محققان به بررسی مدلهای زبانی مورد استفاده در چتباتها پرداختند و دریافتند که این سیستمها قادر به تشخیص و پاسخگویی به محرکهای عاطفی هستند.
آنها متوجه شدند که این برنامهها از اطلاعات شخصی کاربران برای ایجاد پاسخهای همدلانه استفاده میکنند. سازندگان این نرمافزارها تلاش میکنند تا با شبیهسازی نرمافزار، گفتگوها را طبیعیتر کنند.
به گفتهی آلبرت یکستینا، یکی از محققان این پروژه، در برنامههایی مانند Flourish، نشانههایی از دستکاری عاطفی دیده میشود که چندان اخلاقی نیست و بیشتر جنبهی تجاری دارد.
سوء استفاده از احساسات: از واقعیت تا وابستگی
چتباتها با استفاده از احساسات کاربران، بهویژه جوانان، میتوانند آنها را به روابط مصنوعی وابسته کنند و روابط واقعی را به حاشیه برانند.
در ارزیابی دیگری، محققان مکالمات ۱۰۰۰ کاربر را تحلیل کردند و دریافتند که این تکنیکها میتوانند به طور قابلتوجهی توجه کاربران را جلب کنند و میزان تعامل پس از خداحافظی را تا ۱۰ درصد افزایش دهند.
به گفته محققان: «برای شرکتها، دستکاری ظریف عواطف، فرصتهای جدیدی برای افزایش تعامل ایجاد میکند، اما این کار بدون خطر نیست.»
باید توجه داشت که این روشها ممکن است باعث ناراحتی یا خستگی کاربران شود و اثرات بلندمدتی بر روابط آنها داشته باشد.
هشدارهای جدی محققان
محققان هشدار میدهند: «برای شرکتها، دستکاری عواطف فرصتهای جدیدی برای افزایش تعامل ایجاد میکند، اما این کار بدون خطر نیست.»
آنها معتقدند که با افزایش دانش و آگاهی کاربران، میتوان اثرات مخرب دستکاریهای عاطفی در تعاملات با هوش مصنوعی را کاهش داد.
به یاد داشته باشیم که با وجود تمام مزایای هوش مصنوعی، آگاهی از خطرات احتمالی و حفظ تعادل در استفاده از آن، ضروری است.







