مغزتان فریب نمی‌خورد: چرا همدلی واقعی انسان، حتی از هوش مصنوعی دلسوزتر هم قوی‌تر است؟”

مغزتان فریب نمی‌خورد: چرا همدلی واقعی انسان، حتی از هوش مصنوعی دلسوزتر هم قوی‌تر است؟"

فهرست محتوا

مغزتان فریب نمی‌خورد: چرا همدلی واقعی انسان، حتی از هوش مصنوعی دلسوزتر هم قوی‌تر است؟

آیا تا به حال فکر کرده‌اید که چرا یک پیام همدلانه از طرف یک دوست، بیشتر از پاسخ‌های دلسوزانه یک ربات هوش مصنوعی به دلتان می‌نشیند؟ یک مطالعه جدید به بررسی همین موضوع پرداخته و نتایج جالبی را آشکار کرده است. این مطالعه نشان می‌دهد که افراد، پاسخ‌های همدلانه را زمانی ارزشمندتر و از نظر احساسی رضایت‌بخش‌تر می‌دانند که باور داشته باشند این پاسخ‌ها از طرف یک انسان ارسال شده‌اند، حتی اگر همان پاسخ دقیقاً توسط هوش مصنوعی تولید شده باشد.

این تحقیق که توسط پروفسور آنات پری از دانشگاه عبری اورشلیم و دانشجوی دکترای او، متان روبین، با همکاری پروفسور آمیت گلدنبرگ از دانشگاه هاروارد و پروفسور دزموند سی. اونگ از دانشگاه تگزاس انجام شده، نشان می‌دهد که انسان‌ها ارزش احساسی بیشتری برای همدلی قائل هستند، وقتی تصور می‌کنند این همدلی از طرف یک انسان می‌آید.

جزئیات مطالعه همدلی انسان در برابر هوش مصنوعی

این مطالعه که در مجله Nature Human Behaviour منتشر شده، شامل ۹ آزمایش با بیش از ۶۰۰۰ شرکت‌کننده بوده است. در تمامی این آزمایش‌ها، پاسخ‌هایی که به عنوان پاسخ‌های انسانی برچسب‌گذاری شده بودند، به طور مداوم به عنوان پاسخ‌هایی صمیمانه‌تر در نظر گرفته می‌شدند، به خصوص زمانی که شامل به اشتراک‌گذاری احساسات و مراقبت بودند.

محققان در این پژوهش به این سوال پاسخ دادند که آیا افراد، همدلی را بسته به اینکه از طرف یک انسان یا یک ربات هوش مصنوعی باشد، متفاوت درک می‌کنند یا خیر. در تمام موارد، پاسخ‌ها توسط مدل‌های زبانی بزرگ (LLM) ایجاد شده بودند، اما شرکت‌کنندگان به طور مداوم پاسخ‌های “انسانی” را همدلانه‌تر، حمایت‌کننده‌تر و از نظر عاطفی رضایت‌بخش‌تر از پاسخ‌های یکسان “هوش مصنوعی” ارزیابی می‌کردند.

یافته‌های کلیدی مطالعه

  • تاثیر متفاوت کلمات یکسان: پیام‌های یکسان زمانی همدلانه‌تر ارزیابی شدند که تصور شود از طرف یک انسان هستند.
  • اهمیت اصالت: باور به اینکه یک انسان پیام را نوشته است، باعث افزایش رضایت عاطفی و صمیمیت درک‌شده می‌شود.
  • معامله احساسی: افراد همدلی انسانی کندتر را به پاسخ‌های سریع اما از نظر عاطفی سطحی هوش مصنوعی ترجیح می‌دهند.

در واقع، شرکت‌کنندگان حتی حاضر بودند روزها یا هفته‌ها منتظر بمانند تا پاسخی از یک انسان دریافت کنند، به جای اینکه پاسخی فوری از یک چت‌بات دریافت کنند. تصویر زیر نمایی از این حس را نشان می‌دهد (منبع: Neuroscience News).

[تصویر با عنوان: مغزتان فریب نمی‌خورد: چرا همدلی واقعی انسان، حتی از هوش مصنوعی دلسوزتر هم قوی‌تر است؟ با توضیحی در زیر آن: در واقع، شرکت‌کنندگان حتی حاضر بودند روزها یا هفته‌ها منتظر دریافت پاسخ از یک انسان باشند، به جای اینکه پاسخی فوری از یک چت‌بات دریافت کنند. اعتبار: Neuroscience News]
(دقت شود که به دلیل ماهیت متنی، تصویر بارگذاری نمی‌شود اما متن جایگزین تصویر و توضیحات آن باید آورده شود.)

هوش مصنوعی، شبیه‌سازی همدلی یا همدلی واقعی؟

پروفسور پری در این باره می‌گوید: “ما وارد عصری می‌شویم که هوش مصنوعی می‌تواند پاسخ‌هایی تولید کند که همدلانه به نظر می‌رسند. اما این تحقیق نشان می‌دهد که حتی اگر هوش مصنوعی بتواند همدلی را شبیه‌سازی کند، مردم ترجیح می‌دهند احساس کنند که انسان دیگری واقعاً آنها را درک می‌کند، با آنها احساس همدردی می‌کند و به آنها اهمیت می‌دهد.”

این ترجیح به ویژه برای پاسخ‌هایی که بر “به اشتراک‌گذاری عاطفی” و “مراقبت واقعی” تأکید داشتند – اجزای عاطفی و انگیزشی همدلی – به جای درک شناختی، قوی‌تر بود.

جالب اینجاست که وقتی شرکت‌کنندگان معتقد بودند که هوش مصنوعی ممکن است در تولید یا ویرایش پاسخی که فکر می‌کردند از طرف یک انسان است، کمک کرده باشد، احساسات مثبت آنها به طور قابل توجهی کاهش یافت. این نشان می‌دهد که “اصالت درک‌شده” – باور به اینکه شخصی واقعاً زمان و تلاش عاطفی صرف کرده است – نقش مهمی در نحوه تجربه همدلی ایفا می‌کند.

هزینه پنهان تکیه بر هوش مصنوعی

پروفسور پری هشدار می‌دهد: “در دنیای امروز، استفاده از هوش مصنوعی برای بررسی ایمیل‌ها یا پیام‌هایمان به یک عادت تبدیل شده است. اما یافته‌های ما یک هزینه پنهان را نشان می‌دهد: هرچه بیشتر به هوش مصنوعی تکیه کنیم، احتمال اینکه کلمات ما پوچ به نظر برسند بیشتر می‌شود. با شروع این فرض که هر پیامی توسط هوش مصنوعی تولید می‌شود، صمیمیت درک‌شده و در نتیجه ارتباط عاطفی ممکن است شروع به ناپدید شدن کند.”

در حالی که هوش مصنوعی نویدبخش استفاده در آموزش، مراقبت‌های بهداشتی و محیط‌های سلامت روان است، این مطالعه محدودیت‌های آن را برجسته می‌کند.

پری توضیح می‌دهد: “هوش مصنوعی ممکن است به مقیاس‌بندی سیستم‌های پشتیبانی کمک کند، اما در لحظاتی که نیاز به ارتباط عاطفی عمیق است، مردم هنوز لمس انسانی را می‌خواهند.”

این مطالعه بینش‌های کلیدی در مورد روانشناسی همدلی ارائه می‌دهد و سوالات به موقعی را در مورد چگونگی ادغام هوش مصنوعی با هوش هیجانی در زندگی روزمره ما مطرح می‌کند.

هوش مصنوعی (AI) و به ویژه مدل‌های زبانی بزرگ، توانایی‌های اجتماعی-عاطفی قابل توجهی را نشان می‌دهند که ممکن است تعاملات انسان و هوش مصنوعی و قابلیت‌های پشتیبانی عاطفی هوش مصنوعی را بهبود بخشد. با این حال، هنوز مشخص نیست که آیا همدلی، شامل درک، “احساس با” و مراقبت، زمانی که به هوش مصنوعی در مقابل انسان نسبت داده می‌شود، متفاوت درک می‌شود یا خیر. ما نه مطالعه (n = 6282) انجام دادیم که در آن پاسخ‌های همدلانه تولید شده توسط هوش مصنوعی به موقعیت‌های عاطفی شرکت‌کنندگان، به عنوان پاسخ‌هایی ارائه شده توسط انسان یا هوش مصنوعی برچسب‌گذاری شدند. پاسخ‌های نسبت داده شده به انسان، همدلانه‌تر و حمایت‌کننده‌تر ارزیابی شدند و احساسات مثبت بیشتری و احساسات منفی کمتری نسبت به پاسخ‌های نسبت داده شده به هوش مصنوعی برانگیختند. علاوه بر این، باور ناآگاهانه خود شرکت‌کنندگان مبنی بر اینکه هوش مصنوعی به پاسخ‌های نسبت داده شده به انسان کمک کرده است، همدلی و حمایت درک شده را کاهش داد. این اثرات در طول پاسخ‌های مختلف، تاخیرها، تکرارها و مدل‌های زبانی بزرگ تکرار شدند و عمدتاً ناشی از پاسخ‌هایی بودند که بر اشتراک‌گذاری عاطفی و مراقبت تاکید داشتند. علاوه بر این، افراد به طور مداوم تعامل انسانی را به هوش مصنوعی در هنگام جستجوی تعامل عاطفی ترجیح دادند. این یافته‌ها درک کلی ما از همدلی و به طور خاص تعاملات همدلانه انسان و هوش مصنوعی را ارتقا می‌دهند.

منبع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *