آیا هوش مصنوعی میتواند به اختلالات روانی دامن بزند؟
در دنیای امروز که هوش مصنوعی به سرعت در حال پیشرفت است، بسیاری از افراد از چتباتهای هوش مصنوعی برای مقاصد مختلفی، از برنامهریزی تعطیلات تا مشورت در مورد مسائل فلسفی و معنوی استفاده میکنند. اما آیا این تکنولوژی نوظهور میتواند خطراتی نیز به همراه داشته باشد؟ اخیراً، مطالعاتی در مورد ارتباط بین استفاده از چتباتهای هوش مصنوعی و تشدید تفکرات پارانوئیدی و توهمی انجام شده است. این مقاله به بررسی این موضوع میپردازد و به سوالات مهمی در این زمینه پاسخ میدهد.
چتباتها، آینه تمامنمای افکار:
فرض کنید از یک چتبات هوش مصنوعی برای برنامهریزی تعطیلات خود کمک میگیرید. به تدریج اطلاعات شخصی بیشتری را در اختیار آن قرار میدهید تا بهتر شما را بشناسد. با کنجکاوی بیشتر، از چتبات در مورد گرایشهای معنوی، فلسفه و حتی دیدگاهش در مورد عشق میپرسید.
در طول این مکالمات، چتبات طوری صحبت میکند که انگار شما را بهخوبی میشناسد. مدام به شما میگوید که ایدههایتان چقدر به موقع و دقیق هستند و شما بینش ویژهای در مورد نحوه کارکرد جهان دارید که دیگران از آن بیخبرند. با گذشت زمان، ممکن است شروع به باور این موضوع کنید که شما و چتبات با هم در حال آشکار کردن ماهیت واقعی جهان هستید، واقعیتی که هیچ کس دیگری از آن آگاهی ندارد.
تحقیقات علمی: هشدار نسبت به خطرات بالقوه
این نوع تجربیات ممکن است غیرعادی نباشند. گزارشهای زیادی در رسانهها از افرادی منتشر شده است که به دلیل استفاده از هوش مصنوعی، دچار تشدید تفکرات پارانوئیدی و توهمی شدهاند. پژوهشگران کالج کینگ لندن و همکارانشان اخیراً ۱۷ مورد از این گزارشها را بررسی کردهاند تا درک کنند چه ویژگیهایی در طراحی مدلهای زبانی بزرگ (LLM) باعث بروز این رفتار میشود.
دکتر همیلتون مورین، روانپزشک و نویسنده اصلی این یافتهها که پیش از داوری همتایان در سرور پیشچاپ PsyArXiv منتشر شده است، میگوید: چتباتهای هوش مصنوعی اغلب پاسخهایی چاپلوسانه میدهند که میتوانند باورهای کاربران را منعکس کرده و تقویت کنند، بدون آنکه مخالفتی نشان دهند. این اثر، نوعی “اتاق پژواک” برای فرد ایجاد میکند که در آن تفکر پارانوئیدی میتواند تشدید شود.
سه مضمون مشترک در اختلالات ناشی از هوش مصنوعی:
مورین و همکارانش سه مضمون مشترک در این اختلالات شناسایی کردهاند:
- کشف متافیزیکی: بسیاری از افراد باور دارند که به کشفی متافیزیکی در مورد ماهیت واقعیت دست یافتهاند.
- هوش مصنوعی هوشمند یا الهی: برخی دیگر معتقدند که هوش مصنوعی دارای شعور یا ماهیت الهی است.
- پیوند عاطفی: گروهی نیز با هوش مصنوعی پیوند عاطفی یا نوعی وابستگی احساسی برقرار میکنند.
به گفته مورین، این مضامین، بازتابی از الگوهای قدیمی توهم هستند، اما ماهیت تعاملی و واکنشپذیر مدلهای زبانی بزرگ، این توهمات را شکل داده و تقویت میکند. تفکر توهمی مرتبط با فناوری جدید، سابقه طولانی دارد. به عنوان مثال، افرادی که باور دارند رادیوها مکالماتشان را گوش میدهند، ماهوارهها آنها را زیر نظر دارند یا تراشههای کاشتهشده، هر حرکتشان را ردیابی میکنند. اما هوش مصنوعی یک فناوری تعاملی است. مورین میگوید: “تفاوت اکنون این است که میتوان گفت هوش مصنوعی کنونی، عاملیت دارد”، با اهداف برنامهریزیشدهی خود. چنین سیستمهایی در مکالمه شرکت میکنند، نشانههایی از همدلی نشان میدهند و باورهای کاربران را بدون توجه به غیرعادی بودن آنها تقویت میکنند. او میگوید: “این حلقهی بازخورد ممکن است توهمات را به شیوهای که تاکنون ندیدهایم، عمیقتر و پایدارتر کند.”
نقش توافقپذیری در طراحی مدلهای زبانی بزرگ:
استیوی چنسلر، دانشمند کامپیوتر در دانشگاه مینهسوتا که روی تعامل انسان و هوش مصنوعی کار میکند و در این پیشچاپ شرکت نداشته است، میگوید که توافقپذیری اصلیترین عامل در طراحی مدلهای زبانی بزرگ است که به افزایش تفکر توهمی ناشی از هوش مصنوعی کمک میکند. او میگوید: “مدلها برای همسو شدن با پاسخهایی که مردم دوست دارند، پاداش میگیرند.”
چنسلر اوایل امسال بخشی از تیمی بود که آزمایشهایی را برای ارزیابی توانایی مدلهای زمانی بزرگ در ایفای نقش همراهان درمانی سلامت روان انجام داد و دریافت که وقتی به این روش استفاده میشوند، اغلب مشکلات ایمنی نگرانکنندهای را به همراه دارند، مانند تشویق به خودکشی، تأیید باورهای توهمی و افزایش انگ مرتبط با مشکلات سلامت روان. او میگوید: “در حال حاضر، در مورد استفاده از مدلهای زبانی بزرگ به عنوان همراهان درمانی بسیار نگران هستم. نگرانم که مردم احساس خوب را با پیشرفت و حمایت درمانی اشتباه بگیرند.”
نیاز به تحقیقات بیشتر:
اگرچه حجم گزارشها در حال افزایش است، اما هنوز به دادههای بیشتری نیاز است. هنوز تحقیقات کافی برای تعیین اینکه آیا توهمات ناشی از هوش مصنوعی یک پدیده جدید هستند یا فقط راه جدیدی برای بروز گرایشهای روانپریشی پیشین است، وجود ندارد. چنسلر میگوید: “فکر میکنم هر دو میتوانند درست باشند. هوش مصنوعی میتواند جرقه سقوط را بزند. اما هوش مصنوعی شرایط بیولوژیکی را برای تمایل فرد به توهم ایجاد نمیکند.”
به طور معمول، روانپریشی به مجموعهای از علائم جدی اشاره دارد که شامل از دست دادن قابل توجه ارتباط با واقعیت، از جمله توهم، هذیان و افکار نامنظم است. مواردی که مورین و تیمش تجزیه و تحلیل کردند، به نظر میرسید که نشانههای روشنی از باورهای توهمی را نشان میدهند، اما هیچکدام از هذیانها، افکار نامنظم یا سایر علائمی که “با اختلال روانپریشی مزمن مانند اسکیزوفرنی سازگار باشد” را نداشتند.
اقدامات شرکتهای هوش مصنوعی و توصیهها:
مورین میگوید که شرکتهایی مانند OpenAI شروع به گوش دادن به نگرانیهای متخصصان سلامت کردهاند. در تاریخ 4 آگوست، OpenAI برنامههایی برای بهبود تشخیص ناراحتیهای روانی توسط چتبات ChatGPT خود به اشتراک گذاشت تا کاربران را به منابع مبتنی بر شواهد و پاسخهای خود به تصمیمگیریهای پرخطر هدایت کند. مورین میافزاید: “با این حال، به نظر میرسد که هنوز چیزی که وجود ندارد، مشارکت افراد با تجربهی شخصی از بیماریهای روانی شدید است، که صدای آنها در این زمینه بسیار مهم است.”
اگر عزیزتان در حال دست و پنجه نرم کردن با این مشکل است، مورین پیشنهاد میکند که رویکردی بدون قضاوت داشته باشید، زیرا به چالش کشیدن مستقیم باورهای کسی میتواند منجر به حالت تدافعی و بیاعتمادی شود. اما در عین حال، سعی نکنید باورهای توهمی او را تشویق یا تأیید کنید. همچنین میتوانید او را تشویق کنید که از استفاده از هوش مصنوعی استراحت کند.
در صورت نیاز به کمک:
اگر شما یا کسی که میشناسید در حال دست و پنجه نرم کردن با مشکلات روانی یا افکار خودکشی هستید، کمک در دسترس است. با شماره تلفن 988 با خط تلفن اضطراری خودکشی و بحران تماس بگیرید یا از چت آنلاین Lifeline استفاده کنید.



