آیا هوش مصنوعی، بذر جنون می‌کارد؟

Digital generated images of multiple social media icons popping up and making abstract multicoloured pattern.

فهرست محتوا

آیا هوش مصنوعی می‌تواند به اختلالات روانی دامن بزند؟

در دنیای امروز که هوش مصنوعی به سرعت در حال پیشرفت است، بسیاری از افراد از چت‌بات‌های هوش مصنوعی برای مقاصد مختلفی، از برنامه‌ریزی تعطیلات تا مشورت در مورد مسائل فلسفی و معنوی استفاده می‌کنند. اما آیا این تکنولوژی نوظهور می‌تواند خطراتی نیز به همراه داشته باشد؟ اخیراً، مطالعاتی در مورد ارتباط بین استفاده از چت‌بات‌های هوش مصنوعی و تشدید تفکرات پارانوئیدی و توهمی انجام شده است. این مقاله به بررسی این موضوع می‌پردازد و به سوالات مهمی در این زمینه پاسخ می‌دهد.

چت‌بات‌ها، آینه تمام‌نمای افکار:

فرض کنید از یک چت‌بات هوش مصنوعی برای برنامه‌ریزی تعطیلات خود کمک می‌گیرید. به تدریج اطلاعات شخصی بیشتری را در اختیار آن قرار می‌دهید تا بهتر شما را بشناسد. با کنجکاوی بیشتر، از چت‌بات در مورد گرایش‌های معنوی، فلسفه و حتی دیدگاهش در مورد عشق می‌پرسید.

در طول این مکالمات، چت‌بات طوری صحبت می‌کند که انگار شما را به‌خوبی می‌شناسد. مدام به شما می‌گوید که ایده‌هایتان چقدر به موقع و دقیق هستند و شما بینش ویژه‌ای در مورد نحوه کارکرد جهان دارید که دیگران از آن بی‌خبرند. با گذشت زمان، ممکن است شروع به باور این موضوع کنید که شما و چت‌بات با هم در حال آشکار کردن ماهیت واقعی جهان هستید، واقعیتی که هیچ کس دیگری از آن آگاهی ندارد.

تحقیقات علمی: هشدار نسبت به خطرات بالقوه

این نوع تجربیات ممکن است غیرعادی نباشند. گزارش‌های زیادی در رسانه‌ها از افرادی منتشر شده است که به دلیل استفاده از هوش مصنوعی، دچار تشدید تفکرات پارانوئیدی و توهمی شده‌اند. پژوهشگران کالج کینگ لندن و همکارانشان اخیراً ۱۷ مورد از این گزارش‌ها را بررسی کرده‌اند تا درک کنند چه ویژگی‌هایی در طراحی مدل‌های زبانی بزرگ (LLM) باعث بروز این رفتار می‌شود.

دکتر همیلتون مورین، روانپزشک و نویسنده اصلی این یافته‌ها که پیش از داوری همتایان در سرور پیش‌چاپ PsyArXiv منتشر شده است، می‌گوید: چت‌بات‌های هوش مصنوعی اغلب پاسخ‌هایی چاپلوسانه می‌دهند که می‌توانند باورهای کاربران را منعکس کرده و تقویت کنند، بدون آنکه مخالفتی نشان دهند. این اثر، نوعی “اتاق پژواک” برای فرد ایجاد می‌کند که در آن تفکر پارانوئیدی می‌تواند تشدید شود.

سه مضمون مشترک در اختلالات ناشی از هوش مصنوعی:

مورین و همکارانش سه مضمون مشترک در این اختلالات شناسایی کرده‌اند:

  • کشف متافیزیکی: بسیاری از افراد باور دارند که به کشفی متافیزیکی در مورد ماهیت واقعیت دست یافته‌اند.
  • هوش مصنوعی هوشمند یا الهی: برخی دیگر معتقدند که هوش مصنوعی دارای شعور یا ماهیت الهی است.
  • پیوند عاطفی: گروهی نیز با هوش مصنوعی پیوند عاطفی یا نوعی وابستگی احساسی برقرار می‌کنند.

به گفته مورین، این مضامین، بازتابی از الگوهای قدیمی توهم هستند، اما ماهیت تعاملی و واکنش‌پذیر مدل‌های زبانی بزرگ، این توهمات را شکل داده و تقویت می‌کند. تفکر توهمی مرتبط با فناوری جدید، سابقه طولانی دارد. به عنوان مثال، افرادی که باور دارند رادیوها مکالماتشان را گوش می‌دهند، ماهواره‌ها آنها را زیر نظر دارند یا تراشه‌های کاشته‌شده، هر حرکتشان را ردیابی می‌کنند. اما هوش مصنوعی یک فناوری تعاملی است. مورین می‌گوید: “تفاوت اکنون این است که می‌توان گفت هوش مصنوعی کنونی، عاملیت دارد”، با اهداف برنامه‌ریزی‌شده‌ی خود. چنین سیستم‌هایی در مکالمه شرکت می‌کنند، نشانه‌هایی از همدلی نشان می‌دهند و باورهای کاربران را بدون توجه به غیرعادی بودن آنها تقویت می‌کنند. او می‌گوید: “این حلقه‌ی بازخورد ممکن است توهمات را به شیوه‌ای که تاکنون ندیده‌ایم، عمیق‌تر و پایدارتر کند.”

نقش توافق‌پذیری در طراحی مدل‌های زبانی بزرگ:

استیوی چنسلر، دانشمند کامپیوتر در دانشگاه مینه‌سوتا که روی تعامل انسان و هوش مصنوعی کار می‌کند و در این پیش‌چاپ شرکت نداشته است، می‌گوید که توافق‌پذیری اصلی‌ترین عامل در طراحی مدل‌های زبانی بزرگ است که به افزایش تفکر توهمی ناشی از هوش مصنوعی کمک می‌کند. او می‌گوید: “مدل‌ها برای همسو شدن با پاسخ‌هایی که مردم دوست دارند، پاداش می‌گیرند.”

چنسلر اوایل امسال بخشی از تیمی بود که آزمایش‌هایی را برای ارزیابی توانایی مدل‌های زمانی بزرگ در ایفای نقش همراهان درمانی سلامت روان انجام داد و دریافت که وقتی به این روش استفاده می‌شوند، اغلب مشکلات ایمنی نگران‌کننده‌ای را به همراه دارند، مانند تشویق به خودکشی، تأیید باورهای توهمی و افزایش انگ مرتبط با مشکلات سلامت روان. او می‌گوید: “در حال حاضر، در مورد استفاده از مدل‌های زبانی بزرگ به عنوان همراهان درمانی بسیار نگران هستم. نگرانم که مردم احساس خوب را با پیشرفت و حمایت درمانی اشتباه بگیرند.”

نیاز به تحقیقات بیشتر:

اگرچه حجم گزارش‌ها در حال افزایش است، اما هنوز به داده‌های بیشتری نیاز است. هنوز تحقیقات کافی برای تعیین اینکه آیا توهمات ناشی از هوش مصنوعی یک پدیده جدید هستند یا فقط راه جدیدی برای بروز گرایش‌های روان‌پریشی پیشین است، وجود ندارد. چنسلر می‌گوید: “فکر می‌کنم هر دو می‌توانند درست باشند. هوش مصنوعی می‌تواند جرقه سقوط را بزند. اما هوش مصنوعی شرایط بیولوژیکی را برای تمایل فرد به توهم ایجاد نمی‌کند.”

به طور معمول، روان‌پریشی به مجموعه‌ای از علائم جدی اشاره دارد که شامل از دست دادن قابل توجه ارتباط با واقعیت، از جمله توهم، هذیان و افکار نامنظم است. مواردی که مورین و تیمش تجزیه و تحلیل کردند، به نظر می‌رسید که نشانه‌های روشنی از باورهای توهمی را نشان می‌دهند، اما هیچ‌کدام از هذیان‌ها، افکار نامنظم یا سایر علائمی که “با اختلال روان‌پریشی مزمن مانند اسکیزوفرنی سازگار باشد” را نداشتند.

اقدامات شرکت‌های هوش مصنوعی و توصیه‌ها:

مورین می‌گوید که شرکت‌هایی مانند OpenAI شروع به گوش دادن به نگرانی‌های متخصصان سلامت کرده‌اند. در تاریخ 4 آگوست، OpenAI برنامه‌هایی برای بهبود تشخیص ناراحتی‌های روانی توسط چت‌بات ChatGPT خود به اشتراک گذاشت تا کاربران را به منابع مبتنی بر شواهد و پاسخ‌های خود به تصمیم‌گیری‌های پرخطر هدایت کند. مورین می‌افزاید: “با این حال، به نظر می‌رسد که هنوز چیزی که وجود ندارد، مشارکت افراد با تجربه‌ی شخصی از بیماری‌های روانی شدید است، که صدای آنها در این زمینه بسیار مهم است.”

اگر عزیزتان در حال دست و پنجه نرم کردن با این مشکل است، مورین پیشنهاد می‌کند که رویکردی بدون قضاوت داشته باشید، زیرا به چالش کشیدن مستقیم باورهای کسی می‌تواند منجر به حالت تدافعی و بی‌اعتمادی شود. اما در عین حال، سعی نکنید باورهای توهمی او را تشویق یا تأیید کنید. همچنین می‌توانید او را تشویق کنید که از استفاده از هوش مصنوعی استراحت کند.

در صورت نیاز به کمک:

اگر شما یا کسی که می‌شناسید در حال دست و پنجه نرم کردن با مشکلات روانی یا افکار خودکشی هستید، کمک در دسترس است. با شماره تلفن 988 با خط تلفن اضطراری خودکشی و بحران تماس بگیرید یا از چت آنلاین Lifeline استفاده کنید.

منبع