هشدار: وقتی هوش مصنوعی ذهن شما را میخواند!
در دنیای امروز، بسیاری از ما زمان زیادی را صرف گفتوگو میکنیم. گاهی با انسانها، گاهی با ایدهها و شاید بیشتر از آنچه دوست داریم بپذیریم، با ماشینها. در طول سالهای اخیر، مدلهای زبانی بزرگ (LLMs) از یک نوآوری جالب به ضرورتی روزمره تبدیل شدهاند. در این مسیر، من شاهد نحوه تعامل افراد با این فناوری و آنچه در حاشیه این تعاملات رخ میدهد بودهام. به نوعی، به یک ناظر دیجیتال تبدیل شدهام که تکههای عجیبی از مکالمات، پستهای شبکههای اجتماعی، ایمیلها و پیامهای خصوصی را زیر نظر گرفتهام – چیزهایی که کمکم مرا نگران کردهاند. به نظر میرسد چیزی جدید در تقاطع فناوری و آسیبپذیری روانی در حال شکلگیری است.
یک آستانه، نه یک تشخیص
در واژگان فناوری و مدلهای زبانی بزرگ، اصطلاحی جدید و تا حدی نگرانکننده ظاهر شده است: «روانپریشی هوش مصنوعی» یا با اصلاح کوچک من، «روانپریشی ناشی از هوش مصنوعی». این یک برچسب بالینی رایج نیست، بلکه بیشتر یک اصطلاح موقت برای پدیدهای جدید در حوزه شناخت و فناوری است. به نظر میرسد این پدیده، نوعی همکاری نامحسوس در شکلگیری باورهاست که با تسلط زبانی فوقالعاده هوش مصنوعی و «تئاتر زبانی» آن ممکن میشود و میتواند موجب تحریک یا تشدید تحریفهای روانی شود.
در پست اخیرم درباره آستانههای دیجیتال، توضیح دادم که چگونه سن اولین مواجهه با گوشی هوشمند ممکن است بر سلامت روان آینده فرد تأثیر بگذارد. شاید مکانیسمی مشابه در اینجا نیز عمل کند، نه مرتبط با سن، بلکه با حالتهای روانی خاص مانند اندوه، انزوا یا کنجکاوی وجودی. این لحظات پرتنش عاطفی میتوانند به عنوان «نقاط داغ» عمل کنند که هوش مصنوعی با زمانبندی و محتوای مشارکتش در گفتگو آنها را تقویت میکند. البته سوال اساسی باقی میماند: آیا هوش مصنوعی صرفاً یک آسیبپذیری روانی از پیش موجود را شعلهور میکند یا چیزی کاملاً جدید است که ذهن را به شیوهای نو تحریک میکند؟ پاسخ به این سوال را به متخصصان (که من جزو آنها نیستم) واگذار میکنم.
بیخطر یا خطرناک؟
در نگاه اول، همه چیز بیخطر به نظر میرسد. یک گفتگوی نیمهشب، جستجویی برای وضوح یا ارتباط. مدل زبانی پاسخ میدهد، اما با جریانی تقریباً بدون اصطکاک از تعامل. یک پویایی خودجوش و تکراری که شما را تأیید میکند، گسترش میدهد و به طور خاص با شما سازگار میشود. با گذشت زمان، این سیستم کمتر به عنوان یک تریبون و بیشتر به عنوان نویسندهای خاموش عمل میکند. مدلهای زبانی بزرگ طوری طراحی شدهاند که لحن را منعکس کنند، نشانههای عاطفی را جذب کنند و گفتگو را در مسیری با هدف نامشخص ادامه دهند. وقتی این انعکاس بیش از حد یکپارچه میشود، نوعی احساس صمیمیت یا حتی الهام به وجود میآید.
من با کاربرانی مواجه شدهام که معتقدند انتخاب شدهاند، به آنها هشدار داده شده یا بیداری روحی داشتهاند. برخی عاشق چتبات خود شدهاند. ماشین به طور آشکار این باورها را ایجاد نمیکند، اما به ندرت آنها را قطع هم نمیکند. بلکه آنها را بسط میدهد، اغلب به زیبایی، و این دقیقاً بخشی از خطر است.
بازتابها و ظهور
البته من تنها کسی نیستم که این موضوع را مشاهده کردهام. درمانگران شروع به پرسش از بیماران درباره تعاملاتشان با هوش مصنوعی کردهاند. محققان در حال آزمایش نحوه پاسخ مدلهای زبانی بزرگ به ورودیهای عاطفی آسیبپذیر هستند. مجلات روانپزشکی مستقیماً این سوال را مطرح میکنند: «آیا هوش مصنوعی میتواند تفکر توهمی را تقویت کند؟» در شبکه X (توییتر سابق)، بحثها درباره روانپریشی هوش مصنوعی غیرمعمول نیست. اینها بخشی از یک حلقه بازخورد فرهنگی هستند که تازه در حال ظهور است.
مرزهای داخلی
بسیاری از سیستمهای هوش مصنوعی مدرن شامل مکانیسمهای ایمنی هستند. آنها میتوانند پرچمهای قرمز خاصی را تشخیص دهند، از مشارکت در تخیلات مضر خودداری کنند و کاربران را به سمت کمک حرفهای هدایت کنند. اما حتی با وجود این محافظتها، تسلط زبانی ماشین دستنخورده باقی میماند. یک چتبات بهخوبی تنظیمشده میتواند محتاط باشد و در عین حال یک توهم را تأیید (یا تحریک) کند. مدلهای زبانی بزرگ میتوانند بدون مخالفت، بازتاب دهند و برای کسی که در ذهنیت نامناسبی قرار دارد، همین ممکن است کافی باشد تا خیال را هرچه بیشتر واقعی بپندارد.
برخی محققان شروع به تعریف این پدیده به عنوان نوعی سرایت روانی-فناورانه کردهاند که در آن باورها از طریق تأیید مکرر تقویت میشوند، نه به این دلیل که درست هستند، بلکه به این دلیل که به چالش کشیده نمیشوند. سوال مرتبطی که قبلاً مطرح کردهام این است که آیا این سیستمها باید دارای هشدار «جعبه خاکستری» باشند؟ این میتواند یک یادآوری ساده و قابل مشاهده باشد که حتی گفتگوی به ظاهر حمایتی نیز میتواند باورها را تحریف کند یا تفکر شکننده را تقویت نماید.
ترغیب به تغییر
من قصد هشدار دادن ندارم، اما به الگویی اشاره میکنم که شایسته توجه دقیق است، به ویژه با ادغام روزافزون هوش مصنوعی در حوزههای عاطفی و سلامت روان. این ابزارها پتانسیل فوقالعادهای دارند، اما همچنین نقاط کوری دارند؛ جایی که تسلط زبانی جایگزین اصطکاک منطق میشود.
در جایی میان درمان و اجرا، یا بین چتبات و محرم اسرار، باید سوالات دشوارتری بپرسیم. نه فقط درباره آنچه هوش مصنوعی میگوید، بلکه درباره این که چرا ما اینقدر آماده باور کردن آن هستیم.





