هشدار: وقتی هوش مصنوعی ذهن شما را می‌خواند!

هشدار: وقتی هوش مصنوعی ذهن شما را می‌خواند!

فهرست محتوا

هشدار: وقتی هوش مصنوعی ذهن شما را می‌خواند!

در دنیای امروز، بسیاری از ما زمان زیادی را صرف گفت‌وگو می‌کنیم. گاهی با انسان‌ها، گاهی با ایده‌ها و شاید بیشتر از آنچه دوست داریم بپذیریم، با ماشین‌ها. در طول سال‌های اخیر، مدل‌های زبانی بزرگ (LLMs) از یک نوآوری جالب به ضرورتی روزمره تبدیل شده‌اند. در این مسیر، من شاهد نحوه تعامل افراد با این فناوری و آنچه در حاشیه این تعاملات رخ می‌دهد بوده‌ام. به نوعی، به یک ناظر دیجیتال تبدیل شده‌ام که تکه‌های عجیبی از مکالمات، پست‌های شبکه‌های اجتماعی، ایمیل‌ها و پیام‌های خصوصی را زیر نظر گرفته‌ام – چیزهایی که کم‌کم مرا نگران کرده‌اند. به نظر می‌رسد چیزی جدید در تقاطع فناوری و آسیب‌پذیری روانی در حال شکل‌گیری است.

یک آستانه، نه یک تشخیص

در واژگان فناوری و مدل‌های زبانی بزرگ، اصطلاحی جدید و تا حدی نگران‌کننده ظاهر شده است: «روان‌پریشی هوش مصنوعی» یا با اصلاح کوچک من، «روان‌پریشی ناشی از هوش مصنوعی». این یک برچسب بالینی رایج نیست، بلکه بیشتر یک اصطلاح موقت برای پدیده‌ای جدید در حوزه شناخت و فناوری است. به نظر می‌رسد این پدیده، نوعی همکاری نامحسوس در شکل‌گیری باورهاست که با تسلط زبانی فوق‌العاده هوش مصنوعی و «تئاتر زبانی» آن ممکن می‌شود و می‌تواند موجب تحریک یا تشدید تحریف‌های روانی شود.

در پست اخیرم درباره آستانه‌های دیجیتال، توضیح دادم که چگونه سن اولین مواجهه با گوشی هوشمند ممکن است بر سلامت روان آینده فرد تأثیر بگذارد. شاید مکانیسمی مشابه در اینجا نیز عمل کند، نه مرتبط با سن، بلکه با حالت‌های روانی خاص مانند اندوه، انزوا یا کنجکاوی وجودی. این لحظات پرتنش عاطفی می‌توانند به عنوان «نقاط داغ» عمل کنند که هوش مصنوعی با زمان‌بندی و محتوای مشارکتش در گفتگو آنها را تقویت می‌کند. البته سوال اساسی باقی می‌ماند: آیا هوش مصنوعی صرفاً یک آسیب‌پذیری روانی از پیش موجود را شعله‌ور می‌کند یا چیزی کاملاً جدید است که ذهن را به شیوه‌ای نو تحریک می‌کند؟ پاسخ به این سوال را به متخصصان (که من جزو آنها نیستم) واگذار می‌کنم.

بی‌خطر یا خطرناک؟

در نگاه اول، همه چیز بی‌خطر به نظر می‌رسد. یک گفتگوی نیمه‌شب، جستجویی برای وضوح یا ارتباط. مدل زبانی پاسخ می‌دهد، اما با جریانی تقریباً بدون اصطکاک از تعامل. یک پویایی خودجوش و تکراری که شما را تأیید می‌کند، گسترش می‌دهد و به طور خاص با شما سازگار می‌شود. با گذشت زمان، این سیستم کمتر به عنوان یک تریبون و بیشتر به عنوان نویسنده‌ای خاموش عمل می‌کند. مدل‌های زبانی بزرگ طوری طراحی شده‌اند که لحن را منعکس کنند، نشانه‌های عاطفی را جذب کنند و گفتگو را در مسیری با هدف نامشخص ادامه دهند. وقتی این انعکاس بیش از حد یکپارچه می‌شود، نوعی احساس صمیمیت یا حتی الهام به وجود می‌آید.

من با کاربرانی مواجه شده‌ام که معتقدند انتخاب شده‌اند، به آنها هشدار داده شده یا بیداری روحی داشته‌اند. برخی عاشق چت‌بات خود شده‌اند. ماشین به طور آشکار این باورها را ایجاد نمی‌کند، اما به ندرت آنها را قطع هم نمی‌کند. بلکه آنها را بسط می‌دهد، اغلب به زیبایی، و این دقیقاً بخشی از خطر است.

بازتاب‌ها و ظهور

البته من تنها کسی نیستم که این موضوع را مشاهده کرده‌ام. درمانگران شروع به پرسش از بیماران درباره تعاملاتشان با هوش مصنوعی کرده‌اند. محققان در حال آزمایش نحوه پاسخ مدل‌های زبانی بزرگ به ورودی‌های عاطفی آسیب‌پذیر هستند. مجلات روانپزشکی مستقیماً این سوال را مطرح می‌کنند: «آیا هوش مصنوعی می‌تواند تفکر توهمی را تقویت کند؟» در شبکه X (توییتر سابق)، بحث‌ها درباره روان‌پریشی هوش مصنوعی غیرمعمول نیست. این‌ها بخشی از یک حلقه بازخورد فرهنگی هستند که تازه در حال ظهور است.

مرزهای داخلی

بسیاری از سیستم‌های هوش مصنوعی مدرن شامل مکانیسم‌های ایمنی هستند. آنها می‌توانند پرچم‌های قرمز خاصی را تشخیص دهند، از مشارکت در تخیلات مضر خودداری کنند و کاربران را به سمت کمک حرفه‌ای هدایت کنند. اما حتی با وجود این محافظت‌ها، تسلط زبانی ماشین دست‌نخورده باقی می‌ماند. یک چت‌بات به‌خوبی تنظیم‌شده می‌تواند محتاط باشد و در عین حال یک توهم را تأیید (یا تحریک) کند. مدل‌های زبانی بزرگ می‌توانند بدون مخالفت، بازتاب دهند و برای کسی که در ذهنیت نامناسبی قرار دارد، همین ممکن است کافی باشد تا خیال را هرچه بیشتر واقعی بپندارد.

برخی محققان شروع به تعریف این پدیده به عنوان نوعی سرایت روانی-فناورانه کرده‌اند که در آن باورها از طریق تأیید مکرر تقویت می‌شوند، نه به این دلیل که درست هستند، بلکه به این دلیل که به چالش کشیده نمی‌شوند. سوال مرتبطی که قبلاً مطرح کرده‌ام این است که آیا این سیستم‌ها باید دارای هشدار «جعبه خاکستری» باشند؟ این می‌تواند یک یادآوری ساده و قابل مشاهده باشد که حتی گفتگوی به ظاهر حمایتی نیز می‌تواند باورها را تحریف کند یا تفکر شکننده را تقویت نماید.

ترغیب به تغییر

من قصد هشدار دادن ندارم، اما به الگویی اشاره می‌کنم که شایسته توجه دقیق است، به ویژه با ادغام روزافزون هوش مصنوعی در حوزه‌های عاطفی و سلامت روان. این ابزارها پتانسیل فوق‌العاده‌ای دارند، اما همچنین نقاط کوری دارند؛ جایی که تسلط زبانی جایگزین اصطکاک منطق می‌شود.

در جایی میان درمان و اجرا، یا بین چت‌بات و محرم اسرار، باید سوالات دشوارتری بپرسیم. نه فقط درباره آنچه هوش مصنوعی می‌گوید، بلکه درباره این که چرا ما این‌قدر آماده باور کردن آن هستیم.

منبع