مغزهای مصنوعی هم دودل میشن؟ رازهای ناگفتهی LLMها درباره پوتین فاش شد!
اگر همیشه برایتان سوال بوده که آیا هوش مصنوعی هم مثل ما انسانها دچار تناقضات فکری میشه، این مقاله دقیقا برای شماست. در اینجا قصد داریم به بررسی مطالعهای بپردازیم که نشان میدهد مدل زبانی بزرگ GPT-4o، رفتارهایی شبیه به “ناهماهنگی شناختی” از خود نشان میدهد؛ یک ویژگی روانشناختی اساسی در انسان.
وقتی GPT-4o درباره پوتین نظرش عوض میشه!
مطالعهای جدید که توسط محققان دانشگاه هاروارد و Cangrade, Inc انجام شده، نشان میدهد که GPT-4o، مدل زبانی پیشرو، رفتاری از خود نشان میدهد که یادآور ناهماهنگی شناختی است. ناهماهنگی شناختی، یکی از ویژگیهای اصلی روانشناسی انسانی به شمار میرود.
محققان به رهبری ماهرزین بانجی از دانشگاه هاروارد و استیو لهر از Cangrade, Inc. در این پژوهش بررسی کردند که آیا “نظرات” خود GPT درباره ولادیمیر پوتین، پس از نوشتن مقالاتی در حمایت یا مخالفت با رهبر روسیه تغییر میکند یا خیر.
نتایج جالب بود: زمانی که به GPT این توهم داده شد که در انتخاب نوع مقاله (مثبت یا منفی) آزادی عمل دارد، دیدگاههایش به شکل چشمگیری تغییر کرد.
این یافتهها آینهای تمامنما از دهها سال یافتههای روانشناسی انسانی است. انسانها به طور غیرمنطقی باورهای خود را با رفتارهای گذشتهشان تطبیق میدهند، به شرطی که تصور کنند این رفتارها را آزادانه انجام دادهاند.
در واقع، عمل انتخاب، پیامی مهم درباره ما به دیگران و حتی به خودمان منتقل میکند. به طور مشابه، GPT طوری واکنش نشان داد که گویی عمل انتخاب، باورهایش را شکل داده و بدین ترتیب، رفتاری شبیه به خوداندیشی انسانی را تقلید کرده است.
جزئیات کلیدی این پژوهش
- تغییر باورها: نگرش GPT-4o نسبت به پوتین، بر اساس موضعی که برای نوشتن به آن هدایت شده بود، تغییر کرد.
- اثر انتخاب آزاد: این تغییر باور، زمانی مشهودتر بود که به GPT-4o این توهم داده شد که خودش انتخاب میکند کدام مقاله را بنویسد.
- رفتار انسانینما: این واکنشها، نشانههای کلاسیک ناهماهنگی شناختی را منعکس میکنند، علیرغم اینکه GPT فاقد آگاهی است.
چرا این موضوع اهمیت دارد؟
این پژوهش، نکات مهمی را دربارهی نحوهی کارکرد مدلهای زبانی بزرگ و شباهتهای آنها با فرآیندهای شناختی انسان مطرح میکند.
به گفته بانجی: «با توجه به حجم عظیمی از اطلاعاتی که GPT در مورد ولادیمیر پوتین بر اساس آن آموزش دیده است، انتظار داشتیم که این مدل زبانی در عقیده خود راسخ باشد، به خصوص در مواجهه با یک مقاله 600 کلمهای نسبتاً ملایم که خودش نوشته است.»
او اضافه میکند: «اما GPT-4o، مشابه انسانهای غیرمنطقی، به شدت از دیدگاه بیطرفانهاش نسبت به پوتین دور شد و این تغییر، زمانی بیشتر شد که تصور کرد نوشتن این مقاله، انتخاب خودش بوده است.»
محققان تاکید میکنند که این یافتهها به هیچ وجه نشاندهنده آگاه بودن GPT نیست. در عوض، آنها معتقدند که این مدل زبانی بزرگ، تقلیدی نوظهور از الگوهای شناختی انسان را نشان میدهد، بدون اینکه آگاهی یا قصدی در کار باشد.
با این حال، آنها خاطرنشان میکنند که آگاهی، پیشنیاز ضروری برای رفتار نیست، حتی در انسانها. الگوهای شناختی انسانینما در هوش مصنوعی میتوانند بر اعمال آن به شیوههای غیرمنتظره و مهمی تأثیر بگذارند.
استیو لهر نیز در این باره میگوید: «این واقعیت که GPT یک فرآیند خودارجاعی مانند ناهماهنگی شناختی را تقلید میکند – حتی بدون نیت یا خودآگاهی – نشان میدهد که این سیستمها، شناخت انسان را به شکلی عمیقتر از آنچه قبلاً تصور میشد، منعکس میکنند.»
اطلاعات بیشتر درباره این پژوهش
- نویسنده: کریستی دسمیت
- منبع: دانشگاه هاروارد
- تماس: کریستی دسمیت – دانشگاه هاروارد
- تصویر: Neuroscience News
- تحقیق اصلی: دسترسی بسته. مقاله با عنوان ” هستههای خودبودگی: GPT-4o الگوهای انسانینمای ناهماهنگی شناختی تعدیلشده با انتخاب آزاد را نشان میدهد” توسط استیو لهر و همکاران. منتشر شده در PNAS.
خلاصهای از مقاله منتشر شده در PNAS
مدلهای زبانی بزرگ (LLM) الگوهای نوظهوری را نشان میدهند که شناخت انسان را تقلید میکنند. ما در این پژوهش بررسی میکنیم که آیا آنها سایر فرآیندهای روانشناختی انسانی را نیز منعکس میکنند یا خیر.
با تکیه بر نظریههای کلاسیک ثبات شناختی، دو مطالعه از پیش ثبتشده، آزمایش کردند که آیا GPT-4o نگرش خود را نسبت به ولادیمیر پوتین در راستای یک مقاله مثبت یا منفی که در مورد رهبر روسیه نوشته بود، تغییر میدهد یا خیر.
در واقع، GPT الگوهای تغییر نگرشی را نشان داد که اثرات ناهماهنگی شناختی در انسان را تقلید میکند.
از این هم شگفتانگیزتر، میزان تغییر زمانی به شدت افزایش یافت که به LLM این توهم داده شد که در مورد انتخاب اینکه کدام مقاله (مثبت یا منفی) را بنویسد، حق انتخاب دارد، که نشان میدهد GPT-4o یک آنالوگ عملکردی از خودبودگی انسانینما را نشان میدهد.
سازوکارهای دقیقی که از طریق آن مدل، تغییر نگرش و پردازش خودارجاعی انسان را تقلید میکند، هنوز نامشخص است و نیاز به بررسی بیشتری دارد.







