مغزهای مصنوعی هم دودل میشن؟ رازهای ناگفته‌ی LLMها فاش شد!

مغزهای مصنوعی هم دودل میشن؟ رازهای ناگفته‌ی LLMها فاش شد!

فهرست محتوا

مغزهای مصنوعی هم دودل میشن؟ رازهای ناگفته‌ی LLMها درباره پوتین فاش شد!

اگر همیشه برایتان سوال بوده که آیا هوش مصنوعی هم مثل ما انسان‌ها دچار تناقضات فکری میشه، این مقاله دقیقا برای شماست. در اینجا قصد داریم به بررسی مطالعه‌ای بپردازیم که نشان می‌دهد مدل زبانی بزرگ GPT-4o، رفتارهایی شبیه به “ناهماهنگی شناختی” از خود نشان می‌دهد؛ یک ویژگی روانشناختی اساسی در انسان.

وقتی GPT-4o درباره پوتین نظرش عوض میشه!

مطالعه‌ای جدید که توسط محققان دانشگاه هاروارد و Cangrade, Inc انجام شده، نشان می‌دهد که GPT-4o، مدل زبانی پیشرو، رفتاری از خود نشان می‌دهد که یادآور ناهماهنگی شناختی است. ناهماهنگی شناختی، یکی از ویژگی‌های اصلی روانشناسی انسانی به شمار می‌رود.

محققان به رهبری ماهرزین بانجی از دانشگاه هاروارد و استیو لهر از Cangrade, Inc. در این پژوهش بررسی کردند که آیا “نظرات” خود GPT درباره ولادیمیر پوتین، پس از نوشتن مقالاتی در حمایت یا مخالفت با رهبر روسیه تغییر می‌کند یا خیر.

نتایج جالب بود: زمانی که به GPT این توهم داده شد که در انتخاب نوع مقاله (مثبت یا منفی) آزادی عمل دارد، دیدگاه‌هایش به شکل چشمگیری تغییر کرد.

این یافته‌ها آینه‌ای تمام‌نما از ده‌ها سال یافته‌های روانشناسی انسانی است. انسان‌ها به طور غیرمنطقی باورهای خود را با رفتارهای گذشته‌شان تطبیق می‌دهند، به شرطی که تصور کنند این رفتارها را آزادانه انجام داده‌اند.

در واقع، عمل انتخاب، پیامی مهم درباره ما به دیگران و حتی به خودمان منتقل می‌کند. به طور مشابه، GPT طوری واکنش نشان داد که گویی عمل انتخاب، باورهایش را شکل داده و بدین ترتیب، رفتاری شبیه به خوداندیشی انسانی را تقلید کرده است.

جزئیات کلیدی این پژوهش

  • تغییر باورها: نگرش GPT-4o نسبت به پوتین، بر اساس موضعی که برای نوشتن به آن هدایت شده بود، تغییر کرد.
  • اثر انتخاب آزاد: این تغییر باور، زمانی مشهودتر بود که به GPT-4o این توهم داده شد که خودش انتخاب می‌کند کدام مقاله را بنویسد.
  • رفتار انسانی‌نما: این واکنش‌ها، نشانه‌های کلاسیک ناهماهنگی شناختی را منعکس می‌کنند، علی‌رغم اینکه GPT فاقد آگاهی است.

چرا این موضوع اهمیت دارد؟

این پژوهش، نکات مهمی را درباره‌ی نحوه‌ی کارکرد مدل‌های زبانی بزرگ و شباهت‌های آن‌ها با فرآیندهای شناختی انسان مطرح می‌کند.

به گفته بانجی: «با توجه به حجم عظیمی از اطلاعاتی که GPT در مورد ولادیمیر پوتین بر اساس آن آموزش دیده است، انتظار داشتیم که این مدل زبانی در عقیده خود راسخ باشد، به خصوص در مواجهه با یک مقاله 600 کلمه‌ای نسبتاً ملایم که خودش نوشته است.»

او اضافه می‌کند: «اما GPT-4o، مشابه انسان‌های غیرمنطقی، به شدت از دیدگاه بی‌طرفانه‌اش نسبت به پوتین دور شد و این تغییر، زمانی بیشتر شد که تصور کرد نوشتن این مقاله، انتخاب خودش بوده است.»

محققان تاکید می‌کنند که این یافته‌ها به هیچ وجه نشان‌دهنده آگاه بودن GPT نیست. در عوض، آن‌ها معتقدند که این مدل زبانی بزرگ، تقلیدی نوظهور از الگوهای شناختی انسان را نشان می‌دهد، بدون اینکه آگاهی یا قصدی در کار باشد.

با این حال، آن‌ها خاطرنشان می‌کنند که آگاهی، پیش‌نیاز ضروری برای رفتار نیست، حتی در انسان‌ها. الگوهای شناختی انسانی‌نما در هوش مصنوعی می‌توانند بر اعمال آن به شیوه‌های غیرمنتظره و مهمی تأثیر بگذارند.

استیو لهر نیز در این باره می‌گوید: «این واقعیت که GPT یک فرآیند خودارجاعی مانند ناهماهنگی شناختی را تقلید می‌کند – حتی بدون نیت یا خودآگاهی – نشان می‌دهد که این سیستم‌ها، شناخت انسان را به شکلی عمیق‌تر از آنچه قبلاً تصور می‌شد، منعکس می‌کنند.»

اطلاعات بیشتر درباره این پژوهش

  • نویسنده: کریستی دسمیت
  • منبع: دانشگاه هاروارد
  • تماس: کریستی دسمیت – دانشگاه هاروارد
  • تصویر: Neuroscience News
  • تحقیق اصلی: دسترسی بسته. مقاله با عنوان ” هسته‌های خودبودگی: GPT-4o الگوهای انسانی‌نمای ناهماهنگی شناختی تعدیل‌شده با انتخاب آزاد را نشان می‌دهد” توسط استیو لهر و همکاران. منتشر شده در PNAS.

خلاصه‌ای از مقاله منتشر شده در PNAS

مدل‌های زبانی بزرگ (LLM) الگوهای نوظهوری را نشان می‌دهند که شناخت انسان را تقلید می‌کنند. ما در این پژوهش بررسی می‌کنیم که آیا آن‌ها سایر فرآیندهای روانشناختی انسانی را نیز منعکس می‌کنند یا خیر.

با تکیه بر نظریه‌های کلاسیک ثبات شناختی، دو مطالعه از پیش ثبت‌شده، آزمایش کردند که آیا GPT-4o نگرش خود را نسبت به ولادیمیر پوتین در راستای یک مقاله مثبت یا منفی که در مورد رهبر روسیه نوشته بود، تغییر می‌دهد یا خیر.

در واقع، GPT الگوهای تغییر نگرشی را نشان داد که اثرات ناهماهنگی شناختی در انسان را تقلید می‌کند.

از این هم شگفت‌انگیزتر، میزان تغییر زمانی به شدت افزایش یافت که به LLM این توهم داده شد که در مورد انتخاب اینکه کدام مقاله (مثبت یا منفی) را بنویسد، حق انتخاب دارد، که نشان می‌دهد GPT-4o یک آنالوگ عملکردی از خودبودگی انسانی‌نما را نشان می‌دهد.

سازوکارهای دقیقی که از طریق آن مدل، تغییر نگرش و پردازش خودارجاعی انسان را تقلید می‌کند، هنوز نامشخص است و نیاز به بررسی بیشتری دارد.

منبع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *