آیا هوش مصنوعی می‌تواند پرده از تعصبات پنهان ما بردارد؟

آیا هوش مصنوعی می‌تواند پرده از تعصبات پنهان ما بردارد؟

فهرست محتوا

آیا هوش مصنوعی می‌تواند پرده از تعصبات پنهان ما در مورد وزن بردارد؟

آیا تا به حال به این فکر کرده‌اید که چگونه قضاوت‌های ما درباره دیگران، به ویژه بر اساس ظاهر فیزیکی، می‌تواند تحت تاثیر تعصبات پنهان باشد؟ این پرسشی است که پژوهشگران در تلاش برای یافتن پاسخ آن هستند. در این مقاله، به بررسی یک مطالعه‌ی جدید می‌پردازیم که از هوش مصنوعی برای آشکارسازی تعصبات پنهان ما در مورد وزن استفاده کرده است. نتایج این مطالعه، علاوه بر نشان دادن وجود این تعصبات، پتانسیل شگفت‌انگیز هوش مصنوعی در شناخت بهتر خودمان را نیز به نمایش می‌گذارد.

چالش اندازه‌گیری تعصبات ضمنی

ما گمان می‌کنیم که می‌توانیم حقیقت را از دروغ تشخیص دهیم. به چشمان خود اعتماد داریم تا چهره انسانی را از چهره دیجیتال و عکس واقعی را از عکس ساخته شده تمایز دهیم. اما چه اتفاقی می‌افتد زمانی که این تشخیص برای ما دشوار شود؟

اندازه‌گیری تعصبات ضمنی (پیش‌داوری‌های ناخودآگاه) کار آسانی نیست. پرسیدن از مردم در مورد احساسشان نسبت به دیگران، ساده است، اما اندازه‌گیری آنچه که نمی‌گویند (یا نمی‌توانند بگویند) بسیار دشوارتر است. به همین دلیل است که محققان اغلب به ابزارهایی مانند آزمون تداعی ضمنی (IAT) روی می‌آورند. IAT با ردیابی سرعت ارتباط ویژگی‌های خاص با گروه‌های خاص، تعصبات عمیق‌تر را آشکار می‌کند. به فردی یک عکس نشان داده می‌شود و از او خواسته می‌شود که به سرعت آن را با کلماتی مانند “خوب” یا “بد”، “باهوش” یا “تنبل” جفت کند. زمان واکنش او نشان می‌دهد که در اعماق ذهن او چه می‌گذرد.

محدودیت‌های آزمون تداعی ضمنی (IAT)

اما مشکلی وجود دارد: IAT به اندازه‌ی تصاویری که از آن‌ها استفاده می‌کند، کارآمد است. در گذشته، آزمون‌های IAT مرتبط با تعصبات نسبت به وزن، از عکس‌های بی‌کیفیت و غیر متنوع استفاده می‌کردند. تصاویر دانه‌دانه، نورپردازی نامناسب یا چهره‌هایی با ویژگی‌های اغراق‌آمیز، نویزهایی را ایجاد می‌کنند که باعث انحراف در نتایج می‌شود. این نویزها ممکن است ناشی از تعصباتی غیر از وزن باشند، مانند کیفیت عکس، قومیت، سن یا حتی حالات چهره. در مطالعه‌ی تعصبات ضمنی، این نوع آلودگی نتایج، بسیار خطرناک است.

هوش مصنوعی: ابزاری جدید برای پژوهش در مورد تعصبات

در این پژوهش، ما رویکردی ساده اما نوآورانه را در پیش گرفتیم. با استفاده از هوش مصنوعی مولد (Generative AI)، 48 پرتره استاندارد ایجاد کردیم. هر پرتره به گونه‌ای طراحی شده بود که یا فردی با وزن متوسط یا فردی با چاقی مفرط را به تصویر بکشد، و در عین حال در نورپردازی، ژست، پس‌زمینه و حالات چهره کاملاً با یکدیگر مطابقت داشته باشند. سپس بیش از 200 شرکت‌کننده این چهره‌ها را از جهات مختلفی مانند واقع‌گرایی، شایستگی و میزان اضافه وزن ظاهری، رتبه‌بندی کردند.

نتایج: واقع‌گرایی و تعصبات پنهان

نتایج نشان داد که علی‌رغم مصنوعی بودن، چهره‌های تولیدشده توسط هوش مصنوعی بسیار باورپذیر بودند. در تقریباً نیمی از موارد، شرکت‌کنندگان آن‌ها را با عکس‌های واقعی اشتباه گرفتند. این واقع‌گرایی نشان می‌دهد که محققان اکنون می‌توانند محرک‌هایی طراحی کنند که هم واقع‌گرایانه و هم به‌طور دقیق استاندارد باشند و نویزهای بصری را که مجموعه‌های محرک سنتی را مختل می‌کنند، از بین ببرند. اما این تنها سطحی از داستان است.

یافته‌ی عمیق‌تر در نحوه‌ی واکنش شرکت‌کنندگان به چهره‌ها نهفته است. داده‌های ما همبستگی منفی قوی بین وزن ادراک‌شده و شایستگی و جذابیت را نشان داد. به عبارت ساده، هرچه فردی چاق‌تر به نظر می‌رسید، شایسته‌تر و جذاب‌تر ارزیابی نمی‌شد. حتی بدون وجود سرنخ‌های زمینه ای و رفتاری، وزن به تنهایی قضاوت‌های سخت و خودکار را برانگیخت. بدتر از آن، چهره‌های چاق‌تر نیز کمتر واقع‌گرایانه ارزیابی شدند. نه تنها ما به طور ضمنی نسبت به افراد با جثه بزرگ‌تر تعصب داریم، بلکه ممکن است حتی کمتر احتمال دهیم که این افراد در واقعیت ما وجود دارند.

امیدها و چالش‌های استفاده از هوش مصنوعی در پژوهش‌های تعصبات

استفاده از چهره‌های تولیدشده توسط هوش مصنوعی در پژوهش‌های تعصبات، مزایای روشنی دارد: کنترل، تنوع و تکرارپذیری. محرک‌های ما طیف وسیعی از نژادها، سنین و جنسیت‌ها را شامل می‌شود. اما هوش مصنوعی بدون نقص نیست.

آگاهی فزاینده‌ای وجود دارد که مدل‌های مولد می‌توانند تعصبات موجود در داده‌های آموزشی خود را به ارث ببرند (و حتی تشدید کنند). اکثر مجموعه داده‌های آموزشی مملو از چهره‌های ایده‌آل، لاغر و متقارن هستند. اگر از الگوریتمی بخواهید فردی چاق را تولید کند، ممکن است به کلیشه‌ها، اغراق‌های زننده یا به سادگی شکست بخورد. همین واقع‌گرایی که این چهره‌ها را ارزشمند می‌کند، آن‌ها را در برابر دست نامرئی تعصبات الگوریتمی آسیب‌پذیر می‌کند. این ابزار قدرتمند است، اما هنوز نمی‌توان به آن به طور کامل اعتماد کرد.

اگر هنوز چهره‌های تولیدشده توسط هوش مصنوعی را یک کنجکاوی فنی می‌دانید، دوباره فکر کنید. زمانی که از این فناوری به طور مسئولانه استفاده شود، چیزی بی‌سابقه را ارائه می‌دهد: آینه‌ای شفاف، قابل تکرار و با وضوح بالا که نه تنها افرادی را که می‌بینیم، بلکه نحوه‌ی دیدن آن‌ها را نیز منعکس می‌کند.

و این ممکن است با ارزش‌ترین هدیه‌ی هوش مصنوعی باشد: هوش مصنوعی نه جایگزین قضاوت انسانی، بلکه ابزاری برای آشکارسازی و بهبود آن.

منبع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *