تبعیض پنهان چتباتها: هوش مصنوعی به کاربران ایرانی پاسخهای ضعیفتری میدهد

مدل های زبان بزرگ (LLM) همیشه به عنوان ابزاری برای دموکراتیک کردن دسترسی به اطلاعات در سراسر جهان معرفی شده اند. سیستم هایی که قرار است دانش را در یک رابط کاربری ساده در اختیار همگان، فارغ از پیشینه و موقعیت جغرافیایی قرار دهند. با این حال، تحقیقات جدید مرکز ارتباطات سازنده MIT (CCC) نشان می دهد که این سیستم های هوش مصنوعی ممکن است پاسخ های ضعیف تری به برخی از کاربران از جمله ایرانی ها بدهد.
این مطالعه که توسط محققان آزمایشگاه رسانه MIT انجام شد، نشان میدهد که چت رباتهای پیشرفته هوش مصنوعی (از جمله GPT-4 OpenAI، Claude 3 Opus Anthropic و Meta’s Llama 3) گاهی اوقات پاسخهای دقیق و غیرواقعی کمتری به کاربرانی ارائه میدهند که مهارت انگلیسی کمتری دارند، آموزش رسمی کمتری در خارج از ایالات متحده دارند.
النور پول-دایان، نویسنده اصلی مقاله، می گوید:
انگیزه ما این بود که این مدلها به رفع نابرابری اطلاعاتی در جهان کمک کنند، اما تا زمانی که مطمئن نباشیم که سوگیریها و تمایلات مضر این مدلها برای همه کاربران (صرف نظر از زبان، ملیت و سایر ویژگیهای جمعیتشناختی) حذف نشود، این دیدگاه به واقعیت تبدیل نخواهد شد.»
در این مطالعه، تیم تحقیقاتی پاسخ این سه مدل را بر روی دو مجموعه داده آزمایش کرد: TruthfulQA (برای اندازهگیری درستی مدل در برابر تصورات غلط رایج) و SciQ (شامل سؤالات امتحان علوم برای اندازهگیری دقت علمی). قبل از هر سوال، محققان یک بیوگرافی فرضی کوتاه از کاربر را ضمیمه کردند و سه ویژگی سطح تحصیلات، مهارت زبان انگلیسی و کشور مبدا را تغییر دادند.
نتایج در هر سه مدل نشان داد که وقتی سوالات توسط کاربران با تحصیلات کمتر یا غیر انگلیسی زبان پرسیده شد، دقت پاسخ ها به شدت کاهش یافت. بیشترین میزان کاهش کیفیت پاسخ ها مربوط به کاربرانی بود که تحصیلات پایینی داشتند و زبان مادری آنها انگلیسی نبود.
تبعیض مدل های هوش مصنوعی علیه کاربران ایرانی
همچنین، در مطالعه کشور مبدا، محققان کاربرانی از ایالات متحده، ایران و چین را با سابقه تحصیلی مشابه مورد آزمایش قرار دادند. نتایج نشان داد که عملکرد مدل Claude 3 Opus در مواجهه با کاربران ایرانی به طور قابل توجهی ضعیف تر و در هر دو مجموعه داده نامعتبر است.
نکته قابل توجه دیگر این تحقیق، تفاوت در امتناع مدل ها از پاسخگویی به سوالات است. برای مثال، مدل Claude 3 Opus نتوانست به تقریباً ۱۱ درصد سؤالات کاربران غیر انگلیسی زبان با تحصیلات پایین پاسخ دهد. در حالی که این رقم در حالت عادی (بدون ارائه بیوگرافی کاربر) تنها ۳.۶ درصد بود.
وقتی با کاربران کم سواد سروکار داشت، مدل کلود در ۴۳.۷ درصد مواقع لحنی تحقیرآمیز یا تمسخر آمیز داشت (در مقایسه با کمتر از ۱ درصد برای کاربران تحصیل کرده). حتی گاهی هوش مصنوعی انگلیسی شکسته را تقلید می کرد یا با لهجه اغراق آمیز پاسخ می داد.
علاوه بر این، مدل به طور خاص از ارائه اطلاعات در مورد موضوعاتی مانند انرژی هستهای، آناتومی، و رویدادهای تاریخی به کاربران کمسواد ایران یا روسیه خودداری کرد. در حالی که دقیقا به همین سوالات برای سایر کاربران به درستی و با جزئیات کامل پاسخ داده است.
این موضوع زمانی نگرانکنندهتر میشود که میبینیم ویژگیهای شخصیسازی (مانند ویژگی حافظه ChatGPT که اطلاعات کاربر را برای مکالمات بعدی ذخیره میکند) روز به روز در حال گسترش است. این قابلیت ها می تواند خطر برخورد تبعیض آمیز با گروه های حاشیه نشین را تا حد زیادی افزایش دهد.
منبع: دیجیاتو










