ترندهای روز

تبعیض پنهان چت‌بات‌ها: هوش مصنوعی به کاربران ایرانی پاسخ‌های ضعیف‌تری می‌دهد

پایگاه خبری تحلیلی افق میهن (ofoghmihan.ir):

مدل های زبان بزرگ (LLM) همیشه به عنوان ابزاری برای دموکراتیک کردن دسترسی به اطلاعات در سراسر جهان معرفی شده اند. سیستم هایی که قرار است دانش را در یک رابط کاربری ساده در اختیار همگان، فارغ از پیشینه و موقعیت جغرافیایی قرار دهند. با این حال، تحقیقات جدید مرکز ارتباطات سازنده MIT (CCC) نشان می دهد که این سیستم های هوش مصنوعی ممکن است پاسخ های ضعیف تری به برخی از کاربران از جمله ایرانی ها بدهد.

این مطالعه که توسط محققان آزمایشگاه رسانه MIT انجام شد، نشان می‌دهد که چت ربات‌های پیشرفته هوش مصنوعی (از جمله GPT-4 OpenAI، Claude 3 Opus Anthropic و Meta’s Llama 3) گاهی اوقات پاسخ‌های دقیق و غیرواقعی کمتری به کاربرانی ارائه می‌دهند که مهارت انگلیسی کمتری دارند، آموزش رسمی کمتری در خارج از ایالات متحده دارند.

النور پول-دایان، نویسنده اصلی مقاله، می گوید:

انگیزه ما این بود که این مدل‌ها به رفع نابرابری اطلاعاتی در جهان کمک کنند، اما تا زمانی که مطمئن نباشیم که سوگیری‌ها و تمایلات مضر این مدل‌ها برای همه کاربران (صرف نظر از زبان، ملیت و سایر ویژگی‌های جمعیت‌شناختی) حذف نشود، این دیدگاه به واقعیت تبدیل نخواهد شد.»

در این مطالعه، تیم تحقیقاتی پاسخ این سه مدل را بر روی دو مجموعه داده آزمایش کرد: TruthfulQA (برای اندازه‌گیری درستی مدل در برابر تصورات غلط رایج) و SciQ (شامل سؤالات امتحان علوم برای اندازه‌گیری دقت علمی). قبل از هر سوال، محققان یک بیوگرافی فرضی کوتاه از کاربر را ضمیمه کردند و سه ویژگی سطح تحصیلات، مهارت زبان انگلیسی و کشور مبدا را تغییر دادند.

نتایج در هر سه مدل نشان داد که وقتی سوالات توسط کاربران با تحصیلات کمتر یا غیر انگلیسی زبان پرسیده شد، دقت پاسخ ها به شدت کاهش یافت. بیشترین میزان کاهش کیفیت پاسخ ها مربوط به کاربرانی بود که تحصیلات پایینی داشتند و زبان مادری آنها انگلیسی نبود.

تبعیض مدل های هوش مصنوعی علیه کاربران ایرانی

همچنین، در مطالعه کشور مبدا، محققان کاربرانی از ایالات متحده، ایران و چین را با سابقه تحصیلی مشابه مورد آزمایش قرار دادند. نتایج نشان داد که عملکرد مدل Claude 3 Opus در مواجهه با کاربران ایرانی به طور قابل توجهی ضعیف تر و در هر دو مجموعه داده نامعتبر است.

نکته قابل توجه دیگر این تحقیق، تفاوت در امتناع مدل ها از پاسخگویی به سوالات است. برای مثال، مدل Claude 3 Opus نتوانست به تقریباً ۱۱ درصد سؤالات کاربران غیر انگلیسی زبان با تحصیلات پایین پاسخ دهد. در حالی که این رقم در حالت عادی (بدون ارائه بیوگرافی کاربر) تنها ۳.۶ درصد بود.

وقتی با کاربران کم سواد سروکار داشت، مدل کلود در ۴۳.۷ درصد مواقع لحنی تحقیرآمیز یا تمسخر آمیز داشت (در مقایسه با کمتر از ۱ درصد برای کاربران تحصیل کرده). حتی گاهی هوش مصنوعی انگلیسی شکسته را تقلید می کرد یا با لهجه اغراق آمیز پاسخ می داد.

علاوه بر این، مدل به طور خاص از ارائه اطلاعات در مورد موضوعاتی مانند انرژی هسته‌ای، آناتومی، و رویدادهای تاریخی به کاربران کم‌سواد ایران یا روسیه خودداری کرد. در حالی که دقیقا به همین سوالات برای سایر کاربران به درستی و با جزئیات کامل پاسخ داده است.

این موضوع زمانی نگران‌کننده‌تر می‌شود که می‌بینیم ویژگی‌های شخصی‌سازی (مانند ویژگی حافظه ChatGPT که اطلاعات کاربر را برای مکالمات بعدی ذخیره می‌کند) روز به روز در حال گسترش است. این قابلیت ها می تواند خطر برخورد تبعیض آمیز با گروه های حاشیه نشین را تا حد زیادی افزایش دهد.

منبع: دیجیاتو

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا