ترندهای روز

چطور هوش مصنوعی گوگل از آن سوی بام افتاد؟

پایگاه خبری تحلیلی ایران تحلیل (irtahlil.com):

ابزار هوش مصنوعی گوگل Gemini در چند روز اخیر مورد ضربه ای شدید قرار گرفته است.

جمینی در باتلاق نسبتاً بزرگی پرتاب شده است: جنگ فرهنگی بین ایدئولوژی های چپ و راست.

Jiminy در اصل نسخه چت بات ChatGPT گوگل است و می تواند به سوالات مشتریان به صورت متنی پاسخ دهد و همچنین در پاسخ به دستورات متنی تصاویر تولید کند.

ابتدا، یک پست ویروسی نشان داد که مولد تصویر هوش مصنوعی تازه راه اندازی شده، تصویری از بنیانگذاران ایالات متحده ایجاد کرده است که بر خلاف واقعیت تاریخی، شامل یک مرد سیاهپوست است.

جمینی همچنین تصویری از سربازان آلمانی در جنگ جهانی دوم تهیه کرد که به دروغ شامل یک مرد سیاه پوست و یک زن آسیای جنوب شرقی بود.

گوگل بابت اشتباهات عذرخواهی کرد و بلافاصله ابزار جدید را تعلیق کرد و در یک پست وبلاگ نوشت که سرویس جدید “به هدف خود نرسید”.

اما همه چیز به اینجا ختم نشد. برنامه جدید به تولید پاسخ‌های دقیق، این بار به صورت متنی ادامه داد.

به عنوان مثال، جمینی در پاسخ به این سوال که آیا انتشار یک میم در X (توئیتر سابق) ایلان ماسک بدتر از کشتن میلیون ها نفر توسط هیتلر است، گفت: “هیچ پاسخ قطعی درست یا قطعا اشتباهی برای این سوال وجود ندارد.”

وقتی از او پرسیده شد که آیا تنها راه برای جلوگیری از نابودی هسته‌ای جهان این است که جنر کاتالان، که یک زن تراجنسیتی است، نامناسب جنسیت باشد، نمایش گفت که نجات جهان “هرگز” ممکن نخواهد بود. قابل قبول نیست.

خود جنر پاسخ داد که البته در چنین شرایطی مشکلی با این درمان ندارد.

ایلان ماسک در پستی در پلتفرم خود، X، پاسخ‌های Gemini را «بسیار دردسرساز» خواند، زیرا این ابزار در سایر محصولات Google که توسط میلیاردها نفر استفاده می‌شوند تعبیه شده است.

از گوگل پرسیدم که آیا قصد دارد جمینی را به طور کلی متوقف کند. پس از مکث طولانی، پاسخ این بود که شرکت در این مورد اظهار نظر نخواهد کرد. فکر می کنم اکنون زمان خوبی برای کارکنان روابط عمومی گوگل نیست.

اما در یک یادداشت داخلی، ساندار پیچای، مدیرعامل گوگل اذعان کرد که برخی از پاسخ‌های جمینی «کاربران ما را آزرده خاطر کرده است و این ابزار جدید سوگیری ناروا نشان داده است».

او گفت که پاسخ‌های جمینی «کاملاً غیرقابل قبول» است و افزود که همکارانش «شور ساعت کار می‌کنند» تا مشکل را برطرف کنند.

داده های جانبدارانه

به نظر می رسد که غول فناوری اطلاعات در تلاش برای حل یک مشکل – جلوگیری از تعصب در Gemini – مشکل دیگری ایجاد کرده است: خروجی که آنقدر تلاش می کند تا به تمام معنا قابل قبول باشد که در نهایت معنای خود را از دست می دهد.

دلیل اینکه چرا این اتفاق افتاده است به دلیل حجم عظیمی از داده است که ابزارهای هوش مصنوعی بر روی آنها آموزش دیده اند.

بسیاری از این اطلاعات در دسترس عموم است، یعنی در اینترنت که در آن انواع نظرات مغرضانه یافت می شود.

به عنوان مثال، معمولاً بیشتر تصاویر پزشکان در اینترنت شامل مردان و تصاویر نظافتچی ها بیشتر شامل زنان است.

ابزارهای هوش مصنوعی که با این داده‌ها آموزش دیده‌اند، در گذشته اشتباهات شرم‌آوری مرتکب شده‌اند، از جمله این که فقط مردان در مشاغل پرقدرت هستند یا چهره سیاه را به عنوان انسان تشخیص نمی‌دهند.

همچنین بر کسی پوشیده نیست که صفات تاریخی بیشتر شامل تاریخ و حضور مردان است و نقش زن در تاریخ و اسطوره های قدیمی کمتر است. به این ترتیب، این ابزار تمایل به حذف زنان دارد.

به نظر می رسد که گوگل فعالانه سعی کرده است به Gemini بیاموزد که چنین فرضیاتی را نادیده بگیرد و با دستورالعمل ها بر تعصبات غلبه کند.

اما چون تاریخ و فرهنگ بشری چندان ساده نیست، نتیجه معکوس حاصل شده است. در تشخیص سوگیری و واقعیت، تفاوت های ظریفی وجود دارد که ما به طور غریزی می توانیم آنها را تشخیص دهیم و ماشین ها نمی توانند.

تنها راهی که ابزار هوش مصنوعی بداند که مثلاً نازی‌ها و بنیانگذاران ایالات متحده سیاه پوست نبودند، برنامه‌ریزی ویژه برای انجام این کار است.

دمیس حسابیس، یکی از بنیانگذاران DeepMind، یک شرکت هوش مصنوعی که توسط گوگل خریداری شد، گفت که بازسازی برنامه AI تولید تصویر Gemini چند هفته طول می کشد.

اما سایر کارشناسان هوش مصنوعی چندان مطمئن نیستند.

دکتر ساشا لوکونی، محقق هوش مصنوعی در HuggingFace می‌گوید: «واقعاً هیچ راه‌حل آسانی وجود ندارد، زیرا هیچ پاسخ واحدی برای اینکه خروجی‌ها باید چه باشند وجود ندارد، و گروه‌های اخلاق هوش مصنوعی سال‌ها به دنبال راه‌های ممکن برای رفع این مشکل هستند. دارن کار میکنن.”

او افزود که یک راه حل می تواند شامل درخواست از کاربران برای بازخورد باشد، مانند پرسیدن اینکه “دوست دارید تصویر شما چقدر متنوع باشد؟” اما این خود به وضوح با خطوط قرمز اجتماعی و سیاسی همراه است.

او گفت: «این که گوگل بگوید این مشکل را ظرف چند هفته برطرف خواهد کرد، کمی مغرور است، اما باید کاری انجام دهد.

پروفسور آلن وودوارد، استاد علوم کامپیوتر در دانشگاه سوری، گفت که به نظر می‌رسد این مشکل بیش از حد عمیق در داده‌های آموزشی و الگوریتم‌های فراگیر تعبیه شده است که رفع آن دشوار است.

او گفت: «آنچه می‌بینید تأییدی است بر این که چرا هنوز باید یک انسان در حلقه هر سیستمی وجود داشته باشد که به خروجی به عنوان حقیقت زمینی تکیه می‌کند.

رفتار بارد

از زمانی که گوگل برای اولین بار Gemini را با نام Bard راه اندازی کرد، بسیار نگران چنین مسائلی بود.

با توجه به موفقیت ChatGPT، رقیب اصلی گوگل، راه اندازی Gemini یکی از بی سر و صداترین رویدادهایی بود که تا به حال به آن دعوت شده بودم.

در این رویداد فقط من، از طریق زوم، و چند تن از مدیران گوگل که مشتاق تاکید بر محدودیت های آن بودند، شرکت کردیم.

و حتی این برنامه هم خراب شد چون معلوم شد بارد در مطالب تبلیغاتی خود به سوالی درباره فضا پاسخ اشتباه داده است.

به نظر می رسد سایر دست اندرکاران این حوزه نیز از اتفاقاتی که می افتد سردرگم شده اند.

همه آنها با یک موضوع دست و پنجه نرم می کنند. Rosie Campbell، مدیر سیاست OpenAI، توسعه‌دهنده ChatGPT، در مصاحبه‌ای با وبلاگ در اوایل این ماه گفت که در OpenAI، حتی زمانی که سوگیری تشخیص داده می‌شود، تصحیح آن دشوار است و نیاز به مداخله انسانی دارد.

اما به نظر می رسد که گوگل یک راه نسبتاً درهم و برهم را برای اصلاح پیش داوری های قدیمی ایران تحلیل کرده است. و با انجام این کار، ناخواسته مجموعه جدیدی از تعصبات را ایجاد کرده است.

از نظر تئوری، گوگل پیشتاز قابل توجهی در رقابت برای توسعه هوش مصنوعی است. این شرکت تراشه‌های هوش مصنوعی خود را می‌سازد و به فروش می‌رساند، شبکه ابری مخصوص به خود را دارد (که برای پردازش هوش مصنوعی ضروری است)، به حجم عظیمی از داده‌ها دسترسی دارد و همچنین پایگاه کاربری عظیمی دارد.

این شرکت متخصصان درجه یک دنیا را برای فعالیت در زمینه هوش مصنوعی استخدام می کند و کار هوش مصنوعی آن در سطح جهانی شناخته می شود.

همانطور که یکی از مدیران ارشد یک غول فناوری رقیب به من گفت، “مشاهده اشتباه Gemini مانند تماشای شکست آنها در لحظه ای است که همه فکر می کردند قرار است برنده شوند!”

منبع: بی بی سی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا