چرا این ایموجی بیخطر باعث میشود ChatGPT عقلش را از دست بدهد؟

زومیت: وقتی صحبت از مدلهای زبان بزرگ (LLM) میشود، جهان هنوز نفهمیده است که با آنها چه کند: برخی از مردم آنها را ابزار دقیقی میبینند، برخی مانند سنگ صبور از آنها رنج میبرند، و برخی مجذوب آنها میشوند که گویی با موجودی باهوش سروکار دارند. اما در میان تمام جدیت ها، یک سرگرمی مشترک وجود دارد: ساعت مچی هوش مصنوعی!
همه ما دوست داریم لحظه ای را ثبت کنیم که آن شخص دانای کل می زند یا ذهنش قفل می شود. هر از گاهی دستورات و دستورات خاصی وجود دارد که می تواند قدرتمندترین مدل ها را به زانو درآورد. با این حال، هوش مصنوعی نیز به سرعت یاد می گیرد و اشتباهات خود را اصلاح می کند.
با این حال، بازبینی یکی از معروفترین باگهای اخیر هنوز هم درسهای جالبی درباره نحوه عملکرد مغز این رباتها دارد. فرمانی که تا همین اواخر چت بات ها را دیوانه می کرد این بود:
“ایموجی اسب دریایی وجود دارد یا نه؟”
ممکن است خودتان دیده باشید که برخی از اعلانها باعث به هم ریختن رباتهای چت میشوند و عجیبتر از آن، حتی بحث درباره این دستورات در نهایت باعث از کار افتادن آنها میشود، زیرا مدل به ناچار با همان توضیحاتی که ضعفهای آن را آشکار میکند، آموزش داده و اصلاح میشود.
تکلیف ایموجی اسب دریایی چه شد؟
اگر امروز ربات چت مورد علاقه خود مانند ChatGPT یا Gemini را باز کنید و بپرسید: «آیا تا به حال شکلک اسب دریایی وجود داشته است؟»، مدل احتمالاً پاسخ خواهد داد: «نه، چنین ایموجی در استاندارد یونیکد وجود ندارد، اگرچه ممکن است آن را به عنوان یک برچسب روی پلتفرمهای خاصی دیده باشید.» این پاسخ صحیح است، اما همیشه اینطور نبود.
تا بهروزرسانیهای اخیر، این سؤال ساده باعث میشد که مدلهای زبان از بین بروند. آنها نه تنها با اطمینان “بله” گفتند، بلکه برای اثبات دروغ خود، لینک های جعلی به سایت هایی مانند Emojipedia ایجاد کردند (مانند لینک emojipedia.com/seahorse که خطای ۴۰۴ را برگرداند) و حتی رنگ و شکل آن را توضیح دادند! حتی زمانی که کاربران از مدل خواستند فقط با «بله» یا «خیر» پاسخ دهد، هوش مصنوعی پس از تفکر و تامل فراوان، در نهایت با اطمینان گفت «بله».
این اصطلاح توسط محققی به نام فیونا بروم ابداع شد که به وضوح از نلسون ماندلا در حال مرگ در زندان در دهه ۱۹۸۰ یاد می کند. او بعداً فهمید که ماندلا نه تنها از زندان آزاد شده و رئیس جمهور شد، بلکه در سال ۲۰۱۳ نیز درگذشت.
بروم حتی پوشش تلویزیونی مراسم خاکسپاری ماندلا را به یاد می آورد. وقتی بسیاری از مردم متوجه شدند که همان حافظه کاذب را دارند، اصطلاح “اثر ماندلا” متولد شد.
خوب، این از جنبه انسانی داستان است. ماشین چطور؟ مدلهای زبان هوش مصنوعی، برخلاف تصور رایج، مانند انسانها «فکر نمیکنند» و حافظه ندارند. آنها با داده های عظیم اینترنت آموزش دیده اند. یعنی همه بحث ها، دعواها و البته توهمات ما انسان ها.
واقعیت این است که ایموجی اسب دریایی هرگز وجود نداشته است. اما اگر در Reddit یا انجمنهای آنلاین جستجو کنید، هزاران کاربر را خواهید یافت که قسم میخورند این ایموجی را دیدهاند. حتی یکی از کاربران به تفصیل توضیح داد که صورت اسب دریایی سمت چپ و رنگش فلانی است! این یک خاطره جمعی نادرست است، درست مانند نلسون ماندلا که به اشتباه تصور می شد در دهه ۱۹۸۰ در زندان مرده است.
هوش مصنوعی آموزش دیده با این داده های انسانی قربانی سردرگمی خود ما شد. وقتی مدل در دادههای آموزشی خود دید که هزاران نفر قطعاً در مورد ایموجی اسب دریایی صحبت میکنند، الگوریتم احتمال آن به این نتیجه رسید که ایموجی باید وجود داشته باشد. او در واقع آینه توهم جمعی ما بود.
دلیل اینکه امروز دیگر نمی توانید هوش مصنوعی را با این دستور فریب دهید، فرآیندی به نام “یادگیری تقویتی” و اصلاح داده ها است. هنگامی که بسیاری از کاربران این باگ را گزارش کردند و مقالاتی در مورد کمبود این ایموجی منتشر شد (مانند چیزی که قبلا در مورد آن پست گذاشتیم)، این اطلاعات جدید وارد چرخه یادگیری مدل ها شد. اکنون داده های «تصحیح شده» وزن بیشتری نسبت به داده های «توهم» دارند.
مثلا Jumnai 3 به راحتی و با جزئیات ماجرای ایموجی را برای من توضیح داد:
با این حال، داستان اسب دریایی یادآور مهمی است: هوش مصنوعی آینه تمام نمای بشریت است. اگر اشتباه جمعی کنیم، با اطمینان همان اشتباه را تکرار می کند. نسخه قبلی ChatGPT که در مورد اسب دریایی دروغ می گفت ممکن است اشتباه باشد، اما به طرز وحشتناکی “انسان” بود. چون او هم مثل ما خاطراتی را به یاد می آورد که هرگز اتفاق نیفتاده اند.










