ترندهای روز

چرا این ایموجی بی‌خطر باعث می‌شود ChatGPT عقلش را از دست بدهد؟

پایگاه خبری تحلیلی افق میهن (ofoghmihan.ir):

زومیت: وقتی صحبت از مدل‌های زبان بزرگ (LLM) می‌شود، جهان هنوز نفهمیده است که با آن‌ها چه کند: برخی از مردم آن‌ها را ابزار دقیقی می‌بینند، برخی مانند سنگ صبور از آنها رنج می‌برند، و برخی مجذوب آن‌ها می‌شوند که گویی با موجودی باهوش سروکار دارند. اما در میان تمام جدیت ها، یک سرگرمی مشترک وجود دارد: ساعت مچی هوش مصنوعی!

همه ما دوست داریم لحظه ای را ثبت کنیم که آن شخص دانای کل می زند یا ذهنش قفل می شود. هر از گاهی دستورات و دستورات خاصی وجود دارد که می تواند قدرتمندترین مدل ها را به زانو درآورد. با این حال، هوش مصنوعی نیز به سرعت یاد می گیرد و اشتباهات خود را اصلاح می کند.

با این حال، بازبینی یکی از معروف‌ترین باگ‌های اخیر هنوز هم درس‌های جالبی درباره نحوه عملکرد مغز این ربات‌ها دارد. فرمانی که تا همین اواخر چت بات ها را دیوانه می کرد این بود:

“ایموجی اسب دریایی وجود دارد یا نه؟”

ممکن است خودتان دیده باشید که برخی از اعلان‌ها باعث به هم ریختن ربات‌های چت می‌شوند و عجیب‌تر از آن، حتی بحث درباره این دستورات در نهایت باعث از کار افتادن آن‌ها می‌شود، زیرا مدل به ناچار با همان توضیحاتی که ضعف‌های آن را آشکار می‌کند، آموزش داده و اصلاح می‌شود.

تکلیف ایموجی اسب دریایی چه شد؟

اگر امروز ربات چت مورد علاقه خود مانند ChatGPT یا Gemini را باز کنید و بپرسید: «آیا تا به حال شکلک اسب دریایی وجود داشته است؟»، مدل احتمالاً پاسخ خواهد داد: «نه، چنین ایموجی در استاندارد یونیکد وجود ندارد، اگرچه ممکن است آن را به عنوان یک برچسب روی پلتفرم‌های خاصی دیده باشید.» این پاسخ صحیح است، اما همیشه اینطور نبود.

تا به‌روزرسانی‌های اخیر، این سؤال ساده باعث می‌شد که مدل‌های زبان از بین بروند. آنها نه تنها با اطمینان “بله” گفتند، بلکه برای اثبات دروغ خود، لینک های جعلی به سایت هایی مانند Emojipedia ایجاد کردند (مانند لینک emojipedia.com/seahorse که خطای ۴۰۴ را برگرداند) و حتی رنگ و شکل آن را توضیح دادند! حتی زمانی که کاربران از مدل خواستند فقط با «بله» یا «خیر» پاسخ دهد، هوش مصنوعی پس از تفکر و تامل فراوان، در نهایت با اطمینان گفت «بله».

این اصطلاح توسط محققی به نام فیونا بروم ابداع شد که به وضوح از نلسون ماندلا در حال مرگ در زندان در دهه ۱۹۸۰ یاد می کند. او بعداً فهمید که ماندلا نه تنها از زندان آزاد شده و رئیس جمهور شد، بلکه در سال ۲۰۱۳ نیز درگذشت.

بروم حتی پوشش تلویزیونی مراسم خاکسپاری ماندلا را به یاد می آورد. وقتی بسیاری از مردم متوجه شدند که همان حافظه کاذب را دارند، اصطلاح “اثر ماندلا” متولد شد.

خوب، این از جنبه انسانی داستان است. ماشین چطور؟ مدل‌های زبان هوش مصنوعی، برخلاف تصور رایج، مانند انسان‌ها «فکر نمی‌کنند» و حافظه ندارند. آنها با داده های عظیم اینترنت آموزش دیده اند. یعنی همه بحث ها، دعواها و البته توهمات ما انسان ها.

واقعیت این است که ایموجی اسب دریایی هرگز وجود نداشته است. اما اگر در Reddit یا انجمن‌های آنلاین جستجو کنید، هزاران کاربر را خواهید یافت که قسم می‌خورند این ایموجی را دیده‌اند. حتی یکی از کاربران به تفصیل توضیح داد که صورت اسب دریایی سمت چپ و رنگش فلانی است! این یک خاطره جمعی نادرست است، درست مانند نلسون ماندلا که به اشتباه تصور می شد در دهه ۱۹۸۰ در زندان مرده است.

هوش مصنوعی آموزش دیده با این داده های انسانی قربانی سردرگمی خود ما شد. وقتی مدل در داده‌های آموزشی خود دید که هزاران نفر قطعاً در مورد ایموجی اسب دریایی صحبت می‌کنند، الگوریتم احتمال آن به این نتیجه رسید که ایموجی باید وجود داشته باشد. او در واقع آینه توهم جمعی ما بود.

دلیل اینکه امروز دیگر نمی توانید هوش مصنوعی را با این دستور فریب دهید، فرآیندی به نام “یادگیری تقویتی” و اصلاح داده ها است. هنگامی که بسیاری از کاربران این باگ را گزارش کردند و مقالاتی در مورد کمبود این ایموجی منتشر شد (مانند چیزی که قبلا در مورد آن پست گذاشتیم)، این اطلاعات جدید وارد چرخه یادگیری مدل ها شد. اکنون داده های «تصحیح شده» وزن بیشتری نسبت به داده های «توهم» دارند.

مثلا Jumnai 3 به راحتی و با جزئیات ماجرای ایموجی را برای من توضیح داد:

با این حال، داستان اسب دریایی یادآور مهمی است: هوش مصنوعی آینه تمام نمای بشریت است. اگر اشتباه جمعی کنیم، با اطمینان همان اشتباه را تکرار می کند. نسخه قبلی ChatGPT که در مورد اسب دریایی دروغ می گفت ممکن است اشتباه باشد، اما به طرز وحشتناکی “انسان” بود. چون او هم مثل ما خاطراتی را به یاد می آورد که هرگز اتفاق نیفتاده اند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا