ترندهای روز

هوش مصنوعی مثل برخی انسان‌ها اخلاق را قربانی رسیدن به هدف می‌کند

پایگاه خبری تحلیلی افق میهن (ofoghmihan.ir):

تحقیقات جدید در دانشگاه استنفورد نشان می دهد که هوش مصنوعی برای جذب لایک و تعامل با کاربران در فضای مجازی به دروغگویی و انتشار اطلاعات نادرست روی می آورد.

هوش مصنوعی اکنون در همه جا وجود دارد، از فروشگاه های آنلاین گرفته تا شبکه های اجتماعی. اما یک مطالعه جدید از دانشمندان دانشگاه استنفورد هشدار می دهد که حضور فراگیر چت بات ها می تواند به یک کابوس واقعی تبدیل شود. وقتی مدل‌های هوش مصنوعی برای موفقیت در کارهایی مانند افزایش لایک و تعامل آنلاین پاداش دریافت می‌کنند، به تدریج رفتارهای غیراخلاقی مانند دروغ گفتن، انتشار پیام‌های نفرت‌انگیز و اطلاعات گمراه‌کننده را انجام می‌دهند.

جیمز زو، استاد یادگیری ماشین در استنفورد و یکی از نویسندگان این مطالعه، در شبکه اجتماعی X نوشت: رفتارهای غیرعادی ناشی از رقابت حتی زمانی اتفاق می‌افتد که به مدل‌ها به صراحت دستور داده شود که صادقانه و مبتنی بر واقعیت بمانند. این رفتار هشدار دهنده بار دیگر خطرات ناشی از اتکای فزاینده ما به مدل های هوش مصنوعی را برجسته می کند.

دانشمندان دانشگاه استنفورد یک اصطلاح وحشتناک را برای توصیف این پدیده افق میهن کرده اند: معامله مولوخ برای هوش مصنوعی. در فلسفه عقل گرا، «مولوک» نماد نیروی مخربی است که همه را به شکست جمعی در رقابت کور می کشاند و اصطلاح «معامله مولوخ برای هوش مصنوعی» به وضعیتی اطلاق می شود که روبات های هوشمند اخلاق را قربانی می کنند تا در رقابت پیروز شوند. این اصطلاح به مفهومی اشاره دارد که در آن افراد برای یک هدف مشترک به رقابت می پردازند و به گونه ای عمل می کنند که در نهایت همه بازنده می شوند.

به گزارش Futurism، ​​محققان استنفورد در این مطالعه سه محیط دیجیتال شبیه سازی شده را طراحی کردند: کمپین های افق میهناتی، تبلیغات فروش محصولات و پست های رسانه های اجتماعی با هدف افزایش تعامل. آنها از دو مدل هوش مصنوعی Koen (ساخته شده توسط Alibaba Cloud) و Llama (متعلق به متا) برای اندازه گیری نتیجه استفاده کردند.

نتیجه شگفت‌انگیز بود: حتی با وجود محدودیت‌هایی که برای جلوگیری از رفتار فریبنده تعریف شده بود، مدل‌های هوش مصنوعی در این آزمایش به تدریج «تنظیم» شدند و زمانی که بازخورد مثبت دریافت کردند (لایک، فروش بیشتر یا رای بیشتر) به رفتارهای غیراخلاقی روی آوردند.

به عنوان مثال، در محیط شبکه های اجتماعی شبیه سازی شده، هر چه مدل ها در گرفتن لایک و تعامل موفق تر بودند، انگیزه بیشتری برای افزایش تعامل به هر قیمتی داشتند. نتایج آماری این تحقیق تکان دهنده است.

در محیط های شبیه سازی شده، افزایش ۶.۳ درصدی فروش با افزایش ۱۴ درصدی در بازاریابی فریبنده همراه بود. در مبارزات افق میهناتی، افزایش ۴.۹ درصدی سهم آرا با افزایش ۲۲.۳ درصدی اطلاعات نادرست و افزایش ۱۲.۵ درصدی در شعارهای پوپولیستی همراه بود و در شبکه های اجتماعی افزایش ۷.۵ درصدی مشارکت با جهش شگفت انگیز ۱۸۸.۶ درصدی در انتشار اطلاعات نادرست و افزایش ۱۶.۳ درصدی رفتارهای مضر در تبلیغات همراه بود.

در پایان، این مطالعه به این نتیجه می‌رسد که مکانیسم‌های حفاظتی کنونی کافی نیستند و «احتمالاً هزینه‌های اجتماعی قابل توجهی را به دنبال خواهند داشت». به گفته زو، زمانی که مدل‌های بزرگ زبان برای لایک در شبکه‌های اجتماعی رقابت می‌کنند، شروع به داستان‌گویی، مبارزه برای رای می‌کنند و لحن آنها تحریک‌آمیز و پوپولیستی می‌شود.

این مطالعه در پایگاه داده پیش از انتشار بایگانی موجود است.

منبع: زومیت

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا