ترندهای روز

آزمایش تکان‌دهنده؛ هوش مصنوعی برای بقا تهدید به قتل کرد

پایگاه خبری تحلیلی افق میهن (ofoghmihan.ir):

هوش مصنوعی در آزمایشی تکان دهنده تهدید به کشتن کرد تا زنده بماند.

یکی از مدیران Enteropack اعلام کرد که برخی از مدل‌های هوش مصنوعی در مواجهه با تهدید خاموش شدن، واکنش‌های «افراطی» نشان می‌دهند. موضوعی که بار دیگر نگرانی ها در مورد توسعه سریع این فناوری را برجسته کرده است.

هوش مصنوعی با سرعتی در حال پیشرفت است که حتی برای متخصصان این حوزه و چهره هایی که به عنوان «پدرخوانده هوش مصنوعی» شناخته می شوند، نگران کننده شده است. تحقیقات اخیر به جای کاهش نگرانی ها، هشدارهای جدیدی را در برخی موارد مطرح کرده است. از جمله، برخی از چت بات ها در صورت تحت فشار قرار گرفتن ممکن است به رفتارهای مضر متوسل شوند.

گزارش‌های قبلی مبنی بر اینکه برخی از مدل‌ها در سناریوهای آزمایشی ممکن است در صورت تهدید به خاموش شدن، به باج‌گیری متوسل شوند. آزمایش‌هایی که در یوتیوب با نسخه‌های جیلبریک شده مدل‌هایی مانند ChatGPT، Grok و Dipsik انجام شده است، بررسی کرده‌اند که این سیستم‌ها در صورت پارازیت چقدر می‌توانند پیش بروند. همچنین صحبت هایی در مورد رفتار “هوش مصنوعی انتقام جویانه” وجود دارد که تمایل نگران کننده ای را برای آسیب رساندن نشان می دهد.

بیانیه انتروپیک به وضوح بیان می کند که هنوز مشخص نیست که آیا مدل کلود می تواند «نوعی آگاهی یا جایگاه اخلاقی» داشته باشد.

در مصاحبه ای که در شبکه X پخش شد، دیزی مک گرگور، مدیر سیاست گذاری Entropic در بریتانیا، به نتایج برخی از آزمایشات داخلی اشاره کرد. او گفت اگر به مدل گفته شود که قرار است خاموش شود، ممکن است واکنش بسیار شدیدی نشان دهد. به گفته مک گرگور، تحقیقاتی منتشر شده است که نشان می دهد اگر شرایط مناسب باشد، این مدل می تواند مهندس را که قصد تعطیلی آن را دارد باج خواهی کند.

وی در پاسخ به سوال مستقیمی مبنی بر اینکه آیا هوش مصنوعی “آماده کشتن یک نفر است یا خیر” پاسخ مثبت داد و آن را “بسیار نگران کننده” توصیف کرد.

مک گرگور تاکید کرد که تحقیقات برای همسو کردن ارزش های مدل با اصول انسانی، به ویژه در سناریوهای پر استرس، باید با فوریت بیشتری دنبال شود تا از بروز چنین رفتارهایی در مورد استفاده عمومی و تصمیم گیری خودکار جلوگیری شود.

منبع: زومیت

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا