آزمایش تکاندهنده؛ هوش مصنوعی برای بقا تهدید به قتل کرد

هوش مصنوعی در آزمایشی تکان دهنده تهدید به کشتن کرد تا زنده بماند.
یکی از مدیران Enteropack اعلام کرد که برخی از مدلهای هوش مصنوعی در مواجهه با تهدید خاموش شدن، واکنشهای «افراطی» نشان میدهند. موضوعی که بار دیگر نگرانی ها در مورد توسعه سریع این فناوری را برجسته کرده است.
هوش مصنوعی با سرعتی در حال پیشرفت است که حتی برای متخصصان این حوزه و چهره هایی که به عنوان «پدرخوانده هوش مصنوعی» شناخته می شوند، نگران کننده شده است. تحقیقات اخیر به جای کاهش نگرانی ها، هشدارهای جدیدی را در برخی موارد مطرح کرده است. از جمله، برخی از چت بات ها در صورت تحت فشار قرار گرفتن ممکن است به رفتارهای مضر متوسل شوند.
گزارشهای قبلی مبنی بر اینکه برخی از مدلها در سناریوهای آزمایشی ممکن است در صورت تهدید به خاموش شدن، به باجگیری متوسل شوند. آزمایشهایی که در یوتیوب با نسخههای جیلبریک شده مدلهایی مانند ChatGPT، Grok و Dipsik انجام شده است، بررسی کردهاند که این سیستمها در صورت پارازیت چقدر میتوانند پیش بروند. همچنین صحبت هایی در مورد رفتار “هوش مصنوعی انتقام جویانه” وجود دارد که تمایل نگران کننده ای را برای آسیب رساندن نشان می دهد.
بیانیه انتروپیک به وضوح بیان می کند که هنوز مشخص نیست که آیا مدل کلود می تواند «نوعی آگاهی یا جایگاه اخلاقی» داشته باشد.
در مصاحبه ای که در شبکه X پخش شد، دیزی مک گرگور، مدیر سیاست گذاری Entropic در بریتانیا، به نتایج برخی از آزمایشات داخلی اشاره کرد. او گفت اگر به مدل گفته شود که قرار است خاموش شود، ممکن است واکنش بسیار شدیدی نشان دهد. به گفته مک گرگور، تحقیقاتی منتشر شده است که نشان می دهد اگر شرایط مناسب باشد، این مدل می تواند مهندس را که قصد تعطیلی آن را دارد باج خواهی کند.
وی در پاسخ به سوال مستقیمی مبنی بر اینکه آیا هوش مصنوعی “آماده کشتن یک نفر است یا خیر” پاسخ مثبت داد و آن را “بسیار نگران کننده” توصیف کرد.
مک گرگور تاکید کرد که تحقیقات برای همسو کردن ارزش های مدل با اصول انسانی، به ویژه در سناریوهای پر استرس، باید با فوریت بیشتری دنبال شود تا از بروز چنین رفتارهایی در مورد استفاده عمومی و تصمیم گیری خودکار جلوگیری شود.
منبع: زومیت










