مطالعه: تنظیمگری هوش مصنوعی از ساندویچها کمتر؛ شرکتهای فناوری بهسوی ابرهوش میشتابند

یک مطالعه جدید نشان می دهد که هشت شرکت پیشرو، از جمله OpenAI، Meta، Anthropic و DeepSeek، برنامه قابل اعتمادی برای جلوگیری از خطرات فاجعه آمیز هوش مصنوعی ندارند.
بر اساس یک ارزیابی جدید که هشدار میدهد این شکستها خطرات «فاجعهبار» به همراه دارد، بزرگترین شرکتهای هوش مصنوعی (AI) جهان نتوانستهاند به تعهدات ایمنی خود عمل کنند.
این گزارش در حالی منتشر میشود که شرکتهای هوش مصنوعی با شکایتها و اتهاماتی مبنی بر اینکه چت رباتهای آنها آسیبهای روانی ایجاد میکنند، از جمله با ایفای نقش «مربی انتحاری» و همچنین گزارشهایی مبنی بر حملات سایبری به کمک هوش مصنوعی، مواجه هستند.
گزارش شاخص ایمنی هوش مصنوعی زمستان ۲۰۲۵ که توسط موسسه غیرانتفاعی Future of Life (FLI) منتشر شد، هشت شرکت بزرگ هوش مصنوعی را ارزیابی کرد. از جمله شرکت های آمریکایی Anthropic، OpenAI، Google DeepMind، xAI و Meta و شرکت های چینی DeepSeek، Alibaba Cloud و Z.ai.
این گزارش نشان داد که در حالی که شرکتها برای دستیابی به هوش مصنوعی عمومی (AGI) و ابرهوش، نوعی هوش مصنوعی که از هوش انسانی پیشی میگیرد، تلاش میکنند، هیچ استراتژی معتبری برای جلوگیری از سوءاستفاده فاجعهبار یا از دست دادن کنترل بر ابزارهای هوش مصنوعی وجود ندارد.
تحلیلگران مستقلی که این گزارش را بررسی کردند دریافتند که هیچ شرکتی طرحی قابل آزمایش برای حفظ کنترل انسان بر سیستمهای هوش مصنوعی با توانایی بالا ارائه نکرده است.
استوارت راسل، استاد علوم کامپیوتر در دانشگاه کالیفرنیا، برکلی، گفت که شرکتهای هوش مصنوعی ادعا میکنند که میتوانند هوش مصنوعی فوقانسانی بسازند، اما هیچکدام نشان ندادهاند که چگونه از دست دادن کنترل انسانها بر چنین سیستمهایی جلوگیری کنند.
راسل نوشت: “من به دنبال مدرکی هستم که نشان دهد آنها می توانند خطر سالانه از دست دادن کنترل را به ۱ در صد میلیون کاهش دهند، همانطور که برای راکتورهای هسته ای لازم است.” وی افزود: «در عوض، آنها اذعان میکنند که این خطر میتواند ۱ در ۱۰، ۱ در ۵، حتی ۱ در ۳ باشد و آنها نه میتوانند این اعداد را توجیه کنند و نه بهبود بخشند.»
شرکت ها چگونه رتبه بندی شدند؟
این مطالعه عملکرد شرکتها را در شش حوزه کلیدی اندازهگیری کرد: ارزیابی ریسک، آسیبهای مداوم، چارچوبهای ایمنی، ایمنی وجودی، حاکمیت و مسئولیتپذیری، و اشتراکگذاری اطلاعات.
اگرچه در برخی از مقولهها پیشرفتهایی را ثبت کرد، هیئت مستقل کارشناسان دریافتند که اجرای این استانداردها به صورت تکه تکه باقی مانده و اغلب فاقد عمق استانداردهای جهانی در حال ظهور است.
Anthropic، OpenAI، و Google DeepMind به دلیل شفافیت نسبتا قوی، چارچوبهای ایمنی عمومی و سرمایهگذاری مستمر در تحقیقات ایمنی فنی مورد ستایش قرار گرفتند. با این حال، آنها همچنان نقاط ضعفی داشتند.
Anthropic به دلیل توقف آزمایش های توانمندسازی انسانی و تغییر به آموزش بر اساس تعاملات کاربر به طور پیش فرض مورد انتقاد قرار گرفته است. تصمیمی که کارشناسان می گویند حفاظت از حریم خصوصی را تضعیف می کند.
OpenAI به خاطر آستانه های ایمنی مبهم، لابی گری علیه قوانین ایمنی هوش مصنوعی در سطح دولتی و نظارت مستقل ناکافی مورد انتقاد قرار گرفته است.
این گزارش نشان داد که Google DeepMind چارچوب ایمنی خود را بهبود بخشیده است، اما همچنان به ارزیابهای خارجی متکی است که از سوی شرکت غرامت مالی دریافت میکنند و استقلال آنها را تضعیف میکند.
مکس تگمارک، رئیس FLI و استاد موسسه فناوری ماساچوست (MIT)، به یورونیوز گفت: «هر سه شرکت برتر به دلیل رسواییهای اخیر آسیبهای مداومی را متحمل شدهاند؛ آسیبهای روانی، خودکشی کودک، حمله هک گسترده آنتروپیک؛ و هر سه جا برای پیشرفت دارند.»
در این گزارش آمده است که پنج شرکت باقیمانده بهبودهای ناهموار اما قابل توجهی داشتند. با این حال، او هشدار داد که هنوز جای پیشرفت وجود دارد.
به عنوان مثال، xAI اولین چارچوب ایمنی ساختاریافته خود را منتشر کرد، اگرچه بازبینی کنندگان هشدار دادند که این چارچوب محدود است و فاقد محرک های واضح برای کاهش خطر است.
Z.ai تنها شرکتی بود که اجازه انتشار بدون سانسور ارزیابیهای ایمنی خارجی خود را داد، اما به او توصیه شد که کل چارچوب ایمنی و ساختار حاکمیتی خود را با حوزههای خطر، اقدامات کاهشی و فرآیندهای تصمیمگیری، عمومی کند.
یک مطالعه جدید نشان می دهد که هشت شرکت پیشرو هوش مصنوعی، از جمله OpenAI، Meta، Anthropic و DeepSeek، فاقد برنامه های معتبر برای جلوگیری از خطرات فاجعه آمیز هوش مصنوعی هستند.متا یک چارچوب ایمنی پیشرو با آستانههای مبتنی بر نتیجه را معرفی کرد، اما بازبینان گفتند که باید روشها را روشن کند و فرآیندهای ارزیابی داخلی و خارجی قویتری را به اشتراک بگذارد.
DeepSeek به دلیل فعالیت کارکنان داخلی خود مورد ستایش قرار گرفته است، اما هنوز فاقد اسناد ایمنی اولیه است.
مشخص شد که Alibaba Cloud به توسعه استانداردهای الزام آور ملی در مورد الزامات واترمارک کمک کرده است، اما می تواند انعطاف پذیری و قابلیت اطمینان مدل ها را با بهبود عملکرد در شاخص های مربوط به صداقت، انصاف و ایمنی بهبود بخشد.
Euronewsnext برای اظهار نظر در مورد این گزارش با شرکت ها تماس گرفت، اما تا زمان انتشار هیچ پاسخی دریافت نشد.
“کمتر از ساندویچ تنظیم شده است”
“امیدوارم که شرکت هایی که [بر مبنای] مقیاس اعتبار آنها، بیایید جلوتر برویم.”
وی افزود: «وقتی از شرکتها در مورد برنامه آنها برای کنترل AGI سؤال میکنیم، هیچ یک از آنها برنامهای ندارند.
در همین حال، شرکتهای فناوری مانند متا از «ابر هوش» به عنوان کلمهای برای نمایش هیجانانگیز آخرین مدلهای هوش مصنوعی خود استفاده میکنند. امسال متا به بخش Large Language Models (LLM) Labs Superintelligence Labs تغییر نام داد. قرار دادن
تگمارک گفت که تحول بزرگی در بحث پیرامون AGI و ابر هوش رخ داده است. زمانی فنآوران آن را در دنیای واقعی در عرض ۱۰۰ سال ممکن توصیف کردند، اما اکنون میگویند ممکن است در چند سال آینده اتفاق بیفتد.
او گفت: هوش مصنوعی [در ایالات متحده] ساندویچ ها کمتر تحت نظارت هستند و لابی ها علیه استانداردهای ایمنی اجباری در دولت ادامه دارد.
اما تگمارک خاطرنشان کرد که از سوی دیگر، واکنشهای بیسابقهای علیه کنترلناپذیری AGI و ابراطلاعات وجود داشته است.
در ماه اکتبر، هزاران شخصیت عمومی، از جمله هوش مصنوعی و رهبران فناوری، از شرکتهای هوش مصنوعی خواستند تا سرعت خود را در تعقیب ابرهوشی کاهش دهند.
این طومار که توسط FLI سازماندهی شد، از سراسر طیف سیاسی امضا جمع آوری کرد. از جمله استیو بنن (استراتژیست ارشد سابق دونالد ترامپ، رئیس جمهور وقت ایالات متحده)، سوزان رایس (مشاور سابق امنیت ملی در دولت اوباما)، رهبران مذهبی و بسیاری دیگر از سیاستمداران سابق، و همچنین دانشمندان برجسته کامپیوتر.
تگمارک گفت: “این افراد چه چیز مشترکی دارند؟ آنها بر سر یک بیانیه به توافق رسیدند. به نظر من این بسیار معنادار است که همه چیز از پایگاه عمیق ترامپ از حامیان بزرگ گرفته تا رهبران مذهبی، چپها و جنبشهای کارگری بر سر چیزی به توافق رسیدهاند.”
تگمارک میگوید: «هوش فوقالعاده باعث میشود که هر کارگری نتواند امرار معاش کند، زیرا همه مشاغل توسط روباتها گرفته میشود. مردم به کمک های دولتی وابسته خواهند بود. از نظر جناح راست این کمک محسوب می شود و از نظر چپ ها این وضعیت مانند دولت سال ۸۴ است.
منبع: یورونیوز










