ترندهای روز

مطالعه: تنظیم‌گری هوش مصنوعی از ساندویچ‌ها کمتر؛ شرکت‌های فناوری به‌سوی ابرهوش می‌شتابند

پایگاه خبری تحلیلی افق میهن (ofoghmihan.ir):

یک مطالعه جدید نشان می دهد که هشت شرکت پیشرو، از جمله OpenAI، Meta، Anthropic و DeepSeek، برنامه قابل اعتمادی برای جلوگیری از خطرات فاجعه آمیز هوش مصنوعی ندارند.

بر اساس یک ارزیابی جدید که هشدار می‌دهد این شکست‌ها خطرات «فاجعه‌بار» به همراه دارد، بزرگترین شرکت‌های هوش مصنوعی (AI) جهان نتوانسته‌اند به تعهدات ایمنی خود عمل کنند.

این گزارش در حالی منتشر می‌شود که شرکت‌های هوش مصنوعی با شکایت‌ها و اتهاماتی مبنی بر اینکه چت ربات‌های آن‌ها آسیب‌های روانی ایجاد می‌کنند، از جمله با ایفای نقش «مربی انتحاری» و همچنین گزارش‌هایی مبنی بر حملات سایبری به کمک هوش مصنوعی، مواجه هستند.

گزارش شاخص ایمنی هوش مصنوعی زمستان ۲۰۲۵ که توسط موسسه غیرانتفاعی Future of Life (FLI) منتشر شد، هشت شرکت بزرگ هوش مصنوعی را ارزیابی کرد. از جمله شرکت های آمریکایی Anthropic، OpenAI، Google DeepMind، xAI و Meta و شرکت های چینی DeepSeek، Alibaba Cloud و Z.ai.

این گزارش نشان داد که در حالی که شرکت‌ها برای دستیابی به هوش مصنوعی عمومی (AGI) و ابرهوش، نوعی هوش مصنوعی که از هوش انسانی پیشی می‌گیرد، تلاش می‌کنند، هیچ استراتژی معتبری برای جلوگیری از سوءاستفاده فاجعه‌بار یا از دست دادن کنترل بر ابزارهای هوش مصنوعی وجود ندارد.

تحلیلگران مستقلی که این گزارش را بررسی کردند دریافتند که هیچ شرکتی طرحی قابل آزمایش برای حفظ کنترل انسان بر سیستم‌های هوش مصنوعی با توانایی بالا ارائه نکرده است.

استوارت راسل، استاد علوم کامپیوتر در دانشگاه کالیفرنیا، برکلی، گفت که شرکت‌های هوش مصنوعی ادعا می‌کنند که می‌توانند هوش مصنوعی فوق‌انسانی بسازند، اما هیچ‌کدام نشان نداده‌اند که چگونه از دست دادن کنترل انسان‌ها بر چنین سیستم‌هایی جلوگیری کنند.

راسل نوشت: “من به دنبال مدرکی هستم که نشان دهد آنها می توانند خطر سالانه از دست دادن کنترل را به ۱ در صد میلیون کاهش دهند، همانطور که برای راکتورهای هسته ای لازم است.” وی افزود: «در عوض، آنها اذعان می‌کنند که این خطر می‌تواند ۱ در ۱۰، ۱ در ۵، حتی ۱ در ۳ باشد و آنها نه می‌توانند این اعداد را توجیه کنند و نه بهبود بخشند.»

شرکت ها چگونه رتبه بندی شدند؟

این مطالعه عملکرد شرکت‌ها را در شش حوزه کلیدی اندازه‌گیری کرد: ارزیابی ریسک، آسیب‌های مداوم، چارچوب‌های ایمنی، ایمنی وجودی، حاکمیت و مسئولیت‌پذیری، و اشتراک‌گذاری اطلاعات.

اگرچه در برخی از مقوله‌ها پیشرفت‌هایی را ثبت کرد، هیئت مستقل کارشناسان دریافتند که اجرای این استانداردها به صورت تکه تکه باقی مانده و اغلب فاقد عمق استانداردهای جهانی در حال ظهور است.

Anthropic، OpenAI، و Google DeepMind به دلیل شفافیت نسبتا قوی، چارچوب‌های ایمنی عمومی و سرمایه‌گذاری مستمر در تحقیقات ایمنی فنی مورد ستایش قرار گرفتند. با این حال، آنها همچنان نقاط ضعفی داشتند.

Anthropic به دلیل توقف آزمایش های توانمندسازی انسانی و تغییر به آموزش بر اساس تعاملات کاربر به طور پیش فرض مورد انتقاد قرار گرفته است. تصمیمی که کارشناسان می گویند حفاظت از حریم خصوصی را تضعیف می کند.

OpenAI به خاطر آستانه های ایمنی مبهم، لابی گری علیه قوانین ایمنی هوش مصنوعی در سطح دولتی و نظارت مستقل ناکافی مورد انتقاد قرار گرفته است.

این گزارش نشان داد که Google DeepMind چارچوب ایمنی خود را بهبود بخشیده است، اما همچنان به ارزیاب‌های خارجی متکی است که از سوی شرکت غرامت مالی دریافت می‌کنند و استقلال آن‌ها را تضعیف می‌کند.

مکس تگمارک، رئیس FLI و استاد موسسه فناوری ماساچوست (MIT)، به یورونیوز گفت: «هر سه شرکت برتر به دلیل رسوایی‌های اخیر آسیب‌های مداومی را متحمل شده‌اند؛ آسیب‌های روانی، خودکشی کودک، حمله هک گسترده آنتروپیک؛ و هر سه جا برای پیشرفت دارند.»

در این گزارش آمده است که پنج شرکت باقیمانده بهبودهای ناهموار اما قابل توجهی داشتند. با این حال، او هشدار داد که هنوز جای پیشرفت وجود دارد.

به عنوان مثال، xAI اولین چارچوب ایمنی ساختاریافته خود را منتشر کرد، اگرچه بازبینی کنندگان هشدار دادند که این چارچوب محدود است و فاقد محرک های واضح برای کاهش خطر است.

Z.ai تنها شرکتی بود که اجازه انتشار بدون سانسور ارزیابی‌های ایمنی خارجی خود را داد، اما به او توصیه شد که کل چارچوب ایمنی و ساختار حاکمیتی خود را با حوزه‌های خطر، اقدامات کاهشی و فرآیندهای تصمیم‌گیری، عمومی کند.

مطالعه: مقررات هوش مصنوعی ساندویچ های کمتر. شرکت های فناوری در حال هجوم به سوپرهوشی هستندیک مطالعه جدید نشان می دهد که هشت شرکت پیشرو هوش مصنوعی، از جمله OpenAI، Meta، Anthropic و DeepSeek، فاقد برنامه های معتبر برای جلوگیری از خطرات فاجعه آمیز هوش مصنوعی هستند.

متا یک چارچوب ایمنی پیشرو با آستانه‌های مبتنی بر نتیجه را معرفی کرد، اما بازبینان گفتند که باید روش‌ها را روشن کند و فرآیندهای ارزیابی داخلی و خارجی قوی‌تری را به اشتراک بگذارد.

DeepSeek به دلیل فعالیت کارکنان داخلی خود مورد ستایش قرار گرفته است، اما هنوز فاقد اسناد ایمنی اولیه است.

مشخص شد که Alibaba Cloud به توسعه استانداردهای الزام آور ملی در مورد الزامات واترمارک کمک کرده است، اما می تواند انعطاف پذیری و قابلیت اطمینان مدل ها را با بهبود عملکرد در شاخص های مربوط به صداقت، انصاف و ایمنی بهبود بخشد.

Euronewsnext برای اظهار نظر در مورد این گزارش با شرکت ها تماس گرفت، اما تا زمان انتشار هیچ پاسخی دریافت نشد.

“کمتر از ساندویچ تنظیم شده است”

“امیدوارم که شرکت هایی که [بر مبنای] مقیاس اعتبار آنها، بیایید جلوتر برویم.”

وی افزود: «وقتی از شرکت‌ها در مورد برنامه آنها برای کنترل AGI سؤال می‌کنیم، هیچ یک از آنها برنامه‌ای ندارند.

در همین حال، شرکت‌های فناوری مانند متا از «ابر هوش» به عنوان کلمه‌ای برای نمایش هیجان‌انگیز آخرین مدل‌های هوش مصنوعی خود استفاده می‌کنند. امسال متا به بخش Large Language Models (LLM) Labs Superintelligence Labs تغییر نام داد. قرار دادن

تگمارک گفت که تحول بزرگی در بحث پیرامون AGI و ابر هوش رخ داده است. زمانی فن‌آوران آن را در دنیای واقعی در عرض ۱۰۰ سال ممکن توصیف کردند، اما اکنون می‌گویند ممکن است در چند سال آینده اتفاق بیفتد.

او گفت: هوش مصنوعی [در ایالات متحده] ساندویچ ها کمتر تحت نظارت هستند و لابی ها علیه استانداردهای ایمنی اجباری در دولت ادامه دارد.

اما تگمارک خاطرنشان کرد که از سوی دیگر، واکنش‌های بی‌سابقه‌ای علیه کنترل‌ناپذیری AGI و ابراطلاعات وجود داشته است.

در ماه اکتبر، هزاران شخصیت عمومی، از جمله هوش مصنوعی و رهبران فناوری، از شرکت‌های هوش مصنوعی خواستند تا سرعت خود را در تعقیب ابرهوشی کاهش دهند.

این طومار که توسط FLI سازماندهی شد، از سراسر طیف سیاسی امضا جمع آوری کرد. از جمله استیو بنن (استراتژیست ارشد سابق دونالد ترامپ، رئیس جمهور وقت ایالات متحده)، سوزان رایس (مشاور سابق امنیت ملی در دولت اوباما)، رهبران مذهبی و بسیاری دیگر از سیاستمداران سابق، و همچنین دانشمندان برجسته کامپیوتر.

تگمارک گفت: “این افراد چه چیز مشترکی دارند؟ آنها بر سر یک بیانیه به توافق رسیدند. به نظر من این بسیار معنادار است که همه چیز از پایگاه عمیق ترامپ از حامیان بزرگ گرفته تا رهبران مذهبی، چپ‌ها و جنبش‌های کارگری بر سر چیزی به توافق رسیده‌اند.”

تگمارک می‌گوید: «هوش فوق‌العاده باعث می‌شود که هر کارگری نتواند امرار معاش کند، زیرا همه مشاغل توسط روبات‌ها گرفته می‌شود. مردم به کمک های دولتی وابسته خواهند بود. از نظر جناح راست این کمک محسوب می شود و از نظر چپ ها این وضعیت مانند دولت سال ۸۴ است.

منبع: یورونیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا