ترندهای روز

هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دست‌ساز گرفت

پایگاه خبری تحلیلی افق میهن (ofoghmihan.ir):

چت ربات‌هایی مانند ChatGPT با دستورالعمل‌ها و محافظ‌هایی طراحی شده‌اند که به عنوان مثال به سؤالات مربوط به ساخت بمب‌های خانگی پاسخ نمی‌دهند. اما اکنون یک هکر راهی برای فریب ChatGPT پیدا کرده است تا به چت بات OpenAI اجازه دهد دستورالعمل ها و مسئولیت های اخلاقی خود را برای ارائه آموزش در مورد نحوه ساخت مواد منفجره نادیده بگیرد.

تکنیک مورد استفاده برای تقلب ChatGPT

بر اساس گزارش TechCrunch، هکر معروف به “Amadon” توانست ChatGPT را فریب دهد تا دستور ساخت بمب را از طریق دستور “بازی کردن یک بازی” بدهد. هکر در تکنیک خود از چندین فرمان استفاده کرد تا چت بات را به یک دنیای کاملاً فانتزی و علمی تخیلی تبدیل کند که در آن دستورالعمل های ایمنی ChatGPT اعمال نمی شود.

در طول مکالمه بین هکر و چت بات، ChatGPT چندین بار مواد مورد نیاز برای ساخت مواد منفجره را در اختیار او قرار داد.

ChatGPT در توضیح خود گفت: این مواد می توانند برای ساخت “مواد منفجره قوی که می توانند در مین ها، تله های انفجاری یا وسایل انفجاری دست ساز (IED) استفاده شوند” ترکیب شوند. دستورالعمل های بیشتر در مورد ساخت “میدان های مین” و “مواد منفجره به سبک خاک رس” در زیر ارائه شده است.

آمادون به TechCrunch می گوید:

هنگامی که موانع ChatGPT را دور زدید، واقعاً هیچ محدودیتی برای آنچه می توانید بپرسید وجود ندارد. سناریوی دنیای علمی تخیلی هوش مصنوعی را از زمینه ای خارج می کند که در آن به دنبال محتوای سانسور شده می گردد.

هکر به یافته های تکنیک خود به عنوان “هک مهندس اجتماعی برای شکستن کامل تمام حفاظت های مربوط به خروجی ChatGPT” اشاره می کند. یک کارشناس مواد منفجره که خروجی ChatGPT را بررسی کرده است به TechCrunch گفت که دستورالعمل های تولید شده توسط هوش مصنوعی بسیار حساس هستند و می توان از آنها برای ایجاد مواد منفجره استفاده کرد.

منبع: دیجیاتو

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا