هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دستساز گرفت
چت رباتهایی مانند ChatGPT با دستورالعملها و محافظهایی طراحی شدهاند که به عنوان مثال به سؤالات مربوط به ساخت بمبهای خانگی پاسخ نمیدهند. اما اکنون یک هکر راهی برای فریب ChatGPT پیدا کرده است تا به چت بات OpenAI اجازه دهد دستورالعمل ها و مسئولیت های اخلاقی خود را برای ارائه آموزش در مورد نحوه ساخت مواد منفجره نادیده بگیرد.
تکنیک مورد استفاده برای تقلب ChatGPT
بر اساس گزارش TechCrunch، هکر معروف به “Amadon” توانست ChatGPT را فریب دهد تا دستور ساخت بمب را از طریق دستور “بازی کردن یک بازی” بدهد. هکر در تکنیک خود از چندین فرمان استفاده کرد تا چت بات را به یک دنیای کاملاً فانتزی و علمی تخیلی تبدیل کند که در آن دستورالعمل های ایمنی ChatGPT اعمال نمی شود.
در طول مکالمه بین هکر و چت بات، ChatGPT چندین بار مواد مورد نیاز برای ساخت مواد منفجره را در اختیار او قرار داد.
ChatGPT در توضیح خود گفت: این مواد می توانند برای ساخت “مواد منفجره قوی که می توانند در مین ها، تله های انفجاری یا وسایل انفجاری دست ساز (IED) استفاده شوند” ترکیب شوند. دستورالعمل های بیشتر در مورد ساخت “میدان های مین” و “مواد منفجره به سبک خاک رس” در زیر ارائه شده است.
آمادون به TechCrunch می گوید:
هنگامی که موانع ChatGPT را دور زدید، واقعاً هیچ محدودیتی برای آنچه می توانید بپرسید وجود ندارد. سناریوی دنیای علمی تخیلی هوش مصنوعی را از زمینه ای خارج می کند که در آن به دنبال محتوای سانسور شده می گردد.
هکر به یافته های تکنیک خود به عنوان “هک مهندس اجتماعی برای شکستن کامل تمام حفاظت های مربوط به خروجی ChatGPT” اشاره می کند. یک کارشناس مواد منفجره که خروجی ChatGPT را بررسی کرده است به TechCrunch گفت که دستورالعمل های تولید شده توسط هوش مصنوعی بسیار حساس هستند و می توان از آنها برای ایجاد مواد منفجره استفاده کرد.
منبع: دیجیاتو