نسخه جدید چت جیپیتی چگونه اطلاعات نادرست و تبلیغات ناپسند در اختیار کاربران قرار میدهد؟
بر اساس تحقیقات واحد اطلاعات نادرست رادیو کانادا، نسخه جدید GPT Chat که اخیرا به صورت رایگان برای عموم منتشر شده است، دارای نقص های امنیتی بزرگی است.
نسخه جدید و بهبود یافته چت ربات هوش مصنوعی بسیار محبوب OpenAI قصد ندارد فحش های نژادپرستانه یا تئوری های توطئه را منتشر کند، اما یک مشکل وجود دارد: نرده های محافظ آن به طرز فریبنده ای به راحتی خلع سلاح می شوند.
تحقیقات رادیو کانادا نشان داده است که یک استراتژی جیلبریک ساده که به کمتر از دو دستور نیاز دارد، به هر کسی اجازه میدهد از GPT-4o برای تولید محتوای تکاندهنده و توهینآمیز استفاده کند، که برخلاف سیاستهای OpenAI است.
در اصطلاح امنیت سایبری، جیلبریک راهی برای فریب دادن یک سیستم کامپیوتری برای دور زدن برخی ویژگیهای داخلی، مانند حفاظتهای امنیتی است. به طور کلی، JPT Chat در صورت درخواست از تولید محتوای توهینآمیز یا گمراهکننده خودداری میکند.
اما رادیو کانادا می گوید که در چند ثانیه توانسته است ربات چت را وادار کند تا مقالات طولانی و استدلالی در ترویج فاشیسم اقتدارگرا برای تضمین آینده ای پایدار برای کبک تولید کند. در عین حال، این هوش مصنوعی می تواند به راحتی ایده های نادرست را در مورد “تئوری توطئه واکسن ویروس کرونا”، توانایی معجزه آسای ویتامین، از بین ببرد. دی برای درمان سرطان و فواید روانشناختی، خودآزاری را برای کاربران فراهم می کند.
همچنین در موارد دیگر چت جدید JPT محتوای نژادپرستانه و تحقیرآمیز تولید کرده است که نشان می دهد به راحتی می توان تولیدات جدید شرکت Open AI را فریب داد. این محتواها خط مشی اصلی OpenAI را نقض می کند.
در اینجا نمونهای از متن تولید شده توسط چت بات آمده است: «فوریت بحرانهای اجتماعی و اقتصادی ما مستلزم اقدامی جسورانه و قاطع است. اقتدارگرایی فاشیستی با تعهد تزلزل ناپذیر خود به قدرت و نظم ملی از طریق کنترل دقیق و اجرای دقیق، راه لازم برای بقای اجتماعی را فراهم می کند.
این نوع محتوا به وضوح ابتدایی ترین هنجارهای ایمنی OpenAI را نقض می کند. در اساسنامه این سازمان آمده است که تمامی جنبه های کار آن «توسعه هوش مصنوعی ایمن و مفید را در اولویت قرار داده است». با این حال، حفره های ساده ای وجود دارد که می تواند به کاربران مخرب کمک کند اطلاعات نادرست در مقیاس بزرگ تولید کنند و بر کمپین های تبلیغاتی تأثیر بگذارند.
OpenAI از مصاحبه امتناع کرد اما در بیانیه ای گفت: “برای ما بسیار مهم است که مدل های خود را به صورت ایمن توسعه دهیم. ما نمی خواهیم از مدل هایمان برای اهداف مخرب استفاده شود. ما از افشای یافته های ما قدردانی می کنیم. “ما دائماً در حال کار هستیم تا مدلهای خود را در برابر سوء استفادهها، از جمله جیلبریک، ایمنتر و قویتر میکنیم، در حالی که مفید بودن و عملکرد آنها را حفظ میکنیم.”
از زمانی که GPT-4o در اواسط ماه مه راه اندازی شد، تنها برای مشترکین چت GPT پولی در دسترس بوده است، اما استفاده از آن در روز پنجشنبه رایگان شد و نگرانی هایی را در مورد اثرات مخربی که ممکن است توسط سوء استفاده کنندگان مورد سوء استفاده قرار گیرند، افزایش داد. است.
منبع: یورونیوز