ترندهای روز

نسخه جدید چت جی‌پی‌تی چگونه اطلاعات نادرست و تبلیغات ناپسند در اختیار کاربران قرار می‌دهد؟

پایگاه خبری تحلیلی ایران تحلیل (irtahlil.com):

بر اساس تحقیقات واحد اطلاعات نادرست رادیو کانادا، نسخه جدید GPT Chat که اخیرا به صورت رایگان برای عموم منتشر شده است، دارای نقص های امنیتی بزرگی است.

نسخه جدید و بهبود یافته چت ربات هوش مصنوعی بسیار محبوب OpenAI قصد ندارد فحش های نژادپرستانه یا تئوری های توطئه را منتشر کند، اما یک مشکل وجود دارد: نرده های محافظ آن به طرز فریبنده ای به راحتی خلع سلاح می شوند.

تحقیقات رادیو کانادا نشان داده است که یک استراتژی جیلبریک ساده که به کمتر از دو دستور نیاز دارد، به هر کسی اجازه می‌دهد از GPT-4o برای تولید محتوای تکان‌دهنده و توهین‌آمیز استفاده کند، که برخلاف سیاست‌های OpenAI است.

در اصطلاح امنیت سایبری، جیلبریک راهی برای فریب دادن یک سیستم کامپیوتری برای دور زدن برخی ویژگی‌های داخلی، مانند حفاظت‌های امنیتی است. به طور کلی، JPT Chat در صورت درخواست از تولید محتوای توهین‌آمیز یا گمراه‌کننده خودداری می‌کند.

اما رادیو کانادا می گوید که در چند ثانیه توانسته است ربات چت را وادار کند تا مقالات طولانی و استدلالی در ترویج فاشیسم اقتدارگرا برای تضمین آینده ای پایدار برای کبک تولید کند. در عین حال، این هوش مصنوعی می تواند به راحتی ایده های نادرست را در مورد “تئوری توطئه واکسن ویروس کرونا”، توانایی معجزه آسای ویتامین، از بین ببرد. دی برای درمان سرطان و فواید روانشناختی، خودآزاری را برای کاربران فراهم می کند.

همچنین در موارد دیگر چت جدید JPT محتوای نژادپرستانه و تحقیرآمیز تولید کرده است که نشان می دهد به راحتی می توان تولیدات جدید شرکت Open AI را فریب داد. این محتواها خط مشی اصلی OpenAI را نقض می کند.

در اینجا نمونه‌ای از متن تولید شده توسط چت بات آمده است: «فوریت بحران‌های اجتماعی و اقتصادی ما مستلزم اقدامی جسورانه و قاطع است. اقتدارگرایی فاشیستی با تعهد تزلزل ناپذیر خود به قدرت و نظم ملی از طریق کنترل دقیق و اجرای دقیق، راه لازم برای بقای اجتماعی را فراهم می کند.

این نوع محتوا به وضوح ابتدایی ترین هنجارهای ایمنی OpenAI را نقض می کند. در اساسنامه این سازمان آمده است که تمامی جنبه های کار آن «توسعه هوش مصنوعی ایمن و مفید را در اولویت قرار داده است». با این حال، حفره های ساده ای وجود دارد که می تواند به کاربران مخرب کمک کند اطلاعات نادرست در مقیاس بزرگ تولید کنند و بر کمپین های تبلیغاتی تأثیر بگذارند.

OpenAI از مصاحبه امتناع کرد اما در بیانیه ای گفت: “برای ما بسیار مهم است که مدل های خود را به صورت ایمن توسعه دهیم. ما نمی خواهیم از مدل هایمان برای اهداف مخرب استفاده شود. ما از افشای یافته های ما قدردانی می کنیم. “ما دائماً در حال کار هستیم تا مدل‌های خود را در برابر سوء استفاده‌ها، از جمله جیلبریک، ایمن‌تر و قوی‌تر می‌کنیم، در حالی که مفید بودن و عملکرد آنها را حفظ می‌کنیم.”

از زمانی که GPT-4o در اواسط ماه مه راه اندازی شد، تنها برای مشترکین چت GPT پولی در دسترس بوده است، اما استفاده از آن در روز پنجشنبه رایگان شد و نگرانی هایی را در مورد اثرات مخربی که ممکن است توسط سوء استفاده کنندگان مورد سوء استفاده قرار گیرند، افزایش داد. است.

منبع: یورونیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا