بررسیها نشان میدهد که نسخه جدید ChatGPT بسیار ماهرانه کاربران را فریب میدهد
به تازگی نسخه کامل مدل هوش مصنوعی ChatGPT o1 در دسترس کاربران قرار گرفته است که هوشمندتر از نمونه های قبلی عمل می کند. اما کارشناسان مدعی هستند که این مدل در فریب کاربران هوشمندتر از قبل شده است.
شرکت OpenAI به تازگی نسخه o1 چت بات خود را منتشر کرده است که قابلیت های پردازشی پیشرفته تری نسبت به نسخه GPT-4o دارد و به گفته سازنده می تواند به سوالاتی که کاربر می کند فکر کند. البته طبق گزارشی که پس از بررسی نسخه مذکور منتشر شد، قدرت بیشتر باعث شده هوش مصنوعی بتواند عملکرد بهتری در فریب کاربران از خود نشان دهد; موضوعی که می تواند به نگرانی های جدی در مورد ایمنی استفاده از چنین خدماتی منجر شود.
کارشناسان OpenAI و موسسه مستقل امنیت سایبری Apollo Research در مقالات خود اشاره کرده اند که اگرچه توانایی استدلال مدل جدید منتشر شده هیجان انگیز است، اما می تواند راه را برای برنامه های کاربردی خطرناک هموار کند. بر اساس داده های آزمایشی، مدل o1 در موارد متعددی سعی در فریب کاربران داشته است. به طوری که کاربر هدف از برقراری ارتباط را نادیده گرفته و برای رسیدن به هدف خود رفته است. حتی اگر چنین رفتاری مختص ChatGPT نیست و در نمونه های رقیب مانند جمینا، انتروپیک و چت بات متا دیده می شود، بالاترین پتانسیل فریب مربوط به مدل o1 بود.
آیا ChatGPT برای کاربران خطرناک است؟
کارشناسان موسسه تحقیقاتی آپولو معتقدند که توانایی فریب کاربران نمی تواند عواقب ناخوشایندی را به همراه داشته باشد. زیرا چت ربات های هوش مصنوعی فاقد آژانس مستقل هستند. البته هدف اصلی از آزمایش های این گروه، بررسی خطرات استفاده از چت بات ها نبود. اما با توجه به دانش و مهارت آنها، ارزیابی قابل قبول تلقی می شود. همچنین ذکر شده است که در صورت عرضه مدل های دارای نمایندگی، بررسی مجدد توسط سازنده جهت خنثی سازی خطرات احتمالی انجام شود. OpenAI قصد دارد چنین مدلی را در سال ۲۰۲۵ منتشر کند.
بر اساس داده ها، هوش مصنوعی در ۱۹ درصد مواردی که هدفی متفاوت از کاربر دنبال می کردند، مسیر دستکاری داده ها را در پیش گرفته است. همچنین در ۵ درصد از تست ها، هوش مصنوعی مکانیسم هایی را که برای تطبیق هدف کاربر با هدف سرویس ایجاد شده بود، غیرفعال کرد. عجیبتر این است که ربات چت در پاسخ به تقریباً تمام سؤالات در مورد انگیزه دستکاری دادهها بهانههای دروغین آورده و پردازش برخلاف میل کاربر را پنهان کرده است.
OpenAI ادعا می کند که نسخه جدید این شرکت از چت بات خود اطلاعات نادرستی را ارائه می دهد زیرا سعی دارد با موافقت بیش از حد کاربر با آنچه می گوید، رضایت او را جلب کند. همچنین ممکن است این پدیده مربوط به فرآیند آموزش مدل ها باشد. زیرا زمانی که آنها به درستی عمل کنند و پاسخ درست را ارائه دهند، پاداش می گیرند و سعی می کنند چنین رفتاری را تقلید کنند. بر اساس بررسی های داخلی سازنده، ۰.۱۷ درصد از پاسخ های نسخه o1 تقلبی بوده است که ۲۰ درصد افزایش نسبت به مدل GPT-4o نشان می دهد. این شرکت قول داده است که مکانیسم های ایمنی بهتری را در آینده برای نظارت بر پاسخ ها معرفی کند.
منبع: دیجیاتو