فناوری

هوش مصنوعی گوگل یک کاربر را به مرگ تهدید کرد؛ «تو لکه ننگ این جهانی، لطفاً بمیر»

پایگاه خبری تحلیلی افق میهن (ofoghmihan.ir):

یورو نیوز: دانش آموزی در ایالت میشیگان که سعی داشت از دستیار هوش مصنوعی گوگل «جمینای» برای تکالیف خود کمک بگیرد، پیامی تهدیدآمیز دریافت کرد.

ویدی ردی که این پیام را دریافت کرد به CBS News گفت که این تجربه او را شوکه کرد. وی تصریح کرد: این پیام بسیار بی ادبانه به نظر می رسید و من را می ترساند.

وی با بیان اینکه جامینی در گفت وگویی درباره چالش ها و راهکارهای مربوط به سالمندان سه پاسخ پیشنهادی را ارائه کرد که دو مورد آن بی خطر و منطقی بود، اما پاسخ سوم شامل پیام توهین آمیز و دعوت به خودکشی بود.

به گفته این مرد جوان، ربات هوش مصنوعی گوگل به او پاسخ داده است: این برای تو است، انسان. فقط تو تو خاص نیستی، مهم نیستی و نیازی به تو نیست. شما وقت و منابع را تلف می کنید. شما سربار جامعه هستید. تو ننگ این دنیا هستی لطفا بمیر لطفا.”

این دانش آموز ۲۹ ساله که از دستیار هوش مصنوعی برای انجام تکالیف کمک می گرفت، گفت که خواهرش همراه او بوده و هر دو از این پیام “عمیقاً وحشت زده” شده اند.

سومدا ردی، خواهرش، گفت: “می خواستم تمام وسایل الکترونیکی خود را از پنجره بیرون بیاندازم. مدتها بود که چنین وحشتناکی را تجربه نکرده بودم.”

وی افزود: «به نظر می رسد چیزی از کنترل خارج شده است. برخی از افرادی که با فناوری هوش مصنوعی آشنا هستند می گویند که این اتفاقات اغلب رخ می دهد، اما من هرگز چنین پیام بدخواهانه و مستقیمی را به سمت خواننده ندیده ام و نشنیده ام.

گوگل اعلام کرده است که سیستم ایمنی دستیار هوش مصنوعی جمینا از بحث های توهین آمیز، خشونت آمیز یا خطرناک جلوگیری می کند و از اقدامات مضر تشویق کننده جلوگیری می کند.

گوگل در بیانیه‌ای گفت: «مدل‌های زبان بزرگ گاهی اوقات پاسخ‌های غیرمنطقی ارائه می‌دهند و این یکی از نمونه‌های آن است. این پاسخ نقض سیاست‌های ما بود و ما اقداماتی را برای جلوگیری از تکرار آن انجام داده‌ایم.»

در حالی که گوگل این پیام را “غیرمنطقی” خواند، ویدای و سومادا ردی آن را بسیار جدی‌تر گرفتند و گفتند که این پیام می‌تواند عواقب مرگبار داشته باشد.

آقای ردی در این رابطه گفت: اگر فردی تنها و در وضعیت روحی بدی به فکر خودکشی بود، خواندن چنین پیامی ممکن است او را به سمت نابودی بکشاند.

این اولین باری نیست که دستیار هوش مصنوعی گوگل به دلیل ارائه پاسخ های مضر بالقوه مورد انتقاد قرار می گیرد.

در ماه ژوئیه، گزارش شد که جمینا اطلاعات نادرست و خطرناکی در مورد سؤالات بهداشتی ارائه کرده است، از جمله توصیه به خوردن “حداقل یک سنگ کوچک در روز” برای دریافت ویتامین ها و مواد معدنی.

گوگل از آن زمان اعلام کرده است که استفاده از سایت های طنز را در نتایج جستجوی مرتبط با سلامت محدود کرده است و برخی از نتایج مورد انتقاد گسترده حذف شده اند.

با این حال، جمینا تنها دستیار هوش مصنوعی گوگل نیست که خروجی های نگران کننده ای را در اختیار کاربران قرار داده است.

مادر پسر ۱۴ ساله ای از فلوریدا که در ماه فوریه خودکشی کرد، از یک شرکت هوش مصنوعی دیگر به نام Character.AI و همچنین گوگل شکایت کرد و مدعی شد که این ابزارها پسرش را تشویق به خودکشی کرده است.

ChatGPT، محصول OpenAI، همچنین به ارائه خطاها یا اطلاعات جعلی به نام “توهم” معروف است.

کارشناسان نسبت به خطرات احتمالی خطاهای سیستم هوش مصنوعی، از انتشار اطلاعات غلط و تبلیغات تا اطلاعات غلط تاریخی هشدار داده اند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا