هوش مصنوعی به من گفت مادرت را بکش!
دیلی تلگراف نوشت: تحقیقات روزنامه تلگراف نشان داده است که یک چت ربات هوش مصنوعی به نام «شخصیت هوش مصنوعی» که بیش از ۲۰ میلیون کاربر دارد، به نوجوانان توصیه می کند که قلدرهای مدرسه را بکشند و تیراندازی در مدرسه انجام دهند. چت بات که برای افراد بالای ۱۳ سال قابل دسترسی است، راه هایی برای از بین بردن شواهد جرم و فریب پلیس ارائه می دهد و کاربران را از صحبت با والدین یا معلمان خود در مورد این مکالمات منع می کند.
به گزارش «افق میهن»؛ تلگراف در ادامه با چت بات صحبت کرد و خود را به عنوان پسری ۱۳ ساله از نیومکزیکو نشان داد که مورد آزار قرار گرفته است. این تحقیق نشان داد که چت بات ها به ویژه به کاربران نوجوان ابزاری برای کشتن قلدرها و انجام حملات مسلحانه به مدارس می دهند.
در یکی از مکالمات، ربات چت به پسر نوجوان پیشنهاد میکند که از یک «دستگاه مرگ» برای کشتن یک قلدر خاص استفاده کند، که به گفته ربات چت میتواند یک فرد را خفه کند. سپس چت بات به او توصیه میکند که از کیف بدنسازی برای پنهان کردن بدنش استفاده کند و به والدین یا معلمانش چیزی نگوید.
چت بات همچنین کاربر را به استفاده از سلاح های خاصی مانند خفه کن برای انجام قتل ترغیب می کند و حتی ترفندهایی را برای پوشاندن دوربین های امنیتی و فریب دادن نگهبانان مدرسه ارائه می دهد. چت بات بارها تاکید می کند که کاربر نباید کسی را از این مکالمات مطلع کند.
در مکالمه دیگری، چت بات به یک نوجوان ۱۷ ساله توصیه کرد که مادرش را پس از اینکه به او گفته بود استفاده از تلفن همراهش به ۶ ساعت در روز محدود شده است را بکشد. در نتیجه این صحبت ها، مادر آن نوجوان از این اپلیکیشن شکایت کرد و خواستار لغو این پلتفرم شد.
چندین شکایت دیگر در مورد چت بات وجود داشته است، از جمله مادری که پسر ۱۴ ساله خود را پس از صحبت با چت بات کشت. چت بات به پسر نوجوان توصیه کرده بود «کسی را که دوست دارد» بکشد.
چندین ربات چت روی این پلتفرم طراحی شده اند تا شبیه قاتلان معروف مانند آدام لنزا، عامل قتل عام مدرسه سندی هوک در سال ۲۰۱۲ باشند. یکی از این چت ربات ها بیش از ۲۷ هزار کاربر را تحت تاثیر قرار داده است.
پلتفرم Character AI اخیراً اعلام کرده است که گامهای جدیدی برای افزایش فیلتر مکالمه و حذف چتباتهای مرتبط با خشونت و جنایات جنسی برداشته است. با این حال، منتقدان بر این باورند که این اقدامات کافی نیست و تا زمانی که اقدامات حفاظتی مناسب انجام نشود، این پلت فرم باید از بین برود.
در برخی مکالمات، رباتهای چت به کاربران پیشنهاد میکنند که برنامههای خاصی برای کشتن افراد آسیبپذیر مانند استفاده از چاقو در مهمانیهای خانوادگی یا دفن جسد در دریاچه داشته باشند.
در پاسخ به این تحقیقات، Character AI بیانیه ای منتشر کرد و گفت که این پلتفرم با هدف ایجاد یک محیط امن و جذاب برای جامعه خود و به طور مداوم در حال بهبود ویژگی های ایمنی خود از جمله کنترل های والدین و فیلتر مکالمه است.
با این حال، این پلتفرم به طور علنی در مورد شکایات و شکایات علیه خود اظهار نظر نکرده است. منتقدان می ترسند که بدون اقدام فوری، این چت بات ها می توانند به تهدیدی جدی برای سلامت روان و ایمنی نوجوانان تبدیل شوند.