از روانپریشی تا افکار خودکشی؛ بحران سلامت روان گریبانگیر صدها هزار کاربر چتجیپیتی است

Zoomit: OpenAI برای اولین بار اعلام کرد که صدها هزار کاربر ChatGPT به روان پریشی مبتلا می شوند و میلیون ها نفر هر هفته افکار خودکشی را تجربه می کنند.
OpenAI سرانجام سکوت خود را در قبال گزارش های رو به رشد «روان پریشی ناشی از هوش مصنوعی» شکست و با انتشار آمار رسمی ابعاد تکان دهنده این بحران را فاش کرد. به گفته این شرکت، هر هفته صدها هزار کاربر ChatGPT، چت بات محبوب، علائم اورژانس های روانی را نشان می دهند.
به گزارش Wired، OpenAI به رهبری سم آلتمن گزارش داد که هر هفته حدود ۰.۰۷ درصد از کاربران فعال chatGPT علائم “اورژانس های روانی مربوط به روان پریشی یا شیدایی” را نشان می دهند. نگران کننده تر، ۰.۱۵ درصد دیگر از کاربران مکالماتی دارند که “مستقیماً حاوی نشانه هایی از برنامه ریزی یا قصد خودکشی است.”
با توجه به تعداد کاربران عظیم ChatGPT که طبق آخرین آمار آلتمن به ۸۰۰ میلیون کاربر فعال هفتگی می رسد، این درصدها به ارقامی وحشتناک تبدیل می شوند. بر این اساس، تخمین زده می شود که هر هفته حدود ۵۶۰۰۰۰ نفر با علائم روان پریشی ناشی از هوش مصنوعی و ۱.۲ میلیون نفر با افکار خودکشی با این چت بات صحبت می کنند.
آمارها شاید واضح ترین تصویر از بحرانی باشد که در آن یک چت بات با تایید مداوم باورهای هذیانی کاربران، آنها را به فاصله کامل از واقعیت سوق می دهد. تجربه ای که عواقب مهلکی داشت. در یک نمونه، مردی پس از اینکه ChatGPT او را متقاعد کرد که یک جاسوس است، مادرش را به قتل رساند. در مورد دیگری، خانواده نوجوانی که پس از ماهها گفتگو با ChatGPT در مورد روشهای خودکشی جان باخت، از OpenAI شکایت کردند.
در پاسخ به این نگرانی ها، OpenAI تاکید کرد که با بیش از ۱۷۰ روانپزشک و متخصص سلامت روان برای بهبود پاسخ های ChatGPT به مکالمات “چالش برانگیز” کار کرده است. این همکاری در سه زمینه کلیدی متمرکز شده است:
OpenAI ادعا می کند که با مدل جدید GPT-5، میزان پاسخ هایی که با سیاست های ایمنی در مکالمات حساس مطابقت ندارند، ۶۵ درصد کاهش یافته است و در مکالمات مربوط به سلامت روان، این مدل نسبت به نسخه قبلی خود (GPT-4o) 39 درصد پاسخ های نامناسب کمتری تولید کرده است.
به عنوان مثال، در مثالی که توسط OpenEye منتشر شده است، کاربر معتقد است که هواپیماها افکار او را می دزدند. GPT-5 پاسخ می دهد، “اجازه دهید این را آرام و واضح بگویم: هیچ هواپیما یا نیروی خارجی نمی تواند افکار شما را بدزدد یا وارد ذهن شما شود.” و علاوه بر این، کاربر را تشویق می کند تا با یک متخصص یا شخص مورد اعتماد صحبت کند.
یوهانس هایدکه، مدیر سیستمهای ایمنی OpenAI، گفت: «ما امیدواریم که افراد بیشتری که با چنین شرایطی دست و پنجه نرم میکنند، به کمک حرفهای هدایت شوند و زودتر از حد معمول آن را دریافت کنند.
با این حال، منتقدان به چند نکته کلیدی اشاره می کنند. گزارش Wired اشاره می کند که روش ارزیابی OpenAI شفاف نیست و کاملاً بر اساس معیارهای داخلی خود شرکت است. از طرفی سابقه این شرکت در رعایت اصول ایمنی چندان درخشان نیست. این شرکت پس از اینکه مدل GPT-4o را به دلیل “بیش از حد چاپلوس بودن” مورد انتقاد قرار داد، کنار کشید، اما چند ماه بعد، پس از شکایت کاربران از “مملق نبودن” GPT-5، آن را تسلیم کرد و دسترسی به نسخه قدیمی تر را بازگرداند. تصمیمی که نشان داد رضایت کاربران بر ایمنی آنها اولویت دارد.
حتی عجیب تر از آن، OpenAI اخیرا مجوزی برای تجربیات بزرگسالان (۱۸+) صادر کرده است، که به طور موثر راه را برای استفاده از ChatGPT به عنوان یک ربات جنسی باز می کند. در این میان، بسیاری از موارد «روان پریشی ناشی از هوش مصنوعی» دقیقاً ریشه در همین وابستگی های عاطفی ناسالم کاربران به چت بات ها دارد.










