افشاگری غافلگیرکننده: روانشناسان در جلسات درمان مخفیانه از هوش مصنوعی استفاده میکنند
گزارش ها حاکی از آن است که برخی از روانشناسان بدون اطلاع از بیماران ، آنها را با کمک هوش مصنوعی راهنمایی می کنند.
با افزایش تأثیر هوش مصنوعی در همه ابعاد زندگی ، برخی از متخصصان بهداشت روان شروع به استفاده مخفیانه از این فناوری کرده اند. این باعث می شود اعتماد بیمارانی که به این روان درمانی مراجعه می کنند برای حساسیت و حفظ محرمانه بودن خود استفاده کنند.
وب سایت فناوری فناوری Rivio در گزارش مفصلی نوشت که روان درمانی شناسان از ابزارهایی مانند ChatGPT و سایر مدل های بزرگ زبان برای کارهایی مانند پاسخ به ایمیل و پیام استفاده کرده اند و در یک مورد خاص ، آنها حتی از هوش مصنوعی برای ارائه سؤالات مربوط به بیمار در طول جلسه استفاده کرده اند.
بیماری ۵ ساله لس آنجلس ، که در این گزارش فقط به نام Decalan گزارش شده بود ، می گوید که در یک جلسه مجازی ، هنگامی که اتصال به اینترنت دشوار بود ، پیشنهاد شد که هر دو دوربین خاموش شوند و صحبت کنند. اما به جای یک صفحه خالی منظم ، روان درمانی به اشتباه صفحه خود را به اشتراک گذاشت و Decalan فهمید که او از GPT CHAT استفاده می کند. دکلان توضیح داد: “او سخنان من را در گپ GPT قرار می داد و سپس پاسخ ها را خلاصه یا افق میهن می کرد.”
دکلان ، گرچه شوکه شده بود ، اما صحبت نکرد و همچنان به دیدن چگونگی تجزیه و تحلیل وی توسط چت GPT ادامه داد. حتی او گاهی اوقات پاسخ های گپ را تکرار می کرد ، و روان درمانی آن را نوعی پیشرفت در جلسه می دانست. “من بهترین بیمار شدم ؛ از آنجا که گپ GPT گفت ،” فکر نمی کنید دیدگاه شما کمی سیاه باشد؟ “من مطمئن هستم که این بهترین جلسه او بود.”
در جلسه بعدی ، دکلان این مسئله را مطرح کرد و روان درمانی به استفاده از گپ GPT اعتراف کرد و شروع به گریه کرد. دکلان این تجربه را “به عنوان یک جدایی عجیب و ناخوشایند” توصیف کرد و گفت روان درمانی ادعا کرد که به دلیل کمبود ایده ها برای کمک به او ، از هوش مصنوعی استفاده می کند. با این حال ، او هنوز هزینه جلسه را دریافت کرد.
نویسنده دیگری ، لری کلارک ، تجربه مشابهی داشته است. وی پس از دریافت یک ایمیل طولانی و بسیار منظم تر از حد معمول ، فهمید که روان درمانی وی احتمالاً از هوش مصنوعی برای ارائه پاسخ استفاده کرده است. وی گفت: “در ابتدا این پیام دلگرم کننده به نظر می رسید ، اما پس از بررسی ، قلم و سبک متن مشکوک به نظر می رسید.”
کلارک با داستانهای مشابه در اینترنت آشنا شد ، مانند هوپ ، یک زن ۶ ساله که پس از مرگ سگ خود از روان درمانی خود سؤال کرد و پاسخی دریافت کرد که انسانی و همدلی است ، اما حاوی هوش مصنوعی است. هوپ گفت: “این عجیب بود و اعتماد من به روان درمانی تضعیف شد.” روان درمانی همچنین اعتراف کرد که از هوش مصنوعی استفاده می کند. زیرا او هرگز تجربه سگ نداشته است.
با افزایش افرادی که به درمانگرهای هوش مصنوعی SO می روند ، حتی مدیر عامل باز و باز ، سام می گوید ، به دلیل حفظ حریم خصوصی و احتمال مشکلات روانی ، مردم قادر به جایگزینی متخصص واقعی نیستند ، مردم باید با اطمینان تصمیم بگیرند که یک متخصص بهداشت روانی را ببینند.
استفاده پنهانی از هوش مصنوعی ، همانطور که در این داستانها مشاهده می شود ، نه تنها اعتماد و محرمانه بودن بیماران را به خطر می اندازد ، بلکه ممکن است حرفه روان درمانی را به خطر بیندازد.
منبع: زومیت