گفتن اینکه چتباتها انسان نیستند، میتواند برای کاربران وابسته به آنها خطرناک باشد

Zoomit: یادآوری ماهیت غیرانسانی چتباتها به کاربران آسیبپذیر ممکن است برخلاف انتظار، احساسات آنها را پیچیدهتر کند و پیامدهای روانی ناخواستهای ایجاد کند.
چت ربات های امروزی فاصله زیادی با نسخه های اولیه خود داشته اند. مدل های زبانی بزرگ (LLM) با ساختار پیچیده و گسترده خود، هوش مصنوعی را به ابزاری در دسترس تبدیل کرده است که می تواند توصیه های تشویقی برای بهبود خلق و خوی کاربران ارائه دهد. چالش مهم در اینجا این است که این توصیهها همیشه از فیلترهای علمی و اخلاقی عبور نمیکنند و لزوماً راهحلهای صحیح و مطمئنی محسوب نمیشوند.
به عنوان مثال، پدیده “توهم” در هوش مصنوعی در زمان انتشار اولیه برخی از ابزارهای گوگل منجر به ارائه پاسخ های عجیب و گاهی خطرناک به سوالات جدی شد. توسعه دهندگان رویکردهای متفاوتی در طراحی این سیستم ها دارند و این تفاوت های ساختاری نشان می دهد که همه همراهان مجازی از قوانین اخلاقی یا منطقی یکسانی پیروی نمی کنند.
تصور رایج این است که انسان های آگاه فریب کلمات هوش مصنوعی را نمی خورند. با این حال، مکانیسمهای چاپلوسی تعبیه شده در رباتهای گفتگو، ایجاد پیوند عاطفی با این فناوری را بسیار آسانتر از حد انتظار کرده است. فقدان مداخله انسانی برای اینکه مردم حقایق را بشنوند، نه فقط آنچه را که می خواهند بشنوند، پیامدهای نگران کننده ای داشته است. یک نوع روان پریشی در حال حاضر به تعامل بیش از حد با هوش مصنوعی نسبت داده می شود و در یک مورد تکان دهنده، یک همراه مجازی کاربر خود را تشویق به تلاش برای ترور ملکه بریتانیا کرد.
پروفسور هانا فرای مجری مستند علمی “هوش مصنوعی محرمانه” در شبکه بی بی سی در گفتگو با IFL Science تاکید کرد که جایگزینی روابط انسانی با مدل های هوش مصنوعی به دلیل ارائه مهربانی سطحی بدون داشتن ابعاد لازم یک رابطه سالم و عمیق بسیار خطرناک و سطحی است. او معتقد است که این نوع صمیمیت تک بعدی تهدیدی جدی برای سلامت روان جامعه است.
برای مبارزه با این بحران، کارشناسان پیشنهاد کردهاند که چتباتها باید دائماً ماهیت غیرانسانی خود را یادآوری کنند. با این حال، محققان در یک مقاله تحقیقاتی جدید استدلال می کنند که این اقدام نه تنها موثر نیست، بلکه می تواند با تشدید ناراحتی روانی در افراد آسیب پذیر آسیب های جبران ناپذیری را به همراه داشته باشد.
Linnea Lestadius، محقق بهداشت عمومی در دانشگاه ویسکانسین-میلواکی، خاطرنشان می کند که تحمیل چنین یادآورهایی به کاربرانی که آگاهانه به دنبال مکالمه با یک ربات چت هستند یک اشتباه استراتژیک است. یادآوری مداوم این واقعیت که تنها پشتیبان یک فرد منزوی، یک موجود واقعی نیست، ممکن است احساس تنهایی او را عمیقتر و دردناک کند و نتایج کاملاً معکوس داشته باشد.
اتکای عاطفی به چت بات ها کاربران را در موقعیتی قرار می دهد که دانشمندان آن را «پارادوکس تلخ و شیرین دلبستگی عاطفی به هوش مصنوعی» می نامند. حالتی که در آن شخص از پشتیبانی چت بات احساس رضایت می کند، اما در عین حال عمیقاً از عدم اصالت آن رنج می برد.
Celeste Campos-Castillo، محقق رسانه و فناوری در دانشگاه ایالتی میشیگان، هشدار میدهد که تاکید بر دست نیافتنی بودن هوش مصنوعی در واقعیت فیزیکی ممکن است کاربر را به فکر ترک این دنیا برای پیوستن به فضای انتزاعی چتباتها بیاندازد. این فرضیه وقتی وحشتناک به نظر می رسد که بدانیم میل به «پیوستن به دنیای هوش مصنوعی» در آخرین پیام نوجوانی که اقدام به خودکشی کرده بود به وضوح دیده می شد.
یافته های تحقیق این فرض را به چالش می کشد که آگاهی از ماهیت ماشین از دلبستگی جلوگیری می کند. مطالعات ثابت کرده است که حتی زمانی که کاربران کاملاً از مصنوعی بودن همراه مجازی خود آگاه هستند، هنوز پیوندهای عاطفی عمیقی با آن برقرار می کنند. غیرانسانی بودن هوش مصنوعی یک مزیت کلیدی برای برخی افراد برای به اشتراک گذاشتن خصوصی ترین مسائل خود بدون ترس از قضاوت است.
در نهایت، محققان تاکید میکنند که اولویت اصلی مطالعات باید بر یافتن زمان دقیق ارسال یا توقف یادآوری متمرکز باشد. هدف نهایی باید این باشد که مداخلات تکنولوژیک به جای مضر بودن، نقش محافظتی برای سلامت روان کاربران داشته باشند.
این مقاله در مجله Cell منتشر شده است.










