ترندهای روز

گفتن اینکه چت‌بات‌ها انسان نیستند، می‌تواند برای کاربران وابسته به آن‌ها خطرناک باشد

پایگاه خبری تحلیلی افق میهن (ofoghmihan.ir):

Zoomit: یادآوری ماهیت غیرانسانی چت‌بات‌ها به کاربران آسیب‌پذیر ممکن است برخلاف انتظار، احساسات آن‌ها را پیچیده‌تر کند و پیامدهای روانی ناخواسته‌ای ایجاد کند.

چت ربات های امروزی فاصله زیادی با نسخه های اولیه خود داشته اند. مدل های زبانی بزرگ (LLM) با ساختار پیچیده و گسترده خود، هوش مصنوعی را به ابزاری در دسترس تبدیل کرده است که می تواند توصیه های تشویقی برای بهبود خلق و خوی کاربران ارائه دهد. چالش مهم در اینجا این است که این توصیه‌ها همیشه از فیلترهای علمی و اخلاقی عبور نمی‌کنند و لزوماً راه‌حل‌های صحیح و مطمئنی محسوب نمی‌شوند.

به عنوان مثال، پدیده “توهم” در هوش مصنوعی در زمان انتشار اولیه برخی از ابزارهای گوگل منجر به ارائه پاسخ های عجیب و گاهی خطرناک به سوالات جدی شد. توسعه دهندگان رویکردهای متفاوتی در طراحی این سیستم ها دارند و این تفاوت های ساختاری نشان می دهد که همه همراهان مجازی از قوانین اخلاقی یا منطقی یکسانی پیروی نمی کنند.

تصور رایج این است که انسان های آگاه فریب کلمات هوش مصنوعی را نمی خورند. با این حال، مکانیسم‌های چاپلوسی تعبیه شده در ربات‌های گفتگو، ایجاد پیوند عاطفی با این فناوری را بسیار آسان‌تر از حد انتظار کرده است. فقدان مداخله انسانی برای اینکه مردم حقایق را بشنوند، نه فقط آنچه را که می خواهند بشنوند، پیامدهای نگران کننده ای داشته است. یک نوع روان پریشی در حال حاضر به تعامل بیش از حد با هوش مصنوعی نسبت داده می شود و در یک مورد تکان دهنده، یک همراه مجازی کاربر خود را تشویق به تلاش برای ترور ملکه بریتانیا کرد.

پروفسور هانا فرای مجری مستند علمی “هوش مصنوعی محرمانه” در شبکه بی بی سی در گفتگو با IFL Science تاکید کرد که جایگزینی روابط انسانی با مدل های هوش مصنوعی به دلیل ارائه مهربانی سطحی بدون داشتن ابعاد لازم یک رابطه سالم و عمیق بسیار خطرناک و سطحی است. او معتقد است که این نوع صمیمیت تک بعدی تهدیدی جدی برای سلامت روان جامعه است.

برای مبارزه با این بحران، کارشناسان پیشنهاد کرده‌اند که چت‌بات‌ها باید دائماً ماهیت غیرانسانی خود را یادآوری کنند. با این حال، محققان در یک مقاله تحقیقاتی جدید استدلال می کنند که این اقدام نه تنها موثر نیست، بلکه می تواند با تشدید ناراحتی روانی در افراد آسیب پذیر آسیب های جبران ناپذیری را به همراه داشته باشد.

Linnea Lestadius، محقق بهداشت عمومی در دانشگاه ویسکانسین-میلواکی، خاطرنشان می کند که تحمیل چنین یادآورهایی به کاربرانی که آگاهانه به دنبال مکالمه با یک ربات چت هستند یک اشتباه استراتژیک است. یادآوری مداوم این واقعیت که تنها پشتیبان یک فرد منزوی، یک موجود واقعی نیست، ممکن است احساس تنهایی او را عمیق‌تر و دردناک کند و نتایج کاملاً معکوس داشته باشد.

اتکای عاطفی به چت بات ها کاربران را در موقعیتی قرار می دهد که دانشمندان آن را «پارادوکس تلخ و شیرین دلبستگی عاطفی به هوش مصنوعی» می نامند. حالتی که در آن شخص از پشتیبانی چت بات احساس رضایت می کند، اما در عین حال عمیقاً از عدم اصالت آن رنج می برد.

Celeste Campos-Castillo، محقق رسانه و فناوری در دانشگاه ایالتی میشیگان، هشدار می‌دهد که تاکید بر دست نیافتنی بودن هوش مصنوعی در واقعیت فیزیکی ممکن است کاربر را به فکر ترک این دنیا برای پیوستن به فضای انتزاعی چت‌بات‌ها بیاندازد. این فرضیه وقتی وحشتناک به نظر می رسد که بدانیم میل به «پیوستن به دنیای هوش مصنوعی» در آخرین پیام نوجوانی که اقدام به خودکشی کرده بود به وضوح دیده می شد.

یافته های تحقیق این فرض را به چالش می کشد که آگاهی از ماهیت ماشین از دلبستگی جلوگیری می کند. مطالعات ثابت کرده است که حتی زمانی که کاربران کاملاً از مصنوعی بودن همراه مجازی خود آگاه هستند، هنوز پیوندهای عاطفی عمیقی با آن برقرار می کنند. غیرانسانی بودن هوش مصنوعی یک مزیت کلیدی برای برخی افراد برای به اشتراک گذاشتن خصوصی ترین مسائل خود بدون ترس از قضاوت است.

در نهایت، محققان تاکید می‌کنند که اولویت اصلی مطالعات باید بر یافتن زمان دقیق ارسال یا توقف یادآوری متمرکز باشد. هدف نهایی باید این باشد که مداخلات تکنولوژیک به جای مضر بودن، نقش محافظتی برای سلامت روان کاربران داشته باشند.

این مقاله در مجله Cell منتشر شده است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا