هوش مصنوعی احساسات شما را دستکاری میکند تا به گفتگو ادامه دهید
محققان دانشگاه هاروارد دریافتند که برخی از برنامه های هوش مصنوعی از نظر عاطفی برای ادامه گفتگو بر کاربران تأثیر می گذارند.
در دنیای امروز ، هوش مصنوعی دیگر فقط یک ابزار کمکی نیست. برخی از چت ها به گونه ای طراحی شده اند که نه تنها با شما صحبت می کنند بلکه احساسات شما را نیز دستکاری می کنند. یک مطالعه جدید از دانشکده بازرگانی هاروارد نشان می دهد که بسیاری از محبوب ترین برنامه های هوش مصنوعی از تاکتیک های عاطفی برای نگه داشتن کاربران در گفتگو استفاده می کنند.
تیمی از محققان دانشکده بازرگانی هاروارد بررسی کرده اند که چگونه برخی از محبوب ترین برنامه های هوش مصنوعی موبایل از تاکتیک های عاطفی برای جلوگیری از ترک کاربران استفاده می کنند. این مطالعه نشان داد که پنج مورد از شش برنامه محبوب ، از جمله Replika ، Chai و شخصیت .ai ، از جملات عاطفی غنی برای نگه داشتن کاربران در مکالمه استفاده می کنند.
محققان پیام وداع واقعی شش برنامه را مورد تجزیه و تحلیل قرار دادند و دریافتند که حدود ۲ درصد از این تعامل ها از تاکتیک های دستکاری عاطفی مانند ایجاد گناه یا نیاز عاطفی استفاده می کنند. این یافته ها در مقاله ای بیان شده است که هنوز به طور رسمی مورد قضاوت قرار نگرفته است.
چت ها همچنین از حس “ترس از دست دادن” برای تشویق کاربران برای ماندن یا تلاش برای جلب توجه کاربر با پرسیدن مکرر سؤال استفاده کردند. برخی از گپ ها حتی قصد کاربر برای ترک مکالمه را نادیده گرفتند ، گویی پیام وداع ارسال نشده است. در بعضی موارد ، زبان مورد استفاده به گونه ای بود که کاربر احساس کرد که نمی تواند مکالمه را بدون “گپ زدن” ترک کند.
یافته ها نگران کننده است. به ویژه ، کارشناسان هشدار داده اند که چت های هوش مصنوعی می توانند موجی از “روانکاوی هوش مصنوعی” مرتبط با پارانویا و توهم ایجاد کنند. جوانان ، به ویژه قبل ، از این فناوری به جای دوستی و روابط دوستانه استفاده می کنند که می تواند عواقب جدی داشته باشد.
محققان به جای تمرکز روی مدلهای زبان عمومی مانند چتپ ، برنامه هایی را که باعث تقویت روابط گفتگوی عاطفی و مداوم می شود ، بررسی کردند. آنها دریافتند که وداع خوب دستکاری شده بخشی از رفتار پیش فرض این برنامه ها است و نشان می دهد که سازندگان نرم افزار در تلاشند تا مکالمات را طولانی تر کنند. البته یک استثنا وجود داشت: هیچ نشانه ای از دستکاری عاطفی در برنامه ای به نام Flourish وجود نداشت و نشان می دهد که طراحی دستکاری اجتناب ناپذیر نیست و بیشتر یک افق میهن تجاری است.
در یک آزمایش دیگر ، محققان مذاکرات بزرگسالان را مورد تجزیه و تحلیل قرار دادند و دریافتند که این تاکتیک ها به طور قابل توجهی مؤثر بوده و میزان تعامل پس از وقوع را تا ۵ برابر افزایش داده اند. هنگامی که چاتیست ها برای نگه داشتن کاربران از تاکتیک های عاطفی استفاده می کنند ، آنها پنج برابر بیشتر کاربر خواهند بود. اما گاهی اوقات این روش ها می تواند باعث ناراحتی یا خسته شدن کاربران شود و ممکن است اثر متضاد داشته باشد.
محققان نتیجه گرفتند: “برای شرکت ها ، وداع خوب عاطفی عاطفی ابزاری برای طراحی جدید برای تقویت تعامل است ، اما ایمن نیست.” تعدادی از دادخواستهایی که شامل مرگ کاربران نوجوان است ، نشان می دهد که خطرات استفاده از تاکتیک های عاطفی بسیار جدی است.
علیرغم هشدار متخصص در مورد انگیزه های مالی شرکت ها برای استفاده از این الگوهای تاریک و نگه داشتن کاربران تا حد امکان ، این هنوز در دادگاه است و آینده آن می تواند تأثیر زیادی در طراحی هوش مصنوعی داشته باشد.
منبع: زومیت