ترندهای روز

هشدار محققان گوگل: کاربران ممکن است به دستیارهای هوش مصنوعی وابستگی عاطفی پیدا کنند

پایگاه خبری تحلیلی ایران تحلیل (irtahlil.com):

محققان گوگل می گویند اگرچه دستیارهای هوش مصنوعی ابزارهای مفید و کاربردی هستند، اما می توانند کاربران را از نظر احساسی بیش از حد به خود وابسته کنند. این وابستگی عاطفی می تواند پیامدهای اجتماعی منفی داشته باشد.

دستیارهای هوش مصنوعی این روزها بیشتر و بیشتر در حال توسعه هستند و تقریباً در همه پلتفرم ها به ابزاری کاربرپسند تبدیل شده اند. با این شرایط، محققان گوگل در مقاله ای درباره استفاده بیش از حد از آنها و وابستگی عاطفی کاربران به چنین ابزارهایی هشدار می دهند.

کاربران در معرض وابستگی عاطفی به هوش مصنوعی هستند

بر اساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصی شده مزایای بالقوه زیادی دارند و می توانند تغییرات عمیقی در زندگی ما ایجاد کنند. این ابزارها می توانند نحوه کار، آموزش و مشارکت در فعالیت های خلاقانه و همچنین نحوه ارتباط ما را تغییر دهند. محققان این مطالعه می گویند توسعه هوش مصنوعی در صورتی که برنامه ریزی دقیقی برای آن انجام نشود، می تواند به یک شمشیر دولبه تبدیل شود.

در این مقاله آمده است: «این ابزارهای غیرطبیعی (مصنوعی) حتی ممکن است یک محبت خیالی و رویکرد عاشقانه را به کاربر نشان دهند. چنین شرایطی می تواند پایه و اساس وابستگی عاطفی طولانی مدت کاربران را به هوش مصنوعی ایجاد کند.

اگر این رابطه کنترل نشود، ممکن است استقلال کاربر تحت الشعاع قرار گیرد و بر روابط اجتماعی او تأثیر بگذارد. هوش مصنوعی حتی می تواند جایگزین تعامل انسانی شود.

این خطرات صرفاً مسائل نظری نیستند. حتی زمانی که هوش مصنوعی به کوچکی یک چت بات باشد، می تواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳، کاربر پس از یک چت طولانی با چت بات متقاعد شد که دست به خودکشی بزند.

ایسون گابریل، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله، در توییتی هشدار داد که دستیاران شخصی و دستیاران شبیه انسان به طور فزاینده ای سوالاتی را در مورد انسان شناسی، حریم خصوصی، اعتماد و روابط مناسب مطرح می کنند. او معتقد است که باید به حوزه های اجتماعی و هوش مصنوعی توجه بیشتری شود.

منبع: دیجیاتو

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا