ترندهای روز

«توهم توانایی» با چت جی‌پی‌تی: هوش مصنوعی اعتماد به‌ نفس را در همه «بیش از حد» بالا برده است

پایگاه خبری تحلیلی افق میهن (ofoghmihan.ir):

در حالی که استفاده از هوش مصنوعی در بین مردم در ماه‌های اخیر به‌طور تصاعدی افزایش یافته است، محققان می‌گویند که این ابزار جدید به ما «توهم توانایی» می‌دهد.

محققان دانشگاه آلتو فنلاند به همراه محققان آلمانی و کانادایی دریافته اند که هوش مصنوعی اعتماد به نفس را به طور یکسان و بیش از حد در همه افزایش می دهد.

طبق این مطالعه، وقتی شرکت‌کنندگان از چت‌بات‌هایی مانند JPT Chat برای حل مشکلات استفاده می‌کردند، تقریباً همه آنها (صرف نظر از مهارت واقعی) بیش از حد به کیفیت پاسخ‌ها تکیه می‌کردند.

جالبتر اینکه افرادی که بیشتر از هوش مصنوعی استفاده می کردند این اعتماد نابجا را بیشتر نشان دادند.

رابین ولش، یکی از نویسندگان این مطالعه، می‌گوید: «ما انتظار داشتیم افرادی که با هوش مصنوعی آشنا هستند بتوانند عملکرد خود را با دقت بیشتری اندازه‌گیری کنند، اما یافته‌های ما نشان داد که افراد در تشخیص عملکرد واقعی خود ضعیف هستند، حتی با تجربه زیادی در استفاده از هوش مصنوعی.

تفکر “کم عمق” به دلیل اتکای بیش از حد به پاسخ های هوش مصنوعی

در این مطالعه، ۵۰۰ نفر مجموعه ای از مسائل استدلال منطقی را حل کردند و نیمی از آنها اجازه یافتند از ChatGPT کمک بگیرند. سپس از آنها خواسته شد که هم توانایی و هم مهارت خود را در استفاده از هوش مصنوعی ارزیابی کنند.

افرادی که از هوش مصنوعی استفاده می کردند معمولا پس از اولین پاسخ راضی بودند و کمتر به تحقیقات بیشتر، پرسش مجدد یا ارزیابی انتقادی پاسخ می دادند.

در واقع، این تحقیق نشان داد کاربرانی که از هوش مصنوعی کمک می گیرند، بدون توجه به هوش، توانایی یا تجربه خود، مهارت های خود را بیش از حد ارزیابی می کنند و اعتماد به نفس کاذب به دست می آورند.

در عین حال، از آنجایی که هوش مصنوعی عملکرد همه را تا حدی بهبود می بخشد، همه از جمله افراد کم مهارت، به یک اندازه احساس توانایی می کنند. حتی اگر احساس درستی نداشته باشد.

محققان هشدار می دهند که این روند می تواند پیامدهای گسترده ای داشته باشد.

این پیامدها شامل کاهش توانایی انسان در بررسی انتقادی اطلاعات، افزایش تصمیمات اشتباه به دلیل اعتماد نابجا به خود و هوش مصنوعی، و از دست دادن مهارت های شناختی، به ویژه مهارت های تحلیلی و ارزیابی، و زوال «دقت فراشناختی» (یعنی توانایی تشخیص درستی یا نادرست بودن یک عملکرد) است.

در واقع با گسترش هوش مصنوعی این خطر وجود دارد که به تدریج توانایی های تحلیلی و انتقادی انسان ها ضعیف شود.

راه حل چیست؟

به گفته محققان، بخشی از راه حل این است که هوش مصنوعی باید طوری طراحی شود که کاربران را به پرسش، ارزیابی و تفکر انتقادی تشویق کند.

به عنوان مثال، با پرسیدن سوالاتی مانند اینکه چقدر به این پاسخ اطمینان دارید؟، چه گزینه ای ممکن است از قلم افتاده باشد؟ و آیا منابع دیگر را بررسی کرده اید؟ در این زمینه وضعیت می تواند بهتر باشد.

نتایج تحقیقات جدید قرار است در شماره بعدی مجله علمی «رایانه ها در رفتار انسان» منتشر شود.

منبع: یورونیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا