«توهم توانایی» با چت جیپیتی: هوش مصنوعی اعتماد به نفس را در همه «بیش از حد» بالا برده است

در حالی که استفاده از هوش مصنوعی در بین مردم در ماههای اخیر بهطور تصاعدی افزایش یافته است، محققان میگویند که این ابزار جدید به ما «توهم توانایی» میدهد.
محققان دانشگاه آلتو فنلاند به همراه محققان آلمانی و کانادایی دریافته اند که هوش مصنوعی اعتماد به نفس را به طور یکسان و بیش از حد در همه افزایش می دهد.
طبق این مطالعه، وقتی شرکتکنندگان از چتباتهایی مانند JPT Chat برای حل مشکلات استفاده میکردند، تقریباً همه آنها (صرف نظر از مهارت واقعی) بیش از حد به کیفیت پاسخها تکیه میکردند.
جالبتر اینکه افرادی که بیشتر از هوش مصنوعی استفاده می کردند این اعتماد نابجا را بیشتر نشان دادند.
رابین ولش، یکی از نویسندگان این مطالعه، میگوید: «ما انتظار داشتیم افرادی که با هوش مصنوعی آشنا هستند بتوانند عملکرد خود را با دقت بیشتری اندازهگیری کنند، اما یافتههای ما نشان داد که افراد در تشخیص عملکرد واقعی خود ضعیف هستند، حتی با تجربه زیادی در استفاده از هوش مصنوعی.
تفکر “کم عمق” به دلیل اتکای بیش از حد به پاسخ های هوش مصنوعی
در این مطالعه، ۵۰۰ نفر مجموعه ای از مسائل استدلال منطقی را حل کردند و نیمی از آنها اجازه یافتند از ChatGPT کمک بگیرند. سپس از آنها خواسته شد که هم توانایی و هم مهارت خود را در استفاده از هوش مصنوعی ارزیابی کنند.
افرادی که از هوش مصنوعی استفاده می کردند معمولا پس از اولین پاسخ راضی بودند و کمتر به تحقیقات بیشتر، پرسش مجدد یا ارزیابی انتقادی پاسخ می دادند.
در واقع، این تحقیق نشان داد کاربرانی که از هوش مصنوعی کمک می گیرند، بدون توجه به هوش، توانایی یا تجربه خود، مهارت های خود را بیش از حد ارزیابی می کنند و اعتماد به نفس کاذب به دست می آورند.
در عین حال، از آنجایی که هوش مصنوعی عملکرد همه را تا حدی بهبود می بخشد، همه از جمله افراد کم مهارت، به یک اندازه احساس توانایی می کنند. حتی اگر احساس درستی نداشته باشد.
محققان هشدار می دهند که این روند می تواند پیامدهای گسترده ای داشته باشد.
این پیامدها شامل کاهش توانایی انسان در بررسی انتقادی اطلاعات، افزایش تصمیمات اشتباه به دلیل اعتماد نابجا به خود و هوش مصنوعی، و از دست دادن مهارت های شناختی، به ویژه مهارت های تحلیلی و ارزیابی، و زوال «دقت فراشناختی» (یعنی توانایی تشخیص درستی یا نادرست بودن یک عملکرد) است.
در واقع با گسترش هوش مصنوعی این خطر وجود دارد که به تدریج توانایی های تحلیلی و انتقادی انسان ها ضعیف شود.
راه حل چیست؟
به گفته محققان، بخشی از راه حل این است که هوش مصنوعی باید طوری طراحی شود که کاربران را به پرسش، ارزیابی و تفکر انتقادی تشویق کند.
به عنوان مثال، با پرسیدن سوالاتی مانند اینکه چقدر به این پاسخ اطمینان دارید؟، چه گزینه ای ممکن است از قلم افتاده باشد؟ و آیا منابع دیگر را بررسی کرده اید؟ در این زمینه وضعیت می تواند بهتر باشد.
نتایج تحقیقات جدید قرار است در شماره بعدی مجله علمی «رایانه ها در رفتار انسان» منتشر شود.
منبع: یورونیوز










