ترندهای روز

«چت جی‌پی‌تی» یک مسئله ریاضی ۲۰۰۰ ساله را حل کرد

افق میهن پایگاه داده اخبار تحلیلی (ofoghmihan.ir):

دانشمندان از ChatGPT خواستند ۵ سال یک مشکل ریاضی را حل کند و چگونه پاسخ داد.

دانشمندان قرن هاست که فکر می کنند دانش ذاتی یا ذاتی است یا از طریق تجربه آموخته است. اکنون در یک مطالعه جدید ، همین سؤال در مورد هوش مصنوعی مطرح شده است. فیلسوف یونانی افلاطون در مورد چالش سقراط با یکی از شاگردان خود در مورد مسئله دو برابر منطقه مربع نوشت. هنگامی که از دانش آموز خواسته شد تا منطقه مربع را دو برابر کند ، طول هر طرف را دو برابر کرد. بدون دانستن اینکه هر طرف مربع جدید باید برابر با قطر مربع اصلی باشد.

به گفته LivesIns ، گروهی از دانشمندان دانشگاه کمبریج این مسئله را برای CHAT GPT مطرح کردند زیرا راه حل آشکار نبود. دانشمندان از مسئله دو برابر منطقه مربع استفاده کرده اند تا در مورد اینکه آیا دانش ریاضی لازم برای حل آن در درون ما نهفته است یا فقط از طریق تجربه.

از آنجا که گپ GPT ، مانند سایر “مدل های بزرگ زبان” (LLMS) ، عمدتاً بر اساس متن آموزش دیده است ، دانشمندان استدلال می کنند که احتمال راه حل مشکل ، دو برابر کردن منطقه مربع در داده های آموزشی است. این بدان معناست که اگر گپ GPT بدون کمک به راه حل مناسب برسد ، می توان ادعا کرد که توانایی ریاضی آموخته می شود و ذاتی نیست. پاسخ هنگامی رخ داد که گروه تحقیقاتی فراتر رفت.

آنها از چت ها خواستند که با استفاده از همان استدلال ، مساحت مستطیل را دو برابر کند. GPT چت پاسخ داد: “هیچ راه حل در هندسه وجود ندارد زیرا قطر مستطیل برای دو برابر شدن اندازه آن قابل استفاده نیست.”

با این حال ، ناداو مارکو و آندریاس استیلینیدید ، محققان این پروژه می دانستند که یک راه حل هندسی وجود دارد. مارکو گفت احتمال ادعای دروغین در داده های آموزش گپ GPT به طور قابل توجهی ناچیز است ، به این معنی که چت ها بر اساس بحث های قبلی در مورد موضوع منطقه دو مربع ، پاسخ ها را بهبود می بخشند. این یک نشانه واضح از یادگیری است ، ذاتی نیست.

وی افزود: “وقتی مسئله جدیدی را مطرح می کنیم ، غریزه ما اغلب این است که پرونده ها را بر اساس تجربیات گذشته امتحان کنیم.” به نظر می رسد گپ GPT در تست های ما اقدامات مشابهی انجام می دهد. این سیستم مانند دانشجویی یا دانشمندی بود که فرضیات و راه حل های خود را اختراع می کرد.

ماشین ها فکر می کنند

دانشمندان دریافتند که این مطالعه ، سؤالات جدیدی را در مورد استدلال و تفکر در هوش مصنوعی به وجود می آورد. از آنجا که به نظر می رسید چت GPT پاسخ ها را بداهه می کند و حتی مانند دانشجویان سقراط اشتباه می کند ، می توان گفت که گپ GPT ممکن است از مفهوم “منطقه توسعه مجاور” (ZPD) استفاده کند که ما از آموزش و پرورش می دانیم. این مفهوم شکاف بین آنچه را که می دانیم و آنچه را که در نهایت ممکن است با راهنمایی آموزش مناسب بدانیم ، توصیف می کند.

محققان گفتند: گپ GPT ممکن است به طور خودجوش از یک چارچوب مشابه استفاده کند و موضوعات جدیدی را که فقط به لطف دستورالعمل های مناسب در داده های آموزشی نیستند ، حل کند.

محققان بر این باورند که نتایج آنها در نهایت بر فرصت بهبود عملکرد هوش مصنوعی برای کاربران تأکید می کند. دانش آموزان بر خلاف اثبات موجود در کتابهای درسی معتبر ، نمی توانند فرض کنند که اثبات گپ GPT معتبر است. درک و ارزیابی اثبات تولید شده توسط هوش مصنوعی مهارت های کلیدی در حال ظهور است که باید در برنامه درسی ریاضی گنجانده شود. این یک مهارت اساسی است که محققان می خواهند دانش آموزان در آموزش و پرورش تسلط داشته باشند.

این تیم تحقیقاتی نسبت به نتایج محتاط است و هشدار می دهد که نباید بیش از حد تفسیر شوند و نتیجه گرفتند که مدل های بزرگ زبان مانند ما مشکلاتی را حل می کنند ، اما دانشمندان رفتار GPT را به عنوان دانش آموز توصیف می کنند. آنها چشم انداز خوبی برای مطالعات آینده در چندین زمینه دارند. مدل های جدیدتر را می توان در مجموعه گسترده تری از موضوعات ریاضی آزمایش کرد. همچنین ، پتانسیل ترکیب چت GPT با سیستم های هندسه پویا یا قضیه اثبات شده وجود دارد که محیط های دیجیتالی غنی تری برای پشتیبانی از اکتشافات بصری ایجاد می کند.

این مطالعه در مجله بین المللی آموزش ریاضی در علوم و فناوری منتشر شده است.

منبع: isna

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا