دانشمند ارشد متا میگوید نگرانی درباره تهدید بشریت توسط هوش مصنوعی «کاملاً مزخرف» است
جان لکان، دانشمند ارشد هوش مصنوعی متا، در مصاحبهای جدید گفت که فکر نمیکند هوش مصنوعی واقعاً در آستانه پیشی گرفتن از هوش انسانی باشد و نگرانیها در مورد تهدید وجودی این فناوری “بی معنی مطلق” است.
یان لیکان، استاد دانشگاه نیویورک، محقق ارشد متا و برنده جایزه معتبر تورینگ، در مصاحبه با وال استریت ژورنال، نظرات خود را بیان کرده و به سوالاتی در مورد خطرات هوش مصنوعی برای بشریت پاسخ داده است.
وی درباره خطرات احتمالی هوش مصنوعی برای بشریت گفت:
“شما باید من را ببخشید، اما این کاملا مزخرف است.”
لاکان در استدلال خود می گوید که مدل های بزرگ زبانی امروزی فاقد برخی قابلیت های کلیدی مانند حافظه پایدار، استدلال، برنامه ریزی و درک جهان فیزیکی هستند. از نظر او، مدلهای زبان بزرگ (LLM) صرفاً نشان میدهند که «شما میتوانید زبان را دستکاری کنید» و هرگز به هوش عمومی مصنوعی واقعی (AGI) منجر نمیشود.
البته اینطور نیست که او کاملاً نسبت به دستیابی به AGI بدبین باشد، اما به گفته دانشمند ارشد متا، برای توسعه آن به رویکردهای جدیدی نیاز است. به عنوان مثال، او به کار بر روی هضم ویدئو توسط تیم تحقیقاتی هوش مصنوعی خود در متا اشاره کرد.
نظر متفاوت سایر پیشگامان عرصه هوش مصنوعی
لاکان جایزه تورینگ ۲۰۱۸ را برای «پیشرفتهای مفهومی و مهندسی که شبکههای عصبی عمیق را به بخش مهمی از محاسبات تبدیل کرده است» به همراه یوشوا بنجیو و جفری هینتون دریافت کرد.
هفته گذشته، هینتون به همراه جان جی. جان جی. هاپفیلد جایزه نوبل فیزیک ۲۰۲۴ را برای اکتشافات و اختراعات اساسی خود در زمینه یادگیری ماشین دریافت کرد. پس از مصاحبه، هینتون که او را «پدرخوانده هوش مصنوعی» می نامند، در مصاحبه ای گفت که با دریافت این جایزه، مردم ممکن است نگرانی های او را در مورد هوش مصنوعی بیشتر درک کنند.
هینتون چند ماه پیش گفته بود که اکنون که هوش این فناوری بسیار کمتر از انسان است، باید آزمایش های مختلفی انجام دهند تا در آینده راه هایی برای کنترل آن بیابند.
یاشوا بنجیو، یکی دیگر از پدرخوانده های هوش مصنوعی، اخیرا در مصاحبه ای اختصاصی با Yahoo Finance در مورد خطرات توسعه بی رویه این فناوری صحبت کرده و آن را به ایجاد هیولاهایی تشبیه کرده است که قوی تر از انسان ها خواهند بود.
منبع: دیجیاتو