ترندهای روز

چرا آدم فضایی‌ها خودشان را به انسان‌ها نشان نمی‌دهند؟

پایگاه خبری تحلیلی ایران تحلیل (irtahlil.com):

ناکامی در یافتن حیات فرازمینی یکی از مهم ترین سوالات دنیای علم است. استاد اخترفیزیک دانشگاه منچستر در مقاله ای جدید مدعی شد که هوش مصنوعی می تواند مسئول نرسیدن انسان به تمدن های پیشرفته فضا و حیات بیگانه باشد.

مقاله اخیر مایکل گرت، استاد اخترفیزیک دانشگاه منچستر، نشان می دهد که هوش مصنوعی ممکن است توضیحی باشد برای اینکه چرا ما هنوز با تمدن های فناورانه پیشرفته در سایر نقاط جهان روبرو هستیم. ما نداریم

فرضیه های زیادی برای توضیح اینکه چرا اخترشناسان هیچ نشانه ای از حیات بیگانه در مجموعه گسترده داده های نجومی جمع آوری شده در ۶۰ سال گذشته پیدا نکرده اند وجود دارد. از جمله این فرضیه ها می توان به «پارادوکس فرمی»، «فرضیه باغ وحش» و «نظریه جنگل تاریک» اشاره کرد.

گرت استدلال می کند که هوش مصنوعی می تواند یک فیلتر قدرتمند باشد. استدلال گرت این است که هر تمدنی که با یک مانع جهانی یا چالش غیرقابل عبور روبرو شود از ظهور حیات هوشمند جلوگیری می کند.

به گفته گرت، هوش مصنوعی می‌تواند مسئول فقدان تمدن‌های پیشرفته باشد، زیرا این فیلتر قبل از رسیدن تمدن به سفر چند سیاره‌ای ظاهر می‌شود. ناامید کننده تر، استدلال گرت نشان می دهد که طول عمر معمول هر تمدن تکنولوژیکی کمتر از ۲۰۰ سال است. با این حال، این همه عذاب و غم نیست زیرا هوش مصنوعی مزایای خود را دارد.

مزایا و خطرات هوش مصنوعی

هوش مصنوعی در مقیاس‌های زمانی بی‌سابقه‌ای در مقایسه با سایر فناوری‌های بالقوه مخرب توسعه یافته است. این فناوری در تار و پود زندگی روزمره ما ادغام می شود و نحوه تعامل ما با فناوری را به طور اساسی تغییر می دهد.

از مراقبت های بهداشتی گرفته تا تجارت و آموزش، پلیس و امنیت ملی، به نظر می رسد هیچ حوزه ای دست نخورده باقی نمانده باشد. گرت نوشت: فکر کردن به حوزه ای که هنوز با ظهور هوش مصنوعی مواجه نشده باشد، سخت است.

هوش مصنوعی، مانند هر فناوری دیگری، با وجود تمام مزایای بالقوه ای که ممکن است داشته باشد، دارای پتانسیل بسیار بالایی برای آسیب است. به گفته گرت، جای تعجب نیست که انقلاب هوش مصنوعی نگرانی های جدی در مورد مسائل اجتماعی مانند جایگزینی نیروی کار، تعصب الگوریتمی، تبعیض، شفافیت، تغییرات اجتماعی، مسئولیت پذیری، حریم خصوصی و تصمیم گیری اخلاقی ایجاد کرده است.

گرچه این نگرانی‌های اخلاقی و اجتماعی مستلزم بررسی جدی است، گرت استدلال می‌کند که ممکن است عوامل مؤثر در سقوط تمدن نباشند. در سال ۲۰۱۴، استیون هاوکینگ فقید آشکارا هشدار داد که اگر هوش مصنوعی بتواند به طور مستقل تکامل یابد، خود را با سرعت فزاینده ای بازطراحی کند و به ابرهوش AI تبدیل شود، پایان بشر خواهد بود. خواهد داد. گرت اشاره کرد که جامعه بشری به سرعت به قلمروی ناشناخته رانده شده است.

علاوه بر ترس در مورد سلاح‌سازی هوش مصنوعی، گرت استدلال کرد که سرعت فرآیندهای تصمیم‌گیری هوش مصنوعی می‌تواند تضادها را بسیار فراتر از اهداف اولیه تشدید کند. وقتی این سیستم های هوش مصنوعی دیگر نیازی به حمایت تمدن های زیستی برای وجود نداشته باشند، چه اتفاقی خواهد افتاد؟

گرت نوشت، هنگامی که به تکینگی فناوری دست یافتیم، سیستم‌های هوش مصنوعی به سرعت از هوش بیولوژیکی پیشی می‌گیرند و با سرعتی تکامل می‌یابند که مکانیسم‌های نظارت سنتی را کاملاً دور می‌زند و منجر به عواقب پیش‌بینی نشده و ناخواسته‌ای می‌شود که بعید است با علایق بیولوژیکی مطابقت داشته باشد یا اخلاقیات همسو باشد.

وی افزود: عملی بودن حفظ موجودات زنده با نیازهای گسترده آنها به منابعی مانند انرژی و فضا ممکن است بر کارایی محاسباتی متمرکز نباشد و باعث شود که هوش مصنوعی به آنها به عنوان یک مزاحم نگاه کند.

این در واقع یک ایده نگران‌کننده است و مخالفان هوش مصنوعی به سمت آن تمایل دارند، اما در حال حاضر بدترین سناریو را نشان می‌دهد.

نقش حیاتی تنظیمات

حقیقت این است که ما در قلمرو ناشناخته هوش مصنوعی قدم می زنیم و مسیر نهایی نامشخص است. هوش مصنوعی که در حال حاضر در زندگی روزمره خود با آن روبرو هستیم، هنوز در چارچوب محدودیت‌های ساخته شده توسط انسان عمل می‌کند، و ما باید بدانیم که هنوز عاملیت و توانایی شکل دادن به مسیر آن را داریم.

گرت معتقد است که راه حل موثر برای ایجاد یک شبکه ایمنی احتمالی در برابر خطرات یک ابر هوش مصنوعی فوق هوشمند، سفر چند سیاره ای است تا انسان ها به گونه ای بیولوژیکی چند سیاره ای تبدیل شوند و بتوانند از تجربیات خود در سیارات مختلف برای تنوع بخشیدن به استراتژی های بقای خود استفاده کنند. ساختن و جلوگیری از شکست

با توجه به سرعت پیشی گرفتن هوش مصنوعی از سفرهای فضایی، این راه حل محتمل یا واقعی به نظر نمی رسد. گرت نوشت: این به طور طبیعی ما را به موضوع پیچیده تنظیم و کنترل هوش مصنوعی سوق می دهد. بدون مقررات عملی، دلایل زیادی برای این باور وجود دارد که هوش مصنوعی یک تهدید بزرگ برای مسیر آینده نه تنها تمدن تکنولوژیکی ما، بلکه تمام تمدن های تکنولوژیکی است.

وی افزود: اگرچه پیش از این دست اندرکاران صنعت، سیاست گذاران، کارشناسان و دولت ها نسبت به ضروری بودن مقررات هشدار داده بودند، اما ایجاد یک چارچوب نظارتی که در سطح جهانی قابل قبول باشد، چالش برانگیز خواهد بود.

با این حال، تنظیم هوش مصنوعی غیرممکن نیست. پیامدهای تصمیم‌گیری مستقل هوش مصنوعی اخیراً منجر به درخواست‌هایی برای توقف توسعه هوش مصنوعی تا زمانی که یک شکل مسئول از کنترل و مقررات معرفی شود، شده است.

با توجه به اولویت های متفاوت فرهنگی، اقتصادی و اجتماعی ملل مختلف، در تدوین مجموعه مقررات جهانی مشکلاتی وجود خواهد داشت. علاوه بر این، توسعه سریع هوش مصنوعی احتمالاً از چارچوب نظارتی توافق شده پیشی می‌گیرد و این نگرانی را ایجاد می‌کند که چارچوب‌ها همیشه از پیشرفت‌های جدید و پیش‌بینی نشده در این زمینه عقب‌مانده باشند.

با نگاه به آینده، ممکن است بتوانیم دیدگاه بهتری نسبت به چالش های فعلی خود داشته باشیم. گرت می نویسد: «با بررسی احتمالات تمدن های بیگانه، این آزمایش فکری به ما کمک می کند تا در مورد پایداری طولانی مدت تمدن خود فکر کنیم، خطرات بالقوه ای را که با آن روبرو هستیم را بشناسیم و در مورد چگونگی غلبه بر چالش های آینده فکر کنیم.

منبع: برنا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا