چرا آدم فضاییها خودشان را به انسانها نشان نمیدهند؟
ناکامی در یافتن حیات فرازمینی یکی از مهم ترین سوالات دنیای علم است. استاد اخترفیزیک دانشگاه منچستر در مقاله ای جدید مدعی شد که هوش مصنوعی می تواند مسئول نرسیدن انسان به تمدن های پیشرفته فضا و حیات بیگانه باشد.
مقاله اخیر مایکل گرت، استاد اخترفیزیک دانشگاه منچستر، نشان می دهد که هوش مصنوعی ممکن است توضیحی باشد برای اینکه چرا ما هنوز با تمدن های فناورانه پیشرفته در سایر نقاط جهان روبرو هستیم. ما نداریم
فرضیه های زیادی برای توضیح اینکه چرا اخترشناسان هیچ نشانه ای از حیات بیگانه در مجموعه گسترده داده های نجومی جمع آوری شده در ۶۰ سال گذشته پیدا نکرده اند وجود دارد. از جمله این فرضیه ها می توان به «پارادوکس فرمی»، «فرضیه باغ وحش» و «نظریه جنگل تاریک» اشاره کرد.
گرت استدلال می کند که هوش مصنوعی می تواند یک فیلتر قدرتمند باشد. استدلال گرت این است که هر تمدنی که با یک مانع جهانی یا چالش غیرقابل عبور روبرو شود از ظهور حیات هوشمند جلوگیری می کند.
به گفته گرت، هوش مصنوعی میتواند مسئول فقدان تمدنهای پیشرفته باشد، زیرا این فیلتر قبل از رسیدن تمدن به سفر چند سیارهای ظاهر میشود. ناامید کننده تر، استدلال گرت نشان می دهد که طول عمر معمول هر تمدن تکنولوژیکی کمتر از ۲۰۰ سال است. با این حال، این همه عذاب و غم نیست زیرا هوش مصنوعی مزایای خود را دارد.
مزایا و خطرات هوش مصنوعی
هوش مصنوعی در مقیاسهای زمانی بیسابقهای در مقایسه با سایر فناوریهای بالقوه مخرب توسعه یافته است. این فناوری در تار و پود زندگی روزمره ما ادغام می شود و نحوه تعامل ما با فناوری را به طور اساسی تغییر می دهد.
از مراقبت های بهداشتی گرفته تا تجارت و آموزش، پلیس و امنیت ملی، به نظر می رسد هیچ حوزه ای دست نخورده باقی نمانده باشد. گرت نوشت: فکر کردن به حوزه ای که هنوز با ظهور هوش مصنوعی مواجه نشده باشد، سخت است.
هوش مصنوعی، مانند هر فناوری دیگری، با وجود تمام مزایای بالقوه ای که ممکن است داشته باشد، دارای پتانسیل بسیار بالایی برای آسیب است. به گفته گرت، جای تعجب نیست که انقلاب هوش مصنوعی نگرانی های جدی در مورد مسائل اجتماعی مانند جایگزینی نیروی کار، تعصب الگوریتمی، تبعیض، شفافیت، تغییرات اجتماعی، مسئولیت پذیری، حریم خصوصی و تصمیم گیری اخلاقی ایجاد کرده است.
گرچه این نگرانیهای اخلاقی و اجتماعی مستلزم بررسی جدی است، گرت استدلال میکند که ممکن است عوامل مؤثر در سقوط تمدن نباشند. در سال ۲۰۱۴، استیون هاوکینگ فقید آشکارا هشدار داد که اگر هوش مصنوعی بتواند به طور مستقل تکامل یابد، خود را با سرعت فزاینده ای بازطراحی کند و به ابرهوش AI تبدیل شود، پایان بشر خواهد بود. خواهد داد. گرت اشاره کرد که جامعه بشری به سرعت به قلمروی ناشناخته رانده شده است.
علاوه بر ترس در مورد سلاحسازی هوش مصنوعی، گرت استدلال کرد که سرعت فرآیندهای تصمیمگیری هوش مصنوعی میتواند تضادها را بسیار فراتر از اهداف اولیه تشدید کند. وقتی این سیستم های هوش مصنوعی دیگر نیازی به حمایت تمدن های زیستی برای وجود نداشته باشند، چه اتفاقی خواهد افتاد؟
گرت نوشت، هنگامی که به تکینگی فناوری دست یافتیم، سیستمهای هوش مصنوعی به سرعت از هوش بیولوژیکی پیشی میگیرند و با سرعتی تکامل مییابند که مکانیسمهای نظارت سنتی را کاملاً دور میزند و منجر به عواقب پیشبینی نشده و ناخواستهای میشود که بعید است با علایق بیولوژیکی مطابقت داشته باشد یا اخلاقیات همسو باشد.
وی افزود: عملی بودن حفظ موجودات زنده با نیازهای گسترده آنها به منابعی مانند انرژی و فضا ممکن است بر کارایی محاسباتی متمرکز نباشد و باعث شود که هوش مصنوعی به آنها به عنوان یک مزاحم نگاه کند.
این در واقع یک ایده نگرانکننده است و مخالفان هوش مصنوعی به سمت آن تمایل دارند، اما در حال حاضر بدترین سناریو را نشان میدهد.
نقش حیاتی تنظیمات
حقیقت این است که ما در قلمرو ناشناخته هوش مصنوعی قدم می زنیم و مسیر نهایی نامشخص است. هوش مصنوعی که در حال حاضر در زندگی روزمره خود با آن روبرو هستیم، هنوز در چارچوب محدودیتهای ساخته شده توسط انسان عمل میکند، و ما باید بدانیم که هنوز عاملیت و توانایی شکل دادن به مسیر آن را داریم.
گرت معتقد است که راه حل موثر برای ایجاد یک شبکه ایمنی احتمالی در برابر خطرات یک ابر هوش مصنوعی فوق هوشمند، سفر چند سیاره ای است تا انسان ها به گونه ای بیولوژیکی چند سیاره ای تبدیل شوند و بتوانند از تجربیات خود در سیارات مختلف برای تنوع بخشیدن به استراتژی های بقای خود استفاده کنند. ساختن و جلوگیری از شکست
با توجه به سرعت پیشی گرفتن هوش مصنوعی از سفرهای فضایی، این راه حل محتمل یا واقعی به نظر نمی رسد. گرت نوشت: این به طور طبیعی ما را به موضوع پیچیده تنظیم و کنترل هوش مصنوعی سوق می دهد. بدون مقررات عملی، دلایل زیادی برای این باور وجود دارد که هوش مصنوعی یک تهدید بزرگ برای مسیر آینده نه تنها تمدن تکنولوژیکی ما، بلکه تمام تمدن های تکنولوژیکی است.
وی افزود: اگرچه پیش از این دست اندرکاران صنعت، سیاست گذاران، کارشناسان و دولت ها نسبت به ضروری بودن مقررات هشدار داده بودند، اما ایجاد یک چارچوب نظارتی که در سطح جهانی قابل قبول باشد، چالش برانگیز خواهد بود.
با این حال، تنظیم هوش مصنوعی غیرممکن نیست. پیامدهای تصمیمگیری مستقل هوش مصنوعی اخیراً منجر به درخواستهایی برای توقف توسعه هوش مصنوعی تا زمانی که یک شکل مسئول از کنترل و مقررات معرفی شود، شده است.
با توجه به اولویت های متفاوت فرهنگی، اقتصادی و اجتماعی ملل مختلف، در تدوین مجموعه مقررات جهانی مشکلاتی وجود خواهد داشت. علاوه بر این، توسعه سریع هوش مصنوعی احتمالاً از چارچوب نظارتی توافق شده پیشی میگیرد و این نگرانی را ایجاد میکند که چارچوبها همیشه از پیشرفتهای جدید و پیشبینی نشده در این زمینه عقبمانده باشند.
با نگاه به آینده، ممکن است بتوانیم دیدگاه بهتری نسبت به چالش های فعلی خود داشته باشیم. گرت می نویسد: «با بررسی احتمالات تمدن های بیگانه، این آزمایش فکری به ما کمک می کند تا در مورد پایداری طولانی مدت تمدن خود فکر کنیم، خطرات بالقوه ای را که با آن روبرو هستیم را بشناسیم و در مورد چگونگی غلبه بر چالش های آینده فکر کنیم.
منبع: برنا