چرا آدم فضاییها خودشان را به ما نشان نمیدهند؟
ناکامی در یافتن حیات فرازمینی یکی از مهم ترین پرسش های دنیای علم است. در مقاله ای جدید، یک استاد اخترفیزیک در دانشگاه منچستر ادعا می کند که هوش مصنوعی ممکن است مسئول کوتاهی انسان ها از تمدن های پیشرفته در فضا و حیات فرازمینی باشد.
به گزارش برنا؛ گزارش اخیر مایکل گرت، استاد اخترفیزیک دانشگاه منچستر، نشان میدهد که هوش مصنوعی میتواند توضیحی باشد برای اینکه چرا ما هنوز با تمدنهای پیشرفته فناوری در سایر نقاط جهان روبرو هستیم.
فرضیه های زیادی برای توضیح اینکه چرا ستاره شناسان هیچ نشانه ای از حیات فرازمینی را در مجموعه وسیعی از داده های نجومی جمع آوری شده در 60 سال گذشته پیدا نکرده اند وجود دارد. از جمله این فرضیه ها می توان به «پارادوکس فرمی»، «فرضیه باغ وحش» و «نظریه جنگل تاریک» اشاره کرد.
گرت استدلال می کند که هوش مصنوعی می تواند یک فیلتر قدرتمند باشد. استدلال گرت این است که هر تمدنی که با یک مانع جهانی یا چالش غیرقابل عبور مواجه شود از ظهور حیات هوشمند جلوگیری می کند.
به گفته گرت، هوش مصنوعی ممکن است مسئول فقدان تمدن های پیشرفته از نظر فناوری باشد، زیرا این فیلتر قبل از رسیدن تمدن به سفر چند سیاره ای ظاهر می شود. حتی ناامید کننده تر، استدلال گرت فرض می کند که طول عمر معمول هر تمدن تکنولوژیکی کمتر از 200 سال است. با این حال، همه اینها غم و اندوه نیست، زیرا هوش مصنوعی مزایای خود را دارد.
مزایا و خطرات هوش مصنوعی
هوش مصنوعی در مقیاسهای زمانی بیسابقهای در مقایسه با سایر فناوریهای بالقوه مخرب توسعه یافته است. این فناوری در حال ادغام شدن در بافت زندگی روزمره ما است و نحوه تعامل ما با فناوری را به طور اساسی تغییر می دهد.
از مراقبت های بهداشتی گرفته تا کسب و کار و آموزش، پلیس و امنیت ملی، به نظر می رسد هیچ حوزه ای دست نخورده باقی نمانده باشد. گرت می نویسد، فکر کردن به حوزه ای که قبلاً با ظهور هوش مصنوعی مواجه نشده باشد، سخت است.
هوش مصنوعی، مانند هر فناوری دیگری، با وجود تمام مزایای بالقوه ای که می تواند داشته باشد، دارای پتانسیل بسیار بالایی برای آسیب است. به گفته گرت، جای تعجب نیست که انقلاب هوش مصنوعی نگرانی های جدی در مورد مسائل اجتماعی مانند جایگزینی نیروی کار، تعصب الگوریتمی، تبعیض، شفافیت، تغییرات اجتماعی، مسئولیت پذیری، حریم خصوصی و تصمیم گیری اخلاقی ایجاد کرده است.
در حالی که این نگرانیهای اخلاقی و اجتماعی شایسته توجه جدی است، گرت استدلال میکند که ممکن است این نگرانیها عاملی برای سقوط تمدن نباشند. در سال 2014، استیون هاوکینگ فقید آشکارا هشدار داد که اگر هوش مصنوعی بتواند توانایی تکامل مستقل، مهندسی مجدد خود را با سرعت فزاینده و تبدیل شدن به ابرهوشمند را به دست آورد، این پایان نسل بشر خواهد بود. گرت خاطرنشان کرد که جامعه بشری به سرعت به قلمروی ناشناخته رانده شد.
گرت، علاوه بر ترس از سلاحسازی هوش مصنوعی، استدلال میکند که سرعت فرآیندهای تصمیمگیری هوش مصنوعی میتواند تضادها را بسیار فراتر از اهداف اصلی تشدید کند. چه اتفاقی خواهد افتاد وقتی این سیستمهای هوش مصنوعی دیگر نیازی به حمایت تمدنهای زیستی برای وجود نداشته باشند؟
گرت می نویسد، هنگامی که به تکینگی تکنولوژیک دست می یابد، سیستم های ابرهوش مصنوعی به سرعت از هوش بیولوژیکی پیشی می گیرند و با سرعتی تکامل می یابند که مکانیسم های نظارت سنتی را کاملاً دور می زند و منجر به پیامدهای پیش بینی نشده و ناخواسته می شود که بعید به نظر می رسد به علایق بیولوژیکی یا اخلاق مربوط باشد.
وی افزود: کاربردهای عملی نگهداری موجودات زنده با نیازهای زیاد آنها به منابعی مانند انرژی و فضا، ممکن است بر کارایی محاسباتی متمرکز نباشد و باعث شود که هوش مصنوعی به آنها به عنوان یک مزاحم نگاه کند.
این در واقع یک ایده نگران کننده است و بدبینان هوش مصنوعی به آن تمایل دارند، اما در حال حاضر این بدترین سناریو را نشان می دهد.
نقش حیاتی تنظیمات
حقیقت این است که ما در حال ورود به قلمرو ناشناخته هوش مصنوعی هستیم و مسیر نهایی نامشخص است. هوش مصنوعی که در حال حاضر در زندگی روزمره خود با آن مواجه هستیم، هنوز در چارچوب محدودیت های ساخته شده توسط انسان عمل می کند، و ما باید بدانیم که هنوز عاملیت و توانایی شکل دادن به مسیر آن را داریم.
گرت معتقد است که راه حل موثر برای ایجاد یک شبکه ایمنی احتمالی در برابر خطرات یک ابر هوش مصنوعی ابرهوشمند، سفر چند سیاره ای است، به طوری که انسان ها به گونه ای چند سیاره ای تبدیل می شوند و می توانند از تجربیات خود در سیارات مختلف برای متنوع کردن استراتژی های بقای خود استفاده کنند.
با توجه به سرعت پیشی گرفتن هوش مصنوعی از سفرهای فضایی، این راه حل محتمل یا واقعی به نظر نمی رسد. گرت می نویسد، این به طور طبیعی ما را به موضوع پیچیده تنظیم و کنترل هوش مصنوعی می رساند. بدون مقررات عملی، دلایل زیادی برای این باور وجود دارد که هوش مصنوعی یک تهدید بزرگ برای مسیر آینده نه تنها تمدن تکنولوژیکی ما، بلکه برای تمام تمدن های تکنولوژیکی است.
وی افزود: اگرچه پیش از این دست اندرکاران صنعت، سیاستمداران، کارشناسان و دولت ها نسبت به نیاز به مقررات هشدار داده بودند، اما ایجاد یک چارچوب نظارتی که در سطح جهانی قابل قبول باشد، چالش برانگیز خواهد بود.
با این حال، تنظیم هوش مصنوعی غیرممکن نیست. پیامدهای تصمیمگیری مستقل هوش مصنوعی اخیراً منجر به درخواستهایی برای توقف توسعه هوش مصنوعی تا زمانی که یک شکل مسئول از کنترل و مقررات ایجاد شود، شده است.
به دلیل اولویت های متفاوت فرهنگی، اقتصادی و اجتماعی ملل مختلف، در تدوین مجموعه مقررات جهانی با مشکلاتی مواجه خواهد شد. علاوه بر این، توسعه سریع هوش مصنوعی احتمالاً از چارچوب نظارتی توافق شده پیشی میگیرد و این نگرانی را ایجاد میکند که چارچوبها همیشه از پیشرفتهای جدید و پیشبینی نشده در این زمینه عقبمانده باشند.
با نگاه به آینده، ممکن است بتوانیم بینش بهتری نسبت به چالش های فعلی به دست آوریم. گرت می نویسد: “با بررسی احتمالات تمدن های فرازمینی، این آزمایش فکری به ما کمک می کند تا در مورد پایداری طولانی مدت تمدن خود فکر کنیم، خطرات بالقوه ای را که با آن روبرو هستیم شناسایی کنیم و در مورد چگونگی غلبه بر چالش های آینده فکر کنیم.”