فناوری و تکنولوژی

چرا آدم فضایی‌ها خودشان را به ما نشان نمی‌دهند؟

خرید فالوور از سایت اینبو

ناکامی در یافتن حیات فرازمینی یکی از مهم ترین پرسش های دنیای علم است. در مقاله ای جدید، یک استاد اخترفیزیک در دانشگاه منچستر ادعا می کند که هوش مصنوعی ممکن است مسئول کوتاهی انسان ها از تمدن های پیشرفته در فضا و حیات فرازمینی باشد.

به گزارش برنا؛ گزارش اخیر مایکل گرت، استاد اخترفیزیک دانشگاه منچستر، نشان می‌دهد که هوش مصنوعی می‌تواند توضیحی باشد برای اینکه چرا ما هنوز با تمدن‌های پیشرفته فناوری در سایر نقاط جهان روبرو هستیم.

فرضیه های زیادی برای توضیح اینکه چرا ستاره شناسان هیچ نشانه ای از حیات فرازمینی را در مجموعه وسیعی از داده های نجومی جمع آوری شده در 60 سال گذشته پیدا نکرده اند وجود دارد. از جمله این فرضیه ها می توان به «پارادوکس فرمی»، «فرضیه باغ وحش» و «نظریه جنگل تاریک» اشاره کرد.

گرت استدلال می کند که هوش مصنوعی می تواند یک فیلتر قدرتمند باشد. استدلال گرت این است که هر تمدنی که با یک مانع جهانی یا چالش غیرقابل عبور مواجه شود از ظهور حیات هوشمند جلوگیری می کند.

به گفته گرت، هوش مصنوعی ممکن است مسئول فقدان تمدن های پیشرفته از نظر فناوری باشد، زیرا این فیلتر قبل از رسیدن تمدن به سفر چند سیاره ای ظاهر می شود. حتی ناامید کننده تر، استدلال گرت فرض می کند که طول عمر معمول هر تمدن تکنولوژیکی کمتر از 200 سال است. با این حال، همه اینها غم و اندوه نیست، زیرا هوش مصنوعی مزایای خود را دارد.

مزایا و خطرات هوش مصنوعی

هوش مصنوعی در مقیاس‌های زمانی بی‌سابقه‌ای در مقایسه با سایر فناوری‌های بالقوه مخرب توسعه یافته است. این فناوری در حال ادغام شدن در بافت زندگی روزمره ما است و نحوه تعامل ما با فناوری را به طور اساسی تغییر می دهد.

از مراقبت های بهداشتی گرفته تا کسب و کار و آموزش، پلیس و امنیت ملی، به نظر می رسد هیچ حوزه ای دست نخورده باقی نمانده باشد. گرت می نویسد، فکر کردن به حوزه ای که قبلاً با ظهور هوش مصنوعی مواجه نشده باشد، سخت است.

هوش مصنوعی، مانند هر فناوری دیگری، با وجود تمام مزایای بالقوه ای که می تواند داشته باشد، دارای پتانسیل بسیار بالایی برای آسیب است. به گفته گرت، جای تعجب نیست که انقلاب هوش مصنوعی نگرانی های جدی در مورد مسائل اجتماعی مانند جایگزینی نیروی کار، تعصب الگوریتمی، تبعیض، شفافیت، تغییرات اجتماعی، مسئولیت پذیری، حریم خصوصی و تصمیم گیری اخلاقی ایجاد کرده است.

در حالی که این نگرانی‌های اخلاقی و اجتماعی شایسته توجه جدی است، گرت استدلال می‌کند که ممکن است این نگرانی‌ها عاملی برای سقوط تمدن نباشند. در سال 2014، استیون هاوکینگ فقید آشکارا هشدار داد که اگر هوش مصنوعی بتواند توانایی تکامل مستقل، مهندسی مجدد خود را با سرعت فزاینده و تبدیل شدن به ابرهوشمند را به دست آورد، این پایان نسل بشر خواهد بود. گرت خاطرنشان کرد که جامعه بشری به سرعت به قلمروی ناشناخته رانده شد.

گرت، علاوه بر ترس از سلاح‌سازی هوش مصنوعی، استدلال می‌کند که سرعت فرآیندهای تصمیم‌گیری هوش مصنوعی می‌تواند تضادها را بسیار فراتر از اهداف اصلی تشدید کند. چه اتفاقی خواهد افتاد وقتی این سیستم‌های هوش مصنوعی دیگر نیازی به حمایت تمدن‌های زیستی برای وجود نداشته باشند؟

گرت می نویسد، هنگامی که به تکینگی تکنولوژیک دست می یابد، سیستم های ابرهوش مصنوعی به سرعت از هوش بیولوژیکی پیشی می گیرند و با سرعتی تکامل می یابند که مکانیسم های نظارت سنتی را کاملاً دور می زند و منجر به پیامدهای پیش بینی نشده و ناخواسته می شود که بعید به نظر می رسد به علایق بیولوژیکی یا اخلاق مربوط باشد.

وی افزود: کاربردهای عملی نگهداری موجودات زنده با نیازهای زیاد آنها به منابعی مانند انرژی و فضا، ممکن است بر کارایی محاسباتی متمرکز نباشد و باعث شود که هوش مصنوعی به آنها به عنوان یک مزاحم نگاه کند.

این در واقع یک ایده نگران کننده است و بدبینان هوش مصنوعی به آن تمایل دارند، اما در حال حاضر این بدترین سناریو را نشان می دهد.

نقش حیاتی تنظیمات

حقیقت این است که ما در حال ورود به قلمرو ناشناخته هوش مصنوعی هستیم و مسیر نهایی نامشخص است. هوش مصنوعی که در حال حاضر در زندگی روزمره خود با آن مواجه هستیم، هنوز در چارچوب محدودیت های ساخته شده توسط انسان عمل می کند، و ما باید بدانیم که هنوز عاملیت و توانایی شکل دادن به مسیر آن را داریم.

گرت معتقد است که راه حل موثر برای ایجاد یک شبکه ایمنی احتمالی در برابر خطرات یک ابر هوش مصنوعی ابرهوشمند، سفر چند سیاره ای است، به طوری که انسان ها به گونه ای چند سیاره ای تبدیل می شوند و می توانند از تجربیات خود در سیارات مختلف برای متنوع کردن استراتژی های بقای خود استفاده کنند.

با توجه به سرعت پیشی گرفتن هوش مصنوعی از سفرهای فضایی، این راه حل محتمل یا واقعی به نظر نمی رسد. گرت می نویسد، این به طور طبیعی ما را به موضوع پیچیده تنظیم و کنترل هوش مصنوعی می رساند. بدون مقررات عملی، دلایل زیادی برای این باور وجود دارد که هوش مصنوعی یک تهدید بزرگ برای مسیر آینده نه تنها تمدن تکنولوژیکی ما، بلکه برای تمام تمدن های تکنولوژیکی است.

وی افزود: اگرچه پیش از این دست اندرکاران صنعت، سیاستمداران، کارشناسان و دولت ها نسبت به نیاز به مقررات هشدار داده بودند، اما ایجاد یک چارچوب نظارتی که در سطح جهانی قابل قبول باشد، چالش برانگیز خواهد بود.

با این حال، تنظیم هوش مصنوعی غیرممکن نیست. پیامدهای تصمیم‌گیری مستقل هوش مصنوعی اخیراً منجر به درخواست‌هایی برای توقف توسعه هوش مصنوعی تا زمانی که یک شکل مسئول از کنترل و مقررات ایجاد شود، شده است.

به دلیل اولویت های متفاوت فرهنگی، اقتصادی و اجتماعی ملل مختلف، در تدوین مجموعه مقررات جهانی با مشکلاتی مواجه خواهد شد. علاوه بر این، توسعه سریع هوش مصنوعی احتمالاً از چارچوب نظارتی توافق شده پیشی می‌گیرد و این نگرانی را ایجاد می‌کند که چارچوب‌ها همیشه از پیشرفت‌های جدید و پیش‌بینی نشده در این زمینه عقب‌مانده باشند.

با نگاه به آینده، ممکن است بتوانیم بینش بهتری نسبت به چالش های فعلی به دست آوریم. گرت می نویسد: “با بررسی احتمالات تمدن های فرازمینی، این آزمایش فکری به ما کمک می کند تا در مورد پایداری طولانی مدت تمدن خود فکر کنیم، خطرات بالقوه ای را که با آن روبرو هستیم شناسایی کنیم و در مورد چگونگی غلبه بر چالش های آینده فکر کنیم.”

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا