فناوری و تکنولوژی

چرا هوش مصنوعی در «غار افلاطون» زندانی است؟

خرید فالوور از سایت اینبو

آره

این افلاطون بود که این ایده را برای اولین بار مطرح کرد. او در تمثیل معروف «غار» زندانیان را به زنجیر بسته در غار به تصویر می کشد که صورتشان به دیوار است در حالی که آتشی پشت سرشان می سوزد. زندانیان نمی توانستند چیزی جز سایه هایی که روی دیوار جلوی آنها افکنده بود درک کنند. آنها خودشان نمی توانستند چیزها را ببینند و همه چیزهایی را که از جلوی آتش می گذشت فقط با سایه آن روی دیوار می دانستند. به نظر می رسد که این مثل هنوز در زمان ما قابل اجرا است و می تواند محدودیت های درک ما را توضیح دهد.

به گزارش فرادید؛ در زمینه مدرن، می‌توانیم محدودیت‌های مدل‌های هوش مصنوعی را مشابه محدودیت‌های زندانیان افلاطون تصور کنیم. هوش مصنوعی ربطی به خود دنیا و چیزهای موجود در آن ندارد، فقط به داده هایی که ما به آن می دهیم نگاه می کند. سعی می‌کند این سایه‌ها را معنا کند و همزمان احتمالات، روابط، الگوها یا روندها را ارزیابی می‌کند تا بهترین پیش‌بینی‌های موجود را انجام دهد. اساساً هوش مصنوعی در غار داده خودش قفل شده است.

ده ها اساساً تفسیری از جهان ما و بخش های مختلف آن هستند. آنها صرفاً ارائه ای انتخابی از مشاهدات، اندازه گیری ها و اطلاعات در مورد پدیده های مختلف هستند. از آنجایی که خود داده ها نامحدود هستند، فرآیند انتخاب داده ها محدود می شود و بنابراین ذاتاً پالایش شده و شخصی می شود.

مدل‌های هوش مصنوعی که ما بر روی این داده‌ها ایجاد می‌کنیم بر اساس ساده‌سازی‌ها هستند تا در عین حال که برای ما منطقی باشند مقرون به صرفه‌تر باشند. در نتیجه هیچ مدلی از هوش مصنوعی نمی تواند بازتابی کامل و جامع از دنیای واقعی باشد، بلکه تنها نسخه ای ساده و جزئی از آن است.

داده‌هایی که برای آموزش مدل‌ها نیاز داریم نیز می‌توانند ناقص، اریب یا مغرضانه باشند. وقتی این اتفاق می افتد، مدل ها چیزی را تولید می کنند که مردم آن را بی معنی تفسیر می کنند. خود مدل ها نمی توانند اشتباهات خود را از چشم انسان ببینند زیرا آنها فقط آنچه را که به آنها تغذیه می شود می بینند. همانطور که سایه های افلاطون دید زندانیان را محدود می کند، ما جهان را برای مدل های هوش مصنوعی خود محدود می کنیم.

به همین دلیل است که مدل‌های هوش مصنوعی مرتکب اشتباهاتی می‌شوند مانند: پیش‌بینی اتوبوسی که با دو سال تاخیر می‌رسد، تشخیص کیف پولی که در واقع یک آجر است، یا ایجاد تصویری از یک گربه با پنج پا! در دنیای مدلینگ، همه اینها نتایج معتبری هستند. اما در دنیای ما، اینها پیش بینی های بد، تشخیص های اشتباه یا توهم هستند.

اما اگر مدل‌های هوش مصنوعی کشف کنند که می‌توان مستقل از مشاهدات، تفاسیر و محدودیت‌های ما، درباره جهان یاد گرفت، ممکن است استراتژی‌ها و دیدگاه‌های منحصربه‌فرد خود را از جهان توسعه دهند.

در یک بازی که در آن یک شطرنج باز مدل به نام “آلفاگو” در برابر قهرمان انسانی به نام لی سدول بازی کرد، آلفاگو حرکتی را انجام داد که کارشناسان در ابتدا آن را “احمقانه” نامیدند اما در نهایت “احمق” شد. چنین موردی نشان می دهد که مدل های هوش مصنوعی خودآموز می توانند راه حل ها و پدیده هایی را ببینند که انسان ها نمی توانند ببینند.

افلاطون در تمثیل غار می گوید وظیفه فیلسوف این است که با خروج از غار و نگاه به عقاید، کلیات، الگوها و مفاهیم مختلف، جهان را بیشتر بشناسد. با بالا رفتن از سایه ها به کلیات و انتزاعات، ما شروع به درک جهان می کنیم و از درک فقط قلمرو مرئی به مفهوم سازی در قلمرو اندیشه و هوش حرکت می کنیم.

اما برای اینکه هوش مصنوعی فعلی از غار خارج شود و هوش خود را توسعه دهد، به زمان و منابع نیاز دارد. در این میان، باید به خاطر داشته باشیم که سیستم‌های هوش مصنوعی ما عمدتاً مدل‌های تخصصی هستند که ما آموزش می‌دهیم و تغذیه می‌کنیم.

این مدل ها در درک خود محدود هستند. ما در مرحله ای هستیم که هوش مصنوعی می تواند الگوها را تشخیص دهد و پیش بینی کند، اما نمی تواند افکار شناختی یا انتزاعی ایجاد کند. همچنین لازم نیست افلاطونی گرا باشیم تا به یاد داشته باشیم که هر چقدر هم که نتایج هوش مصنوعی جذاب باشد، باید تفکر انتقادی خود را حفظ کنیم و همیشه به خاطر داشته باشیم که هوش مصنوعی همچنان در یک غار گیر کرده است.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا