فناوری و تکنولوژی

جنبه ترسناک هوش‌ مصنوعی؛ با اموات حرف بزنید!

خرید فالوور از سایت اینبو

دو جامعه شناس به نام های توماس هولانک و کاتارزینا نواچیک-باسینسکا در مورد زندگی پس از مرگ دیجیتال ابراز نگرانی کرده اند. آنها بر این باورند که چت‌بات‌هایی که افراد متوفی را تقلید می‌کنند، که گاهی اوقات به آنها ربات‌های مرده، سادبات‌ها یا ربات‌های شبح گفته می‌شود، چندین سؤال کلیدی اجتماعی و اخلاقی را مطرح می‌کنند.

به گزارش سرگرمی روز، به عنوان مثال، داده های یک فرد پس از مرگ کیست؟ تاثیر روانی بر بازماندگان چیست؟ برای چه کاری می توان از ربات روح استفاده کرد؟ و چه کسی می تواند ربات را برای همیشه خاموش کند؟ چنین سوالاتی زمانی الهام بخش یک قسمت وحشتناک از سریال علمی تخیلی Black Mirror شد، اگرچه به نظر نمی رسد که آینده باشد.

با این حال، سناریویی وجود دارد که Hollanek و Nowaczyk-Basińska در مقاله تحقیقاتی اخیر خود ارائه می دهند و به نظر می رسد که نباید از آن غافل شد. به عنوان مثال، مادربزرگ یک زن 28 ساله تصمیم می گیرد عکس ها، فیلم ها و اطلاعات مادربزرگ خود را در یک برنامه آپلود کند. این برنامه مانع از صحبت زن با مادربزرگش می شود. اما اتفاق عجیبی می افتد؛ در این آزمایش، مادربزرگ دیجیتال در حالی که با نوه اش صحبت می کند شروع به فروش وسایل خود می کند.

جنبه ترسناک هوش مصنوعی؛  با مرده ها حرف بزن!

به گفته کارشناسان، افراد می توانند با چنین شبیه سازی هایی پیوندهای عاطفی قوی ایجاد کنند، اما باید توجه داشته باشند که آسیب پذیرتر نیز می شوند. بنابراین به نظر می رسد که حتی تشریفات روح ربات نیز باید آبرومندانه انجام شود، زیرا به معنای نوعی دفن دیجیتالی است. در حالی که در ابتدا چنین توجهی به ربات چت هوش مصنوعی ممکن است پوچ به نظر برسد، در سال 2018 برخی از اخلاق شناسان استدلال کردند که بقایای دیجیتالی یک فرد ارزشمند است و باید به عنوان یک موجودیت با ارزش ذاتی با آنها به عنوان چیزی بیشتر رفتار شود. این منطق با منشور اخلاق حرفه‌ای شورای بین‌المللی موزه‌ها مطابقت دارد، که الزام می‌کند با بقایای انسان با احترام و کرامت انسانی رفتار شود.

با این حال، این دو متخصص اخلاق معتقدند که نمی توان این روبات ها را ممنوع کرد، اما می توان آنها را طوری ساخت که با داده های افراد با احترام رفتار کنند. همچنین نباید در مکان های عمومی استفاده شود و فقط برای شخصیت های مهم تاریخی باشد.

در سال 2022، فردی ادعا می کند که ربات های روح می توانند به عنوان کمک های پزشکی استفاده شوند. به عنوان مثال، کودکی که یکی از عزیزان خود را از دست می دهد ممکن است گیج شود و اگر چنین رباتی وجود داشته باشد، ممکن است کمک چندانی به آن کودک نداشته باشد. اما دوباره، Hollanek و Nowaczyk-Basińska استدلال می کنند که این ایده بسیار محدود و محدود است، زیرا به طور خاص برای روبات هایی که فقط برای پردازش غم و اندوه طراحی شده اند، کاربرد دارد.

در عوض، آنها استدلال می کنند، این سیستم ها باید به طور معناداری شفاف شوند تا کاربران بهترین درک ممکن را از آنچه که اطلاعات برنامه را ارائه می دهند داشته باشند. همچنین خطرات احتمالی این ربات ها را درک کنید. همچنین باید بدانیم چگونه روح ربات را غیرفعال کنیم. به عنوان مثال، اگر فردی روح ربات را به فرزند خود بدهد، آیا آن شخص حق انصراف دارد؟ یا باید روح ربات برای همیشه در حلقه کسی وجود داشته باشد؟

بنابراین، این دو کارشناس معتقدند برای هدایت ساخت چنین رباتی باید نوعی حصار محافظ وجود داشته باشد و این تفکر انتقادی در مورد جاودانگی کاربران به طراحی تعامل با هوش مصنوعی انسان و تحقیقات اخلاقی هوش مصنوعی کمک خواهد کرد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا