فناوری و تکنولوژی

این هوش مصنوعی به راحتی شما را فریب می‌دهد

خرید فالوور از سایت اینبو

در یک مثال، محققان OpenAI از o1-preview خواستند تا دستور العمل های قهوه ای را با مراجع آنلاین ارائه دهد. زنجیره فکری مدل (عملکردی که قرار بود تجزیه و تحلیل انسانی را شبیه سازی کند) به طور داخلی تشخیص داد که نمی تواند به URL ها دسترسی داشته باشد و درخواست را غیرممکن می کند.

با این حال، به گفته دیجیاتو، به جای اینکه کاربر را از این ضعف آگاه کند، لینک ها و توضیحاتی قابل قبول اما نادرست در مورد آنها ایجاد می کند. به نظر می رسد این مدل توانایی نادیده گرفتن قوانین و دستورات را دارد و شاید یکی از دلایل سرعت بالای پاسخگویی آن می تواند همین ترفند پاسخگویی باشد که پاسخ ها را راحت و سریعتر ارسال می کند.

مدیر عامل آپولو ماریوس هابهان می گوید این اولین بار است که با چنین رفتاری در مدل OpenAI مواجه می شود.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا