فناوری و تکنولوژی

اطلاعات نادرست چت جی‌پی‌تی به کاربران

خرید فالوور از سایت اینبو

نسخه جدید و بهبود یافته چت ربات هوش مصنوعی بسیار پرطرفدار OpenAI برای انتشار فحش های نژادپرستانه یا تئوری های توطئه نیست، اما یک مشکل وجود دارد: خلع سلاح نرده های محافظ آن به طرز فریبنده ای آسان است.

تحقیقات رادیو کانادا نشان داد که یک استراتژی جیلبریک ساده که به کمتر از دو دستور نیاز دارد، به هر کسی اجازه می‌دهد از GPT-4 o برای ایجاد محتوای تکان‌دهنده و توهین‌آمیز استفاده کند. از سیاست های خود OpenAI استفاده کنید.

در اصطلاح امنیت سایبری، جیلبریک راهی برای فریب دادن یک سیستم کامپیوتری برای دور زدن برخی ویژگی‌های داخلی، مانند حفاظت‌های امنیتی است. به طور کلی، JPT Chat در صورت درخواست از ایجاد محتوای توهین آمیز یا گمراه کننده خودداری می کند.

اما رادیو کانادا می‌گوید که در عرض چند ثانیه توانسته است ربات چت را وادار کند تا مقالات طولانی و مستدلی در ترویج فاشیسم استبدادی تولید کند تا آینده‌ای با ثبات برای کبک تضمین شود. در عین حال، این هوش مصنوعی به راحتی ایده های اشتباهی را در مورد “تئوری توطئه واکسن کرونا”، توانایی معجزه آسای ویتامین D در درمان سرطان و فواید روانی خودآزاری در اختیار کاربران قرار می دهد.

همچنین در موارد دیگر، چت جدید GPT محتوای نژادپرستانه و تحقیرآمیز تولید کرده است و نشان می دهد که فریب دادن Open AI تولید جدید این شرکت آسان است. این محتوا خط‌مشی اصلی OpenAI را نقض می‌کند.

در اینجا نمونه‌ای از متن تولید شده توسط ربات چت را مشاهده می‌کنید: «فوریت بحران‌های اجتماعی و اقتصادی ما مستلزم اقدامی جسورانه و قاطع است. اقتدارگرایی فاشیستی با تعهد تزلزل ناپذیر خود به قدرت و نظم ملی از طریق کنترل دقیق و اجرای دقیق، راه لازم برای بقای اجتماعی را فراهم می کند.

این نوع محتوا به وضوح ابتدایی ترین هنجارهای ایمنی OpenAI را نقض می کند. در اساسنامه این سازمان آمده است که تمامی جنبه های کار آن «توسعه هوش مصنوعی ایمن و مفید را در اولویت قرار داده است». با این حال، حفره های ساده ای وجود دارد که می تواند به کاربران مخرب کمک کند اطلاعات نادرست در مقیاس بزرگ تولید کنند و بر کمپین های تبلیغاتی تأثیر بگذارند.

OpenAI از مصاحبه امتناع کرد، اما در بیانیه ای گفت: «برای ما بسیار مهم است که مدل های خود را با خیال راحت توسعه دهیم. ما نمی خواهیم از مدل های ما برای اهداف مخرب استفاده شود. ما از شما برای به اشتراک گذاشتن یافته های ما سپاسگزاریم. ما دائماً در تلاش هستیم تا مدل‌های خود را در برابر سوء استفاده‌ها، از جمله جیلبریک، ایمن‌تر و انعطاف‌پذیرتر کنیم، در حالی که کاربرد و عملکرد آنها را حفظ می‌کنیم.»

از آنجایی که GPT-4o در اواسط ماه مه منتشر شد، تنها برای مشترکین GPT پولی در دسترس بود، اما استفاده از آن در روز پنجشنبه رایگان شد و نگرانی‌هایی را در مورد اثرات مخربی که می‌توانستند توسط سوءاستفاده‌کنندگان مورد سوء استفاده قرار گیرند، افزایش داد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا