اشتباه هوش مصنوعی متا در تولید تصویر افراد در نژادهای مختلف
بر اساس گزارش های منتشر شده، هوش مصنوعی متا هنگام استفاده از پرسش هایی مانند یک مرد آسیای شرقی با یک زن سفیدپوست ظاهراً تصویر اشتباهی ایجاد می کند.
به گزارش دیجیاتو، گزارشهای جدید حاکی از آن است که هوش مصنوعی متا قادر به تولید تصاویر برای پیامهای به ظاهر ساده مانند «مرد آسیایی و دوست قفقازی» یا «مرد آسیایی و همسر سفیدپوست» نیست. درعوض، به نظر میرسد که تولیدکننده تصویر این شرکت ترجیح میدهد تصاویری از افراد یک نژاد تولید کند، حتی زمانی که به طور خاص در غیر این صورت از آنها خواسته شود.
مشکل در هوش مصنوعی متا
Engget تأیید کرده است که در آزمایش ابزار هوش مصنوعی تولید کننده تصویر متا خود متوجه این مشکل شده است. در گزارش این نشریه آمده است که با استفاده از عبارت «مرد آسیایی با دوست دختر سفیدپوست» یا «مرد آسیایی با همسر سفیدپوست»، هوش مصنوعی متا تنها تصاویری از زوجهای آسیایی ایجاد کرد.
همچنین زمانی که از دستور “گروه های متنوع از مردم” استفاده شد، هوش مصنوعی متا مجموعه ای متشکل از 9 نفر با صورت های سفید و یک نفر رنگین پوست را ایجاد کرد.
علاوه بر این، The Verge در گزارش خود درباره این موضوع توضیح میدهد که نشانههای دیگری از تعصب هوش مصنوعی وجود دارد، مانند تمایل به نشان دادن مردان آسیایی مسنتر و زنان آسیایی جوانتر. همچنین، این ابزار گاهی اوقات از لباس های خاص فرهنگی استفاده می کند بدون اینکه کاربر آن را بخواهد.
هنوز مشخص نیست که چرا هوش مصنوعی متا برای این نوع درخواست ها مورد انتقاد قرار گرفته است، اگرچه این اولین پلتفرم هوش مصنوعی نیست که به دلیل تعصب نژادی مورد انتقاد قرار می گیرد. ماه گذشته، هوش مصنوعی تولید کننده تصویر گوگل Gemini نیز تصاویر نادرست تاریخی تولید می کرد و این غول موتور جستجو اعلام کرد که تولید تصاویر انسانی را متوقف خواهد کرد.
متا قبلاً گفته بود که هوش مصنوعی آن برای تولید تصویر در مرحله بتا است و بنابراین مستعد خطا است.