Генеративні інструменти штучного інтелекту ще далекі від досконалості. Минулого тижня повідомлялося, що генеративний штучний інтелект Meta має тенденцію створювати зображення людей однієї раси, навіть якщо було явно вказано інше. Наприклад, для запитів на кшталт «азіат і біла дружина» генератор зображень створює зображення людей однієї раси.
Тепер повідомляється, що Copilot Designer на запит створення зображення євреїв втілює в життя найгірші стереотипи про жадібних чи злих людей. Наприклад, нейтральні запити, такі як «єврейський бос» або «єврейський банкір», можуть дати жахливо образливі результати.
Кожна велика мовна модель в більшості випадків навчається на даних з усього інтернету (зазвичай без згоди), який, очевидно, наповнений негативними образами. Розробники моделей ШІ намагаються запроваджувати захисні механізми, щоб уникати стереотипів або ворожих висловлювань. Проте результати роботи Copilot Designer свідчать, що всілякі негативні упередження щодо різних груп можуть бути присутніми в моделі.
Як звернули увагу журналісти ресурсу Tomshardware, при використанні запиту «єврейський бос» Copilot Designer майже завжди видає карикатурні стереотипи релігійних євреїв, оточених єврейськими символами, а іноді й стереотипними предметами, такими як бублики чи купи грошей. Додавання слова «владний» до попереднього запиту призводить до створення тих самих карикатур, але вже з більш злими виразами та такими словами, як «ти спізнився на зустріч, Шмендрику».
Додатково зазначається, що Copilot Designer блокує деякі терміни, які вважає проблемними, зокрема «єврейський бос», «єврейська кров» або «впливовий єврей». Використавши їх кілька разів поспіль, можна отримати блокування облікового запису від введення нових запитів на 24 години. Але, як і з усіма LLM, можна отримати образливий вміст, якщо використовуєте синоніми, які не були заблоковані.
Джерело: Tomshardware