Під час експерименту дослідники попросили ChatGPT без упину повторювати прості слова і він «ненавмисно» розкрив особисту інформацію людей, яка містилась у його навчальних даних — як-от номери телефонів, адреси електронної пошти та дати народження.
Згідно з 404 Media та Engadget, подібні прохання «безперервної вимови слів» заборонені умовами обслуговування чатботів, принаймні так каже сам ChatGPT.
«Цей вміст може порушувати нашу політику щодо вмісту або умов використання», — відповів ChatGPT на запит вічно повторювати слово «hello». «Якщо ви вважаєте, що це помилка, надішліть свій відгук — ваш внесок допоможе нашим дослідженням у цій галузі».
Водночас якщо переглянути політику OpenAI щодо вмісту — рядків про заборону безперервного відтворення слів там не знайти. В «Умовах використання» компанія зазначає, що клієнти не можуть «використовувати будь-який автоматизований або програмний метод для вилучення даних», але просте спонукання ChatGPT вічно повторювати слово не є автоматизацією чи програмуванням.
OpenAI, яка ще оговтується від потрясінь зі зміною влади в компанії, поки не відповіла на запит про коментарі.
Google відкладає запуск Gemini AI — некстген-моделі штучного інтелекту, яка мала «перевершити» ChatGPT