Згідно зі скриншотами, опублікованими виданням Ars, ChatGPT «зливає» історію запитів іншим користувачам. Це приватні розмови, які містять облікові дані для входу в систему та інші персональні дані користувачів, які його не стосуються.
Про це розповідає ProIT
Два зображення, надіслані читачем, особливо виділяються, бо містять кілька пар імен користувачів і паролів, які, схоже, були підключені до системи підтримки, що використовується співробітниками аптечного порталу з продажу рецептурних ліків. Співробітник, який використовував чатбот, схоже, розв’язував проблеми, що виникали під час користування порталом.
Окрім відвертих висловлювань та облікових даних, у розмові, що потрапила в мережу, міститься назва програми, з якою співробітник розв’язує проблеми, та номер магазину, де виникла ця проблема.
Результати з’явилися після того, як читач Чейз Вайтсайд використав ChatGPT для не пов’язаного з цим запиту.
Я зайшов у застосунок, щоб зробити запит (допомогти придумати розумні назви для кольорів в палітрі), і помітив додаткові розмови. Їх не було, коли я використовував ChatGPT вчора ввечері (я досить активний користувач). Ніяких запитів не робилося — вони просто з’явилися в моїй історії.
— написав Вайтсайд в електронному листі.
Інші розмови, які потрапили до Вайтсайда, включають назву презентації, над якою хтось працював, деталі неопублікованої дослідницької пропозиції та скрипт мовою програмування PHP. Користувачі кожного зі «зливів» виявилися різними й не пов’язаними один з одним. У розмові, що стосувалася порталу рецептів, йшлося про 2020 рік. В інших розмовах дати не були вказані.
Цей епізод та інші подібні підкреслюють, що варто вилучати особисті дані із запитів до ChatGPT та інших сервісів штучного інтелекту, коли це можливо. Представник OpenAI заявив, що компанія розслідує це повідомлення.