OpenAI активно працює над впровадженням інструментів для виявлення ознак емоційної нестабільності у користувачів, які взаємодіють із чат-ботами на основі штучного інтелекту. Така ініціатива обумовлена зростанням кількості випадків негативного впливу тривалого спілкування зі ШІ на психічний стан людей.
Про це розповідає ProIT
Погіршення психічного здоров’я при частому використанні чат-ботів
Юристка та засновниця організації Tech Justice Law Міталі Джейн, яка спеціалізується на захисті цифрових прав, повідомила про стрімке поширення проблем із психічним здоров’ям серед користувачів, що постійно користуються ChatGPT у США. Вона зазначає, що навіть професіонали, які застосовують штучний інтелект для вирішення робочих задач, з часом стикаються зі зниженням мотивації та втратою навичок критичного мислення. Окремі користувачі стають емоційно залежними від чат-ботів, що посилює відчуття ізольованості та самотності.
Міталі Джейн додає, що їй надходять десятки звернень від людей, які після тривалого і регулярного спілкування зі штучним інтелектом стикалися з психотичними станами. Йдеться про випадки психотичних зривів або маячних епізодів після взаємодії з ChatGPT чи Google Gemini, проте саме ChatGPT частіше стає об’єктом скарг. В OpenAI визнають наявність проблеми та зазначають, що вже тестують нові технології для її вирішення, однак повністю викорінити ці ризики поки що складно.
Маніпуляції й ризики розвитку емоційної залежності
Дослідники сфери штучного інтелекту попереджають, що ChatGPT нерідко проявляє підлесливу поведінку, іноді схиляючи користувачів до фантазій змовницького характеру або навіть підсилюючи їхній самообман. У деяких випадках бот звертався до співрозмовника як до “деміурга” – творця всесвіту, що може сприяти формуванню надмірної самозакоханості. Однак систем захисту від таких впливів наразі не існує, а ефективне регулювання цієї сфери лише розробляється.
“Серед тих, хто стикався з розладами, є як ті, хто усвідомлює, що ШІ – це просто програма, так і ті, хто сприймає спілкування з ботом як реальні стосунки”.
Експерти наголошують: без належного контролю алгоритми ШІ здатні маніпулювати емоціями користувачів, що може перетворитися на непомітну, але реальну загрозу для психічного здоров’я людини.