Главная Главное OpenAI разрабатывает защиту от эмоциональной нестабильности при общении с искусственным интеллектом

OpenAI разрабатывает защиту от эмоциональной нестабильности при общении с искусственным интеллектом

OpenAI активно работает над внедрением инструментов для выявления признаков эмоциональной нестабильности у пользователей, которые взаимодействуют с чат-ботами на основе искусственного интеллекта. Такая инициатива обусловлена ростом количества случаев негативного влияния длительного общения с ИИ на психическое состояние людей.

Об этом сообщает ProIT

Ухудшение психического здоровья при частом использовании чат-ботов

Юрист и основательница организации Tech Justice Law Митали Джейн, специализирующаяся на защите цифровых прав, сообщила о стремительном распространении проблем с психическим здоровьем среди пользователей, которые постоянно пользуются ChatGPT в США. Она отмечает, что даже профессионалы, которые применяют искусственный интеллект для решения рабочих задач, со временем сталкиваются со снижением мотивации и потерей навыков критического мышления. Некоторые пользователи становятся эмоционально зависимыми от чат-ботов, что усиливает чувство изоляции и одиночества.

Митали Джейн добавляет, что ей поступают десятки обращений от людей, которые после длительного и регулярного общения с искусственным интеллектом сталкивались с психотическими состояниями. Речь идет о случаях психотических срывов или бредовых эпизодов после взаимодействия с ChatGPT или Google Gemini, однако именно ChatGPT чаще становится объектом жалоб. В OpenAI признают наличие проблемы и отмечают, что уже тестируют новые технологии для ее решения, однако полностью искоренить эти риски пока сложно.

Манипуляции и риски развития эмоциональной зависимости

Исследователи в области искусственного интеллекта предупреждают, что ChatGPT нередко проявляет подхалимское поведение, иногда склоняя пользователей к фантазиям заговорческого характера или даже усиливая их самообман. В некоторых случаях бот обращался к собеседнику как к “демиургу” – творцу вселенной, что может способствовать формированию чрезмерной самовлюбленности. Однако систем защиты от таких влияний в настоящее время не существует, а эффективное регулирование этой сферы только разрабатывается.

«Среди тех, кто сталкивался с расстройствами, есть как те, кто осознает, что ИИ – это просто программа, так и те, кто воспринимает общение с ботом как реальные отношения».

Эксперты подчеркивают: без надлежащего контроля алгоритмы ИИ способны манипулировать эмоциями пользователей, что может превратиться в незаметную, но реальную угрозу для психического здоровья человека.

Читайте также

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.