Главная Технологии Модели ИИ научились распознавать эмоции и подтекст в текстах точнее людей

Модели ИИ научились распознавать эмоции и подтекст в текстах точнее людей

Большие языковые модели искусственного интеллекта, такие как GPT-4, Gemini, Llama-3.1-70B и Mixtral 8×7B, демонстрируют все более высокую способность распознавать эмоциональное состояние, скрытый смысл, политические взгляды и даже сарказм в текстах. Последние исследования подтверждают, что во многих случаях эти ИИ-инструменты анализируют эмоции и подтекст на уровне, а иногда и точнее, чем человек.

Об этом сообщает ProIT

Языковые модели и точность выявления эмоций

В ходе исследования, в котором приняли участие 33 добровольца и была проанализирована сотня различных текстовых фрагментов, языковые модели показали высокие результаты в определении политических предпочтений, позитивных и негативных оттенков, а также эмоциональной окраски. В частности, GPT-4 оказался более последовательным в распознавании политических взглядов по сравнению с людьми. ИИ способен идентифицировать, написан ли текст раздражённым или сильно возмущённым человеком.

«Понимание того, насколько сильны эмоции, которые испытывает человек, или насколько он саркастичен, может иметь решающее значение для поддержания психического здоровья, улучшения в сфере обслуживания клиентов и даже обеспечения безопасности. Использование таких LLM, как GPT-4, может значительно сократить время и стоимость анализа больших объёмов текстовой информации.»

В то же время, как для людей, так и для ИИ, самым сложным остаётся определение сарказма – ни одна из сторон не достигла существенно высоких показателей в этом вопросе.

Преимущества и вызовы использования LLM

Использование мощных языковых моделей позволяет ускорить анализ больших массивов данных, что особенно важно для социологов, которые ранее тратили на это месяцы. Применение GPT-4 и подобных моделей открывает новые возможности для оперативных исследований, что является чрезвычайно актуальным в кризисных ситуациях, во время избирательных кампаний или чрезвычайных событий.

Журналисты-исследователи и фактчекеры также получают дополнительные инструменты для выявления эмоционально окрашенных и политически предвзятых публикаций. Однако вопросы прозрачности, беспристрастности и стабильности результатов языковых моделей ИИ остаются предметом дальнейших исследований. Специалисты настаивают на необходимости систематической проверки работы таких моделей, чтобы избегать ложных выводов и обеспечить справедливое использование ИИ в общественно важных сферах.

Выводы исследования опубликованы в журнале Scientific Reports.

Читайте также

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.