Большие языковые модели искусственного интеллекта, такие как GPT-4, Gemini, Llama-3.1-70B и Mixtral 8×7B, демонстрируют все более высокую способность распознавать эмоциональное состояние, скрытый смысл, политические взгляды и даже сарказм в текстах. Последние исследования подтверждают, что во многих случаях эти ИИ-инструменты анализируют эмоции и подтекст на уровне, а иногда и точнее, чем человек.
Об этом сообщает ProIT
Языковые модели и точность выявления эмоций
В ходе исследования, в котором приняли участие 33 добровольца и была проанализирована сотня различных текстовых фрагментов, языковые модели показали высокие результаты в определении политических предпочтений, позитивных и негативных оттенков, а также эмоциональной окраски. В частности, GPT-4 оказался более последовательным в распознавании политических взглядов по сравнению с людьми. ИИ способен идентифицировать, написан ли текст раздражённым или сильно возмущённым человеком.
«Понимание того, насколько сильны эмоции, которые испытывает человек, или насколько он саркастичен, может иметь решающее значение для поддержания психического здоровья, улучшения в сфере обслуживания клиентов и даже обеспечения безопасности. Использование таких LLM, как GPT-4, может значительно сократить время и стоимость анализа больших объёмов текстовой информации.»
В то же время, как для людей, так и для ИИ, самым сложным остаётся определение сарказма – ни одна из сторон не достигла существенно высоких показателей в этом вопросе.
Преимущества и вызовы использования LLM
Использование мощных языковых моделей позволяет ускорить анализ больших массивов данных, что особенно важно для социологов, которые ранее тратили на это месяцы. Применение GPT-4 и подобных моделей открывает новые возможности для оперативных исследований, что является чрезвычайно актуальным в кризисных ситуациях, во время избирательных кампаний или чрезвычайных событий.
Журналисты-исследователи и фактчекеры также получают дополнительные инструменты для выявления эмоционально окрашенных и политически предвзятых публикаций. Однако вопросы прозрачности, беспристрастности и стабильности результатов языковых моделей ИИ остаются предметом дальнейших исследований. Специалисты настаивают на необходимости систематической проверки работы таких моделей, чтобы избегать ложных выводов и обеспечить справедливое использование ИИ в общественно важных сферах.
Выводы исследования опубликованы в журнале Scientific Reports.