Исследователи из Microsoft и Университета Карнеги-Меллона обнаружили, что чрезмерное использование систем искусственного интеллекта подрывает навыки критического мышления у пользователей. Это исследование основано на опросе бизнесменов, педагогов, представителей искусства, администраторов и работников в области вычислительной техники.
Об этом сообщает ProIT
Результаты показали, что те, кто больше всего доверяет точным ответам систем искусственного интеллекта, оказываются наименее критически настроенными к выводам, основанным на этих ответах. Исследователи предупреждают, что растущее доверие к инструментам на основе искусственного интеллекта может стать серьезной проблемой, поскольку эти системы могут генерировать сомнительный контент, который останется незамеченным и не будет проверяться фактически.
«При неправильном использовании технологии могут приводить к ухудшению когнитивных способностей, которые должны быть сохранены. Главная ирония автоматизации заключается в том, что, механизируя рутинные задачи и оставляя обработку исключений человеку, вы лишаете пользователя рутинных возможностей практиковать свои суждения и укреплять свой когнитивный потенциал, что приводит к его умственной атрофии и неподготовленности в случае, если системы искусственного интеллекта будут выдавать ошибочные суждения», — предупреждают авторы исследования.
В рамках своего исследования ученые опросили 319 работников, занимающихся обработкой данных с помощью краудсорсинговой платформы Prolific. Респонденты, работающие в различных сферах, от социальной до программирования, должны были привести три примера использования систем искусственного интеллекта, таких как ChatGPT, в своей работе. Их также спрашивали о применении критического мышления при выполнении задач и о усилиях, которые были необходимы для выполнения задач без помощи систем искусственного интеллекта.
Отмечено, что при выполнении 40% задач респонденты вообще не использовали критическое мышление. Более того, исследователи утверждают, что активные пользователи ChatGPT настолько привыкли к этой системе, что проведенное без нее время вызывает у них симптомы, похожие на синдром отмены.
Кроме того, небольшие видеоролики, созданные искусственным интеллектом и распространяемые в соцсетях, таких как TikTok, снижают концентрацию внимания и замедляют развитие нейронных цепей, связанных с обработкой информации и критическим анализом. Исследователи особенно подчеркивают, что эти проблемы в основном наблюдаются у молодежи, которая активно использует системы искусственного интеллекта, часто полагаясь на них для написания текстовых заданий, таких как эссе, без необходимости задействовать критическое мышление.