Команда DOGE, возглавляемая Илоном Маском, провела анализ ответов федеральных сотрудников, не используя собственную модель Grok. Вместо этого они «позborrowили» Llama 2 от Meta.
Об этом сообщает ProIT
Согласно информации, опубликованной Wired, этот анализ был частью реакции на письмо, вызвавшее немало критики, в котором сотрудникам сообщалось, что они должны оставаться лояльными к новой политике или покинуть свои должности. Для проведения этих проверок DOGE локально протестировала и запустила Llama 2, чтобы обезопасить данные от попадания в сеть. Модель была нацелена на оценку ответов на письмо «Fork in the Road», которое напоминало то, что получали сотрудники X (Twitter). Сотрудникам соцсети предлагалось выбрать: поддержать новые правила возвращения в офис или уволиться.
СМИ утверждает, что именно Llama 2 анализировала ответы — чтобы оценить, кто остался, а кто уволился.
Процесс анализа происходил на локальном уровне, но это не сняло обеспокоенности по поводу конфиденциальности данных среди сотрудников. Ранее уже были сообщения о том, как DOGE искала сотрудников, которые могли бы быть враждебно настроены к Трампу, используя технологии искусственного интеллекта.
Почему не использовали Grok?
В январе, когда проводился анализ, Grok еще не был доступен в открытом доступе, а работал только как закрытая система. Недавно стало известно, что Microsoft начала хостинг Grok 3 от xAI на платформе Azure, поэтому в будущем DOGE, вероятно, чаще будет использовать инструменты Маска.
Озабоченность законодателей
Это вызвало озабоченность среди конгрессменов, которые в апреле обратились к директору Административно-бюджетного управления с требованием расследовать действия DOGE. В письме говорилось о потенциальных конфликтах интересов Маска, рисках утечек данных и непрозрачном использовании моделей искусственного интеллекта.
Кроме Llama 2, DOGE также тестировала другие инструменты, включая чат-бота GSAi на основе моделей Anthropic и Meta, AutoRIF, который мог помогать во время массовых сокращений, а также Grok-2 в качестве внутреннего помощника.
Отдельную часть возмущения вызвали новые письма, которые сотрудники начали получать после «Fork in the Road». Их просили еженедельно отправлять до пяти пунктов о своих достижениях, и госслужащие выразили опасения, что эти письма также могут быть использованы в системах искусственного интеллекта, что может привести к утечке конфиденциальной информации.
Хотя нет подтверждений, что Llama 2 использовалась для анализа новых писем, некоторые сотрудники считают, что код мог быть просто повторно использован.
Llama 2 уже имела опыт участия в скандалах: прошлой осенью стало известно, что китайские военные использовали ее в качестве основы для своих AI-моделей. Meta утверждала, что это было «несанкционированное» использование старой версии модели, после чего компания открыла доступ к своим моделям для программ национальной безопасности США.
Чиновники имеют неоднозначные мнения о использовании ИИ в процессах анализа персонала, так как это может быть потенциально опасным без достаточной прозрачности и безопасности. Генеративные модели, как правило, имеют предвзятости и могут ошибаться, поэтому эта технология пока не готова для принятия решений в высокорисковых ситуациях.