Главная ИТ-бизнес Илон Маск использует Llama 2 для анализа ответов чиновников вместо Grok

Илон Маск использует Llama 2 для анализа ответов чиновников вместо Grok

Команда DOGE, возглавляемая Илоном Маском, провела анализ ответов федеральных сотрудников, не используя собственную модель Grok. Вместо этого они «позborrowили» Llama 2 от Meta.

Об этом сообщает ProIT

Согласно информации, опубликованной Wired, этот анализ был частью реакции на письмо, вызвавшее немало критики, в котором сотрудникам сообщалось, что они должны оставаться лояльными к новой политике или покинуть свои должности. Для проведения этих проверок DOGE локально протестировала и запустила Llama 2, чтобы обезопасить данные от попадания в сеть. Модель была нацелена на оценку ответов на письмо «Fork in the Road», которое напоминало то, что получали сотрудники X (Twitter). Сотрудникам соцсети предлагалось выбрать: поддержать новые правила возвращения в офис или уволиться.

СМИ утверждает, что именно Llama 2 анализировала ответы — чтобы оценить, кто остался, а кто уволился.

Процесс анализа происходил на локальном уровне, но это не сняло обеспокоенности по поводу конфиденциальности данных среди сотрудников. Ранее уже были сообщения о том, как DOGE искала сотрудников, которые могли бы быть враждебно настроены к Трампу, используя технологии искусственного интеллекта.

Почему не использовали Grok?

В январе, когда проводился анализ, Grok еще не был доступен в открытом доступе, а работал только как закрытая система. Недавно стало известно, что Microsoft начала хостинг Grok 3 от xAI на платформе Azure, поэтому в будущем DOGE, вероятно, чаще будет использовать инструменты Маска.

Озабоченность законодателей

Это вызвало озабоченность среди конгрессменов, которые в апреле обратились к директору Административно-бюджетного управления с требованием расследовать действия DOGE. В письме говорилось о потенциальных конфликтах интересов Маска, рисках утечек данных и непрозрачном использовании моделей искусственного интеллекта.

Кроме Llama 2, DOGE также тестировала другие инструменты, включая чат-бота GSAi на основе моделей Anthropic и Meta, AutoRIF, который мог помогать во время массовых сокращений, а также Grok-2 в качестве внутреннего помощника.

Отдельную часть возмущения вызвали новые письма, которые сотрудники начали получать после «Fork in the Road». Их просили еженедельно отправлять до пяти пунктов о своих достижениях, и госслужащие выразили опасения, что эти письма также могут быть использованы в системах искусственного интеллекта, что может привести к утечке конфиденциальной информации.

Хотя нет подтверждений, что Llama 2 использовалась для анализа новых писем, некоторые сотрудники считают, что код мог быть просто повторно использован.

Llama 2 уже имела опыт участия в скандалах: прошлой осенью стало известно, что китайские военные использовали ее в качестве основы для своих AI-моделей. Meta утверждала, что это было «несанкционированное» использование старой версии модели, после чего компания открыла доступ к своим моделям для программ национальной безопасности США.

Чиновники имеют неоднозначные мнения о использовании ИИ в процессах анализа персонала, так как это может быть потенциально опасным без достаточной прозрачности и безопасности. Генеративные модели, как правило, имеют предвзятости и могут ошибаться, поэтому эта технология пока не готова для принятия решений в высокорисковых ситуациях.

Читайте также

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.