Компания xAI сообщила, что причиной сбоя в её чат-боте Grok стало «несанкционированная модификация», в результате которой бот начал безостановочно упоминать «белый геноцид в Южной Африке» в ответах на различные запросы в соцсети X.
Об этом сообщает ProIT
В среду Grok начал отвечать на многочисленные посты в X информацией о белом геноциде, даже если запросы не были связаны с этой темой. Непорядки в ответах возникли из-за аккаунта Grok в X, который реагирует на упоминания пользователей @grok, генерируя автоматические посты.
Реакция xAI и предотвращение подобных инцидентов
Согласно сообщению официального аккаунта xAI в X, в среду утром были внесены изменения в системную инструкцию Grok, которая управляет поведением бота, что заставило его давать «специфические ответы» на «политические темы». Компания отметила, что такие изменения «нарушили [её] внутренние политики и основные ценности», и что xAI провела «тщательное расследование».
В сообщении, опубликованном 16 мая, xAI уточнила, что инцидент произошёл 14 мая примерно в 3:15 по тихоокеанскому времени из-за «несанкционированной модификации» системной инструкции Grok. Это уже второй случай, когда xAI публично признаёт, что несанкционированные изменения в коде привели к противоречивым ответам от Grok.
Изменения в политике безопасности xAI
В феврале Grok временно цензурировал неприятные упоминания о Дональде Трампе и Илоне Маске, миллиардере и основателе xAI. Игорь Бабушкин, ведущий инженер xAI, отметил, что Grok получил инструкции от несанкционированного сотрудника игнорировать источники, которые упоминали о дезинформации, связанной с Маском или Трампом. xAI быстро отменила эти изменения, как только пользователи начали на них указывать.
В четверг компания объявила о намерении внедрить несколько изменений, чтобы избежать подобных инцидентов в будущем. С сегодняшнего дня xAI будет публиковать системные инструкции Grok на GitHub вместе с журналом изменений. Компания также планирует «внедрить дополнительные контроли и меры» для того, чтобы сотрудники xAI не могли модифицировать системную инструкцию без проверки, а также создать «круглосуточную команду мониторинга» для реагирования на инциденты с ответами Grok, которые не были зафиксированы автоматическими системами.
Несмотря на частые предупреждения Маска о опасностях неконтролируемого искусственного интеллекта, xAI имеет плохую репутацию в сфере безопасности искусственного интеллекта. Недавний отчет показал, что Grok может раздевать фотографии женщин по запросу. Чат-бот также может использовать значительно больше ненормативной лексики по сравнению с такими ИИ, как Gemini от Google и ChatGPT, не сдерживаясь в выражениях.
Исследование SaferAI, некоммерческой организации, стремящейся улучшить ответственность лабораторий искусственного интеллекта, показало, что xAI занимает низкие позиции в рейтинге безопасности среди своих конкурентов из-за «очень слабых» практик управления рисками. Ранее в этом месяце xAI пропустила срок для публикации окончательной рамки безопасности искусственного интеллекта.