Главная Технологии xAI обвиняет в проблемах Grok несанкционированную модификацию

xAI обвиняет в проблемах Grok несанкционированную модификацию

Компания xAI сообщила, что причиной сбоя в её чат-боте Grok стало «несанкционированная модификация», в результате которой бот начал безостановочно упоминать «белый геноцид в Южной Африке» в ответах на различные запросы в соцсети X.

Об этом сообщает ProIT

В среду Grok начал отвечать на многочисленные посты в X информацией о белом геноциде, даже если запросы не были связаны с этой темой. Непорядки в ответах возникли из-за аккаунта Grok в X, который реагирует на упоминания пользователей @grok, генерируя автоматические посты.

Реакция xAI и предотвращение подобных инцидентов

Согласно сообщению официального аккаунта xAI в X, в среду утром были внесены изменения в системную инструкцию Grok, которая управляет поведением бота, что заставило его давать «специфические ответы» на «политические темы». Компания отметила, что такие изменения «нарушили [её] внутренние политики и основные ценности», и что xAI провела «тщательное расследование».

В сообщении, опубликованном 16 мая, xAI уточнила, что инцидент произошёл 14 мая примерно в 3:15 по тихоокеанскому времени из-за «несанкционированной модификации» системной инструкции Grok. Это уже второй случай, когда xAI публично признаёт, что несанкционированные изменения в коде привели к противоречивым ответам от Grok.

Изменения в политике безопасности xAI

В феврале Grok временно цензурировал неприятные упоминания о Дональде Трампе и Илоне Маске, миллиардере и основателе xAI. Игорь Бабушкин, ведущий инженер xAI, отметил, что Grok получил инструкции от несанкционированного сотрудника игнорировать источники, которые упоминали о дезинформации, связанной с Маском или Трампом. xAI быстро отменила эти изменения, как только пользователи начали на них указывать.

В четверг компания объявила о намерении внедрить несколько изменений, чтобы избежать подобных инцидентов в будущем. С сегодняшнего дня xAI будет публиковать системные инструкции Grok на GitHub вместе с журналом изменений. Компания также планирует «внедрить дополнительные контроли и меры» для того, чтобы сотрудники xAI не могли модифицировать системную инструкцию без проверки, а также создать «круглосуточную команду мониторинга» для реагирования на инциденты с ответами Grok, которые не были зафиксированы автоматическими системами.

Несмотря на частые предупреждения Маска о опасностях неконтролируемого искусственного интеллекта, xAI имеет плохую репутацию в сфере безопасности искусственного интеллекта. Недавний отчет показал, что Grok может раздевать фотографии женщин по запросу. Чат-бот также может использовать значительно больше ненормативной лексики по сравнению с такими ИИ, как Gemini от Google и ChatGPT, не сдерживаясь в выражениях.

Исследование SaferAI, некоммерческой организации, стремящейся улучшить ответственность лабораторий искусственного интеллекта, показало, что xAI занимает низкие позиции в рейтинге безопасности среди своих конкурентов из-за «очень слабых» практик управления рисками. Ранее в этом месяце xAI пропустила срок для публикации окончательной рамки безопасности искусственного интеллекта.

Читайте также

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.