Компания xAI, основанная Илоном Маском, не соблюла самостоятельно установленный срок публикации финализированной рамки безопасности искусственного интеллекта, о чем сообщила наблюдательная группа The Midas Project.
Об этом сообщает ProIT
xAI не отличается особой приверженностью стандартам безопасности искусственного интеллекта, как это обычно понимается. Недавний отчет показал, что чат-бот компании, Grok, мог раздетывать фото женщин по запросу. Grok также может проявлять значительно большее бесстыдство, чем чат-боты, такие как Gemini и ChatGPT, употребляя нецензурную лексику без особых ограничений.
Недостаточная осведомленность в вопросах безопасности
В феврале на саммите AI Seoul, глобальном собрании лидеров и участников отрасли ИИ, xAI опубликовала черновик рамки, описывающей подходы компании к безопасности искусственного интеллекта. Восьмистраничный документ изложил приоритеты и философию безопасности xAI, включая протоколы бенчмаркинга и соображения по внедрению моделей ИИ.
Однако, как отметил The Midas Project в блоге во вторник, черновик касался лишь неуточненных будущих моделей ИИ «которые в настоящее время не разрабатываются». Более того, документ не смог четко определить, как xAI планирует выявлять и реализовывать меры по снижению рисков, что является ключевым элементом документа, подписанного на саммите AI Seoul.
Отсутствие прогресса в безопасности ИИ
В черновике xAI отметила, что планирует выпустить пересмотренную версию своей политики безопасности «в течение трех месяцев», то есть до 10 мая. Срок прошел без какого-либо сообщения на официальных каналах xAI.
Несмотря на частые предупреждения Маска о опасностях неконтролируемого ИИ, xAI имеет плохую репутацию в вопросах безопасности. Недавнее исследование SaferAI, некоммерческой организации, целью которой является улучшение подотчетности лабораторий ИИ, показало, что xAI занимает низкие позиции среди своих конкурентов из-за «очень слабых» практик управления рисками.
Это не означает, что другие лаборатории ИИ значительно лучше справляются с вопросами безопасности. В последние месяцы конкуренты xAI, такие как Google и OpenAI, также спешили с тестированием безопасности и медленно публикуют отчеты о безопасности моделей (или вовсе пропускают их публикацию). Некоторые эксперты выразили обеспокоенность, что снижение приоритета усилий в сфере безопасности происходит в то время, когда возможности ИИ растут, что, следовательно, делает их потенциально более опасными.