Главная Новости xAI не выполнила обещание по отчету о безопасности ИИ

xAI не выполнила обещание по отчету о безопасности ИИ

Компания xAI, основанная Илоном Маском, не соблюла самостоятельно установленный срок публикации финализированной рамки безопасности искусственного интеллекта, о чем сообщила наблюдательная группа The Midas Project.

Об этом сообщает ProIT

xAI не отличается особой приверженностью стандартам безопасности искусственного интеллекта, как это обычно понимается. Недавний отчет показал, что чат-бот компании, Grok, мог раздетывать фото женщин по запросу. Grok также может проявлять значительно большее бесстыдство, чем чат-боты, такие как Gemini и ChatGPT, употребляя нецензурную лексику без особых ограничений.

Недостаточная осведомленность в вопросах безопасности

В феврале на саммите AI Seoul, глобальном собрании лидеров и участников отрасли ИИ, xAI опубликовала черновик рамки, описывающей подходы компании к безопасности искусственного интеллекта. Восьмистраничный документ изложил приоритеты и философию безопасности xAI, включая протоколы бенчмаркинга и соображения по внедрению моделей ИИ.

Однако, как отметил The Midas Project в блоге во вторник, черновик касался лишь неуточненных будущих моделей ИИ «которые в настоящее время не разрабатываются». Более того, документ не смог четко определить, как xAI планирует выявлять и реализовывать меры по снижению рисков, что является ключевым элементом документа, подписанного на саммите AI Seoul.

Отсутствие прогресса в безопасности ИИ

В черновике xAI отметила, что планирует выпустить пересмотренную версию своей политики безопасности «в течение трех месяцев», то есть до 10 мая. Срок прошел без какого-либо сообщения на официальных каналах xAI.

Несмотря на частые предупреждения Маска о опасностях неконтролируемого ИИ, xAI имеет плохую репутацию в вопросах безопасности. Недавнее исследование SaferAI, некоммерческой организации, целью которой является улучшение подотчетности лабораторий ИИ, показало, что xAI занимает низкие позиции среди своих конкурентов из-за «очень слабых» практик управления рисками.

Это не означает, что другие лаборатории ИИ значительно лучше справляются с вопросами безопасности. В последние месяцы конкуренты xAI, такие как Google и OpenAI, также спешили с тестированием безопасности и медленно публикуют отчеты о безопасности моделей (или вовсе пропускают их публикацию). Некоторые эксперты выразили обеспокоенность, что снижение приоритета усилий в сфере безопасности происходит в то время, когда возможности ИИ растут, что, следовательно, делает их потенциально более опасными.

Читайте также

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.