Компанія xAI, заснована Ілоном Маском, не дотрималася самостійно встановленого терміну публікації фіналізованої рамки безпеки штучного інтелекту, про що повідомила спостережна група The Midas Project.
Про це розповідає ProIT
xAI не відзначається особливою прихильністю до стандартів безпеки штучного інтелекту, як це зазвичай розуміється. Нещодавній звіт виявив, що чат-бот компанії, Grok, міг роздягати фото жінок за запитом. Grok також може виявляти значно більше безцеремонності, ніж чат-боти, такі як Gemini і ChatGPT, вживаючи нецензурну лексику без особливих обмежень.
Недостатня обізнаність у питаннях безпеки
У лютому на саміті AI Seoul, глобальному зібранні лідерів і учасників галузі AI, xAI опублікувала чернетку рамки, що описує підходи компанії до безпеки штучного інтелекту. Восьмисторінковий документ виклав пріоритети і філософію безпеки xAI, включаючи протоколи бенчмаркінгу та міркування щодо впровадження AI моделей.
Однак, як зазначив The Midas Project у блозі в вівторок, чернетка стосувалася лише неуточнених майбутніх моделей AI «які наразі не розробляються». Більше того, документ не зміг чітко визначити, як xAI планує виявляти та реалізовувати заходи щодо зменшення ризиків, що є ключовим елементом документа, підписаного на саміті AI Seoul.
Відсутність прогресу у безпеці AI
У чернетці xAI зазначила, що планує випустити переглянуту версію своєї політики безпеки «протягом трьох місяців», тобто до 10 травня. Термін пройшов без жодного повідомлення на офіційних каналах xAI.
Попри часті попередження Маска про небезпеки неконтрольованого AI, xAI має погану репутацію у питаннях безпеки. Нещодавнє дослідження SaferAI, некомерційної організації, метою якої є покращення підзвітності AI лабораторій, виявило, що xAI займає низькі позиції серед своїх конкурентів через «дуже слабкі» практики управління ризиками.
Це не означає, що інші AI лабораторії значно краще справляються з питаннями безпеки. В останні місяці суперники xAI, такі як Google і OpenAI, також поспішили з тестуванням безпеки і повільно публікують звіти про безпеку моделей (або зовсім пропускають їх публікацію). Деякі експерти висловили занепокоєння, що зниження пріоритету зусиль у сфері безпеки відбувається у час, коли можливості AI зростають, що, отже, робить їх потенційно небезпечнішими.