Згідно з останніми вказівками Офісу менеджменту та бюджету США усі федеральні агенції мають призначити старшого офіцера та керівні ради, які контролюватимуть усі використовувані всередині системи ШІ.
Агенції також зобов’яжуть подавати щорічний звіт із переліком усіх систем штучного інтелекту, які вони використовують, пов’язаних ризиків та планів щодо їх зменшення.
«Ми наказали всім федеральним агенціям призначити керівника ШІ з досвідом, знаннями та повноваженнями для нагляду за всіма технологіями штучного інтелекту, які вони мають, для того, щоб переконатися у відповідальному використанні», — цитує віцепрезидентку Офісу менеджменту та бюджету Камалу Гарріс сайт The Verge.
Зазначається, що головний офіцер по ШІ, необов’язково має бути «політичним призначенцем», хоча зрештою це залежатиме від структури агенції. Усі керівні ради мають бути створені до літа 2024 року.
Ці вказівки розширюють раніше оголошену політику, викладену в розпорядженні адміністрації Байдена щодо штучного інтелекту, яка вимагала від федеральних агенції створити стандарти безпеки та збільшити кількість ШІ-фахівців в уряді.
Деякі агенції взялися за найм ще до оприлюднення вказівок: так, у лютому Мінюст представив Джонатана Маєра, як керівника ШІ-підрозділу — він очолить групу експертів з кібербезпеки, щоб з’ясувати, як використовувати штучний інтелект в правоохоронних органах.
За словами голови Офісу менеджменту та бюджету Шаланди Янг, уряд США планує найняти 100 спеціалістів зі штучного інтелекту до літа.
Федеральні агенції також повинні перевіряти, чи відповідає будь-яка система ШІ, яку вони розгортають, запобіжним заходам, які «зменшують ризики алгоритмічної дискримінації та забезпечують громадськості прозорість того, як уряд використовує штучний інтелект».
У пресрелізі Офісу наводять кілька прикладів:
- Люди, що перебувають в аеропорту, матимуть змогу відмовитися від використання розпізнавання обличчя без будь-яких затримок або втрати місця в черзі.
- Якщо ШІ використовується у федеральній системі охорони здоров’я для підтримки критичних діагностичних рішень, людина контролює процес перевірки результатів інструментів і уникає розбіжностей у доступі до медичної допомоги.
- ШІ може використовуватися для виявлення шахрайства в державних службах під наглядом людини у випадку прийняття вагомих рішень, а постраждалі можуть вимагати відшкодування неприємностей, завданих ШІ.
«Якщо агенція не може застосувати ці гарантії, вона має припинити використання системи штучного інтелекту у випадку, коли керівник не може обгрунтувати, чому це збільшить ризики для безпеки чи прав у цілому або створить неприйнятну перешкоду критично важливим операціям агентства», — йдеться в пресрелізі.
Згідно з новими вказівками, будь-які державні моделі штучного інтелекту, код і дані повинні бути оприлюднені для громадськості, якщо вони не становлять ризику для діяльності уряду.
За винятком подібних окремих вказівок, у США і досі немає законів, які б регулювали штучний інтелект — натомість у ЄС вже проголосували власні правила, які, як очікується, набудуть чинності в травні.