У відповідь на занепокоєння Джеффрі Хінтона щодо загроз, пов’язаних із штучним інтелектом, важливо підкреслити, що ці ризики можуть бути найбільш ефективно зменшені шляхом спільних досліджень у сфері безпеки ШІ. При цьому важливо залучати до обговорень і регуляторів.
Про це розповідає ProIT
На сьогодні передові системи штучного інтелекту перевіряються після розробки за допомогою так званих «червоних команд», які намагаються виявити негативні наслідки. Але цього недостатньо. ШІ повинен бути спроектований з врахуванням безпеки та оцінки, що можливо завдяки досвіду з галузей, де безпека є визначальною.
Потреба в регулюванні та оцінці ризиків
Хінтон не вважає, що загроза від штучного інтелекту є навмисно закодованою. Проте, чому б не запровадити заходи, щоб уникнути таких ситуацій навмисно? Хоча я не поділяю його думку про рівень ризику для людства, принцип обережності вимагає негайних дій.
У традиційних сферах, критичних до безпеки, таких як авіація, фізичні обмеження уповільнюють темпи впровадження змін. Але в сфері передового ШІ таких обмежень немає, і тут роль регулювання є критичною. Ідеально було б проводити оцінку ризиків перед впровадженням, але нинішні показники ризиків є недостатніми.
Роль регуляторів у забезпеченні безпеки
Регулятори повинні мати можливість «відкликати» розгорнуті моделі, а великі компанії повинні впроваджувати механізми для зупинки небажаного застосування. Потрібно підтримувати роботу з оцінки ризиків, яка забезпечить провідні індикатори ризику, а не лише вторинні. Інакше кажучи, уряд має зосередитися на післяринкових регуляторних контролях, підтримуючи дослідження, які дадуть регуляторам можливість запроваджувати передринкові контролі. Це складно, але необхідно, якщо Хінтон правий щодо рівня загрози для людства.
Професор Джон МакДермід, Інститут безпечної автономії, Йоркський університет