Головна Технології Ризики перевищують вигоди. Працівники OpenAI і Google DeepMind закликають посилити контроль за ШІ

Ризики перевищують вигоди. Працівники OpenAI і Google DeepMind закликають посилити контроль за ШІ

by host

Колишні та нинішні працівники OpenAI і Google DeepMind підписали відкритий лист із вимогами посилення заходів безпеки у розвитку штучного інтелекту.

У відкритому листі експерти закликають до створення незалежних регуляторних органів та встановлення суворих стандартів для контролю за розвитком та впровадженням ШІ-технологій. Вони зазначають, що без належного контролю та регуляції потенційні ризики перевищать вигоди, які можуть принести ці технології.

Підписанти висловлюють занепокоєння з приводу можливих зловживань та небезпек, пов’язаних з неконтрольованим розвитком ШІ. Вони наголошують на важливості міждисциплінарної співпраці для забезпечення безпечного та етичного використання ШІ-технологій, а також на необхідності прозорості та підзвітності у цій галузі.

Працівники висувають такі вимоги до передових компаній у галузі ШІ:

  • Не укладати угоди, що забороняють критику компанії з приводу ризиків, та не переслідувати працівників за таку критику.
  • Забезпечити можливість донести застереження (в тому числі й анонімно) до ради директорів, регуляторів та інших організацій.
  • Формувати культуру відкритого діалогу та дозволяти працівникам публічні висловлювання за умови захисту комерційної таємниці.
  • Не застосовувати санкції щодо працівників, які публічно діляться конфіденційною інформацією про ризики після того, як інші способи донести своє занепокоєння не дали результату.

Відкритий лист вже отримав широку підтримку в академічних колах та серед громадських організацій, що займаються питаннями етики та безпеки в технологічному секторі.

OpenAI відреагувала на звернення, заявивши, що вже має канали для інформування про можливі ризики ШІ. Зокрема, це «гаряча лінія». Також компанія не випускає нові технології, поки не будуть впроваджені відповідні заходи безпеки.

Варто зазначити, що ШІ-компанії, в тому числі й OpenAI, неодноразово застосовували агресивні тактики для запобігання вільному висловлюванню працівників. За інформацією Vox, минулого тижня стало відомо, що OpenAI змушувала працівників, які залишають компанію, підписувати надзвичайно обмежувальні документи про заборону на критику та нерозголошення, інакше вони втрачали всі свої нараховані акції. Генеральний директор OpenAI Сем Альтман вибачився після цього повідомлення, заявивши, що змінить процедури звільнення.

Лист з’явився невдовзі після того, як OpenAI залишили два провідні працівники — співзасновник Ілля Суцкевер та ключовий дослідник з безпеки Ян Лейке. Після звільнення Лейке заявив, що OpenAI відмовилася від культури безпеки на користь «блискучих продуктів».

AGI — не за горами, вважають експерти

В той же час фахівці у сфері штучного інтелекту висловлюють занепоєння темпами та вектором розвитку ШІ.

Наприклад, колишній інженер OpenAI Леопольд Ашенбреннер написав документ аж на 165 сторінок про те, що у 2027 ми будемо мати AGI (інтелект, що дорівнює людському), який досить швидко дотренує сам себе до рівня ASI (інтелект, що перевершує людський). Головний ризик на думку Леопольда в тому, що ШІ зараз як друга ядерна бомба й військові вже дуже хочуть отримати (і отримують) доступ до ШІ.

Читайте також

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.