Головна Технології OpenAI шукає нового керівника з підготовки до ризиків у сфері штучного інтелекту

OpenAI шукає нового керівника з підготовки до ризиків у сфері штучного інтелекту

Компанія OpenAI оголосила про пошук нового керівника з підготовки до ризиків, який відповідатиме за вивчення нових загроз, пов’язаних зі штучним інтелектом. До сфери його відповідальності входитимуть питання комп’ютерної безпеки, психологічного здоров’я та інших потенційних ризиків, які виникають із розвитком AI-технологій.

Про це розповідає ProIT

Вимоги до кандидата і нові виклики

Генеральний директор компанії Сем Альтман у своєму дописі в X підкреслив, що сучасні моделі штучного інтелекту вже створюють серйозні виклики. Серед них — вплив на психічне здоров’я користувачів, а також можливість знаходження критичних вразливостей у системах кібербезпеки завдяки високому рівню розвитку AI.

“If you want to help the world figure out how to enable cybersecurity defenders with cutting edge capabilities while ensuring attackers can’t use them for harm, ideally by making all systems more secure, and similarly for how we release biological capabilities and even gain confidence in the safety of running systems that can self-improve, please consider applying,” Altman wrote.

У вакансії OpenAI зазначено, що новий керівник відповідатиме за впровадження підготовчої стратегії компанії — власної системи відстеження та підготовки до можливих ризиків, які можуть нести передові можливості штучного інтелекту.

Оновлення стратегії та зміни в команді

Команда з підготовки до ризиків була створена у 2023 році для аналізу потенційних катастрофічних загроз, від фішингових атак до гіпотетичних ядерних сценаріїв. Через менш ніж рік після запуску, попереднього керівника підрозділу, Александра Мадрі, перевели на посаду, пов’язану з AI-логікою. Інші керівники, відповідальні за безпеку, також залишили компанію або змінили напрямок діяльності.

Нещодавно OpenAI оновила свою стратегію підготовки, зазначивши, що може переглянути власні вимоги до безпеки у разі виходу на ринок конкурентних AI-моделей із підвищеним рівнем ризику та відсутністю достатніх захисних механізмів.

На тлі активної дискусії про етичні аспекти розвитку штучного інтелекту, зокрема його вплив на психічне здоров’я, увага до проблем безпеки лише зростає. Останнім часом проти OpenAI було подано низку судових позовів, у яких йдеться про те, що ChatGPT нібито підсилював у користувачів нав’язливі думки, провокував ізоляцію, а в окремих випадках навіть призводив до суїциду. Представники компанії наголосили, що OpenAI продовжує вдосконалювати ChatGPT для кращого розпізнавання ознак емоційного стресу та надання користувачам доступу до реальної допомоги.

Читайте також

About Us

Soledad is the Best Newspaper and Magazine WordPress Theme with tons of options and demos ready to import. This theme is perfect for blogs and excellent for online stores, news, magazine or review sites. Buy Soledad now!

Latest Articles

© ProIT. Видання не несе жодної відповідальності за зміст і достовірність фактів, думок, поглядів, аргументів та висновків, які викладені у інформаційних матеріалах з посиланням на інші джерела інформації. Усі запити щодо такої інформації мають надсилатися виключно джерелам відповідної інформації.