У Кремнієвій долині розгорівся черговий скандал навколо безпеки штучного інтелекту (ШІ). Провідні гравці індустрії, такі як координатор Білого дому з питань AI та криптовалют Девід Сакс і головний стратег OpenAI Джейсон Квон, виступили з різкою критикою на адресу організацій, які просувають безпечний розвиток ШІ. Вони звинуватили частину цих груп у просуванні власних інтересів або інтересів впливових осіб, що стоять за лаштунками, а не у щирому прагненні до безпеки.
Про це розповідає ProIT
Критика та реакція AI safety-спільноти
Організації, що займаються питаннями безпеки штучного інтелекту, розповідають, що такі заяви — не перша спроба технологічних лідерів залякати критиків індустрії. Протягом 2024 року деякі венчурні фонди поширювали чутки, ніби законопроєкт штату Каліфорнія SB 1047 міг би призвести до ув’язнення засновників стартапів. Хоча Інститут Брукінгса назвав це «спотворенням» суті закону, губернатор Гевін Ньюсом все ж наклав на нього вето.
На тлі цих подій багато керівників некомерційних організацій, які займаються безпекою ШІ, воліють залишатися анонімними, побоюючись переслідувань за свою позицію. Це свідчить про підвищений рівень напруження між прихильниками відповідального підходу до розвитку ШІ та тими, хто прагне швидкої комерціалізації технології.
Нові закони і внутрішні конфлікти у сфері ШІ
Девід Сакс, реагуючи на публікацію співзасновника Anthropic Джека Кларка про ризики ШІ, заявив, що Anthropic використовує «витончену стратегію захоплення регуляторного поля» через нагнітання страху. На думку Сакса, це призводить до надмірного регулювання, яке шкодить екосистемі стартапів, а також дає переваги великим гравцям на ринку. Anthropic була єдиною великою AI-лабораторією, яка підтримала законопроєкт SB 53, що передбачає звітність для компаній-розробників ШІ, та який у вересні став законом у Каліфорнії.
Anthropic is running a sophisticated regulatory capture strategy based on fear-mongering. It is principally responsible for the state regulatory frenzy that is damaging the startup ecosystem. https://t.co/C5RuJbVi4P
Крім того, OpenAI розіслала судові повістки низці некомерційних організацій, серед яких Encode — відома у сфері просування відповідальної AI-політики. За словами Джейсона Квона, це сталося після того, як Ілон Маск подав до суду на OpenAI через зміну її місії та структури. Encode підтримала позов Маска, а інші організації також висловили опозицію OpenAI щодо реорганізації структури компанії. OpenAI вимагала надати інформацію про контакти з головними опонентами компанії — Маском та генеральним директором Meta Марком Цукербергом, а також про підтримку законопроєкту SB 53.
Внутрішні джерела вказують на розкол усередині OpenAI: дослідники з безпеки регулярно публікують звіти про ризики AI-систем, однак політичний підрозділ компанії лобіював проти SB 53, відстоюючи ідею загальнонаціонального регулювання. Очільник напряму місійного узгодження OpenAI Джошуа Ачіам заявив у соцмережах:
«At what is possibly a risk to my whole career I will say: this doesn’t seem great», — тобто висловив стурбованість діями компанії щодо тиску на некомерційні організації.
Директор організації Alliance for Secure AI Брендан Стайнхаузер вважає, що OpenAI намагається змусити замовкнути критиків і залякати інші неприбуткові організації, щоб ті не виступали з подібною критикою. Він наголошує, що більшість спільноти AI safety також ставиться критично до практик компанії xAI, яку очолює Маск.
Державний радник Білого дому з питань AI Шрірам Крішнан також долучився до обговорення, заявивши, що частина AI safety-руху «відірвана від реальності» і закликав більше спілкуватися з користувачами і впроваджувачами технологій у реальних організаціях та домогосподарствах.
Останні соціологічні дослідження Pew свідчать: половина американців більше стурбовані, ніж захоплені перспективами ШІ, але не завжди можуть чітко сформулювати свої побоювання. Інше опитування показало, що громадян США найбільше хвилюють втрата робочих місць та deepfake-технології, тоді як рух AI safety концентрується переважно на глобальних катастрофічних ризиках.
Зростання уваги до питань безпеки може призвести до уповільнення стрімкого розвитку AI-індустрії, що непокоїть багатьох у Кремнієвій долині. Але після років фактично нерегульованого розвитку, рух за безпечний ШІ набирає обертів під кінець 2025 року, а зростаюча опозиція з боку технологічних компаній свідчить про реальні зміни у підходах до ринку.