Ілон Маск у розмові з індійським бізнесменом Ніхілом Каматом вкотре наголосив на потенційних загрозах, пов’язаних із розвитком штучного інтелекту. За словами Маска, безпечний розвиток ШІ має ґрунтуватися на трьох основних принципах: істині, красі та цікавості.
Про це розповідає ProIT
Вплив недостовірних даних на ШІ
Маск зауважив, що штучний інтелект навчається на великому обсязі інформації з інтернету, де часто трапляються неправдиві дані. Така ситуація призводить до того, що ШІ може робити помилки. Він навів приклад: на початку 2025 року функція Apple Intelligence на iPhone поширила фейкову новину про перемогу британського дартсиста Люка Літтлера ще до початку турніру.
ШІ повинен служити людству
Під час розмови Маск підкреслив, що штучний інтелект має прагнути до пізнання, орієнтуватися на реальні дані та розвиватися в інтересах людства, а не завдавати йому шкоди.
“Ігнорування трьох основних принципів — істини, краси та цікавості — може призвести до хибних або небезпечних висновків від ШІ”.
Його позицію підтримує й відомий дослідник у сфері штучного інтелекту Джеффрі Хінтон, який оцінює ймовірність виникнення серйозної загрози від ШІ у 10-20%. Водночас Хінтон переконаний, що достатньо розумних людей із необхідними ресурсами здатні створити безпечні системи штучного інтелекту, які не загрожуватимуть людству.