DeepSeek-R1 — це нова генеративна модель штучного інтелекту, створена китайським стартапом DeepSeek, яка активно викликає обговорення в технологічному світі. Ця модель позиціонується як прямий конкурент таким гігантам, як OpenAI та Google, і має відкритий код, що робить її доступною для широкого кола розробників. Проте, незважаючи на численні переваги, існують серйозні питання щодо безпеки даних та політичної упередженості.
Про це розповідає ProIT
Технології та принципи роботи DeepSeek R1
DeepSeek-R1 вже встигла перевершити ChatGPT за популярністю в App Store і суттєво вплинула на фінансові показники таких компаній, як Nvidia та Meta. Інвестиції в штучний інтелект в США у 2023 році перевищили китайські в шість разів, проте нова китайська модель швидко налагодила конкуренцію.
Генеральний директор OpenAI Сем Альтман оцінював вартість навчання своїх моделей у «понад» 100 мільйонів доларів, тоді як китайцям вдалося створити DeepSeek R1 за всього 5,6 мільйона доларів. Це стало можливим завдяки використанню меншої кількості чіпів та оптимізації процесів навчання.
Порівняння DeepSeek з іншими моделями
DeepSeek R1 демонструє продуктивність, подібну до OpenAI o1, але з набагато нижчими витратами — приблизно 0,55 долара за мільйон токенів у порівнянні з 15 доларами за ту ж кількість токенів у OpenAI. Завдяки відкритому коду та можливості запуску моделей на локальному обладнанні, DeepSeek стала привабливим вибором для розробників.
Проте, попри всі ці переваги, виникають серйозні запитання щодо захисту даних. Нещодавно виявилося, що база даних DeepSeek була відкритою для доступу в Інтернеті, що могло призвести до витоку конфіденційної інформації користувачів. Дослідження також показали, що DeepSeek може уникати відповідей на чутливі теми, пов’язані з політикою Китаю.
З огляду на швидкість розвитку та інновації, які пропонує DeepSeek, важливо підходити до використання цієї технології з обережністю, зважаючи на ризики, пов’язані з конфіденційністю та безпекою даних.