
Об этом сообщает ProIT
Китайская лаборатория искусственного интеллекта представила новую модель под названием DeepSeek, которая поражает своей производительностью по разным тестам, таким как программирование и написание эссе. Однако эта модель имеет одну интересную особенность – она по ошибке идентифицирует себя как ChatGPT.
Подробности о поведении DeepSeek
Согласно сообщениям в социальных сетях X и Reddit, DeepSeek часто заявляет, что она является версией GPT-4, выпущенной в 2023 году. В пяти из восьми случаев она утверждает, что есть ChatGPT, тогда как в трех случаях идентифицирует себя как DeepSeekV3. Это может свидетельствовать о том, что обучающие данные модели содержат значительную часть информации, полученной из ChatGPT.
"Очевидно, что в какой-то момент модель получает необработанные ответы от ChatGPT, но непонятно откуда именно", – сказал Майк Кук, научный сотрудник Королевского колледжа Лондона, специализирующийся на ИИ.
Влияние обучения на данных конкурентов
Обучение моделей на результатах других систем может иметь негативные последствия, в частности, приводить к галлюцинациям и обманчивым ответам. Это также может противоречить условиям обслуживания, например OpenAI запрещает использовать результаты ChatGPT для разработки конкурентных моделей. Майк Кук также предупреждает, что такая практика может ухудшить качество модели, теряя связь с реальностью, подобно фотокопии.
Интересно, что DeepSeek V3 – не единственная модель, ошибочно идентифицирующая себя. К примеру, Google Gemini ответила на китайском языке, что она является чатботом Wenxinyiyan от Baidu. Сэм Альтман, босс стартапа, считает, что легче скопировать то, что уже известно, чем создавать новое и рискованное.