Про це розповідає ProIT
Китайська лабораторія штучного інтелекту представила нову модель під назвою DeepSeek, яка вражає своєю продуктивністю за різними тестами, такими як програмування та написання есе. Однак ця модель має одну цікаву особливість – вона помилково ідентифікує себе як ChatGPT.
Деталі про поведінку DeepSeek
Згідно з повідомленнями у соціальних мережах X та Reddit, DeepSeek часто заявляє, що вона є версією GPT-4, випущеною у 2023 році. У п’яти з восьми випадків вона стверджує, що є ChatGPT, тоді як у трьох випадках ідентифікує себе як DeepSeekV3. Це може свідчити про те, що навчальні дані моделі містять значну частину інформації, отриманої з ChatGPT.
“Очевидно, що в якийсь момент модель отримує необроблені відповіді від ChatGPT, але незрозуміло, звідки саме”, – сказав Майк Кук, науковий співробітник Королівського коледжу Лондона, що спеціалізується на ШІ.
Вплив навчання на даних конкурентів
Навчання моделей на результатах інших систем може мати негативні наслідки, зокрема призводити до галюцинацій та оманливих відповідей. Це також може суперечити умовам обслуговування, наприклад, OpenAI забороняє використовувати результати ChatGPT для розробки конкурентних моделей. Майк Кук також попереджає, що така практика може погіршити якість моделі, втрачаючи зв’язок з реальністю, подібно до фотокопії.
Цікаво, що DeepSeek V3 – не єдина модель, яка помилково ідентифікує себе. Наприклад, Google Gemini відповіла китайською мовою, що вона є чатботом Wenxinyiyan від Baidu. Сем Альтман, бос стартапу, вважає, що легше скопіювати те, що вже відомо, аніж створювати нове і ризиковане.