Китайська модель DeepSeek V3 з відкритим кодом перевершила усіх конкурентів
Китайський стартап DeepSeek створив одну з найпотужніших на сьогоднішній день «відкритих» моделей штучного інтелекту — DeepSeek V3. Вона має відкритий код і навчена на наборі даних з 14,8 трильйонів токенів. 1 мільйон токенів дорівнює приблизно 750 000 слів.
DeepSeek V3 може виконувати низку завдань, у тому числі роботу з кодом. Відповідно до внутрішнього порівняльного тесту, вона перевершує як «відкриті», так і «закриті» моделі ШІ, доступ до яких можливий лише через API. У тестах з кодування, які проводяться на платформі Codeforces, DeepSeek V3 перевершила всі інші моделі, зокрема Llama 3.1 405B від Meta, GPT-4o від OpenAI та Qwen 2.5 72B від Alibaba.
DeepSeek V3 також перевершує конкурентів у тесті Aider Polyglot, який розроблено, щоб визначити, чи може модель успішно написати новий код, який інтегрується в існуючий код.
Telegram Chat | Facebook | LinkedIn | Website
Китайський стартап DeepSeek створив одну з найпотужніших на сьогоднішній день «відкритих» моделей штучного інтелекту — DeepSeek V3. Вона має відкритий код і навчена на наборі даних з 14,8 трильйонів токенів. 1 мільйон токенів дорівнює приблизно 750 000 слів.
DeepSeek V3 може виконувати низку завдань, у тому числі роботу з кодом. Відповідно до внутрішнього порівняльного тесту, вона перевершує як «відкриті», так і «закриті» моделі ШІ, доступ до яких можливий лише через API. У тестах з кодування, які проводяться на платформі Codeforces, DeepSeek V3 перевершила всі інші моделі, зокрема Llama 3.1 405B від Meta, GPT-4o від OpenAI та Qwen 2.5 72B від Alibaba.
DeepSeek V3 також перевершує конкурентів у тесті Aider Polyglot, який розроблено, щоб визначити, чи може модель успішно написати новий код, який інтегрується в існуючий код.
Telegram Chat | Facebook | LinkedIn | Website