DeepSeek-V2

DeepSeek-V2 基于 2 千亿 MoE 模型底座,领先性能,超低价格,越级场景体验,已在对话官网和 API 全面上线。

DeepSeek-V2 的综合能力

在目前大模型主流榜单中,DeepSeek-V2 均表现出色

  • 中文综合能力(AlignBench)开源模型中最强
    与 GPT-4-Turbo,文心 4.0 等闭源模型在评测中处于同一梯队
  • 英文综合能力(MT-Bench)处于第一梯队
    英文综合能力(MT-Bench)与最强的开源模型 LLaMA3-70B 处于同一梯队,超过最强 MoE 开源模型 Mixtral8x22B
  • 知识、数学、推理、编程等榜单结果位居前列
  • 开源模型支持 128K 上下文,对话官网/API 支持 32K 上下文

https://platform.deepseek.com/api-docs/zh-cn/api/create-chat-completion

作者:Jeebiz  创建时间:2024-05-28 18:35
最后编辑:Jeebiz  更新时间:2025-05-12 09:20