DeepSeek-V2
DeepSeek-V2 基于 2 千亿 MoE 模型底座,领先性能,超低价格,越级场景体验,已在对话官网和 API 全面上线。
DeepSeek-V2 的综合能力
在目前大模型主流榜单中,DeepSeek-V2 均表现出色
- 中文综合能力(AlignBench)开源模型中最强
与 GPT-4-Turbo,文心 4.0 等闭源模型在评测中处于同一梯队 - 英文综合能力(MT-Bench)处于第一梯队
英文综合能力(MT-Bench)与最强的开源模型 LLaMA3-70B 处于同一梯队,超过最强 MoE 开源模型 Mixtral8x22B - 知识、数学、推理、编程等榜单结果位居前列
- 开源模型支持 128K 上下文,对话官网/API 支持 32K 上下文
https://platform.deepseek.com/api-docs/zh-cn/api/create-chat-completion
作者:Jeebiz 创建时间:2024-05-28 18:35
最后编辑:Jeebiz 更新时间:2025-05-12 09:20
最后编辑:Jeebiz 更新时间:2025-05-12 09:20