Baichuan-7B
Baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约 1.2 万亿 tokens 上训练的 70 亿参数模型,支持中英双语,上下文窗口长度为 4096。在标准的中文和英文 benchmark(C-Eval/MMLU)上均取得同尺寸最好的效果。
- Hugging Face:https://huggingface.co/baichuan-inc/Baichuan-7B
- GitHub:https://github.com/baichuan-inc/Baichuan-7B
作者:Jeebiz 创建时间:2023-12-12 12:28
最后编辑:Jeebiz 更新时间:2025-05-12 09:20
最后编辑:Jeebiz 更新时间:2025-05-12 09:20