Hunyuan-7B-Instruct / README.md
woodchen7's picture
Update README.md
a8b4e18 verified
|
raw
history blame
5.58 kB


 GITHUB  

模型介绍

本次混元发布的7B模型:Hunyuan-7B-PretrainHunyuan-7B-Instruct ,采用了更优的数据配比与训练,拥有强劲的性能,在计算与性能间取得良好平衡的优势从众多规模的语言模型中脱颖而出,是目前最强的中文7B Dense模型之一。

技术优势介绍

模型

  • 使用了GQA的同时,将长文能力拓展到256K。

推理框架

  • 模型支持 TRT-LLM-backend 和 vLLM-backend 推理框架。本次优先开源vLLM框架,TRT-LLM将在近期推出。

训练框架

  • Hunyuan-Large开源模型已经支持huggingface格式,支持用户采用hf-deepspeed框架进行模型精调。详情可以参照Tencent-Hunyuan-Large

 

新闻

  • 2025.1 我们在Hugging Face开源了Hunyuan-7B-PretrainHunyuan-7B-Instruct

Benchmark评估榜单

注:下列Benchmark均为 TRT-LLM-backend 测评得出 Hunyuan-7B-Pretrain

Qwen2.5-7B Llama3-8B OLMO2-7B HunYuan-7B-V2
MMLU 74.26 66.95 63.7 75.37
MMLU-Pro 46.17 34.04 31 47.54
MMLU-CF 61.01 55.21 52.94 59.62
MMLU-Redux 73.47 66.44 63.74 74.54
BBH 70.4 62.16 38.01 70.77
HellaSwag 75.82 78.24 61.97 80.77
WinoGrande 69.69 73.64 74.43 71.51
PIQA 79.33 80.52 80.63 81.45
SIQA 77.48 61.05 65.2 79.73
NaturalQuestions 31.77 35.43 36.9 33.52
DROP 68.2 60.13 60.8 68.63
ARC-C 91.64 77.59 74.92 91.97
TriviaQA 69.31 78.61 78 74.31
Chinese-SimpleQA 30.37 19.4 7.35 30.51
SimpleQA 4.98 7.68 4.51 3.73
CMMLU 81.39 50.25 38.79 82.19
C-Eval 81.11 50.4 38.53 82.12
C3 71.77 61.5 54 79.07
GSM8K 82.71 57.54 67.5 93.33
MATH 49.6 18.45 19 62.15
CMATH 84.33 52.83 44 88.5
HumanEval 57.93 35.98 15.24 59.15

Hunyuan-7B-Instruct

Model Qwen2.5-7B-Instruct Llama-3-8B-Instruct OLMo-2-1124-7B-DPO Hunyuan-7B-Instruct
ARC-C 89.83 82.4 - 88.81
BBH 66.24 - 46.6 76.47
CEval 76.82 - - 81.8
CMMLU 78.55 - - 82.29
DROP_F1 80.63 - 60.5 82.96
GPQA 36.87 34.6 - 47.98
Gsm8k 80.14 80.6 85.1 90.14
HellaSwag 83.34 - - 86.57
HumanEval 84.8 60.4 - 84.0
MATH 72.86 - 32.5 70.64
MMLU 72.36 68.5 61.3 79.18

快速开始

您可以参考Tencent-Hunyuan-Large 中的内容进行快速上手,训练推理代码使用本github仓库提供版本即可。

性能评估:

本部分介绍采用vLLM部署各个模型的效率测试结果,包括不同Batchsize下的推理速度(tokens/s)。

推理框架 模型 部署卡数(卡型1) input_length batch=1 batch=4
vLLM hunyuan-7B 1 2048 78.9 279.5

联系我们

如果你想给我们的研发和产品团队留言,欢迎联系我们腾讯混元LLM团队。你可以通过邮件(hunyuan_opensource@tencent.com)联系我们。