Text Generation
Transformers
yuan
custom_code
IEIT-Yuan commited on
Commit
4c0b717
1 Parent(s): 8d3b492

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -93,11 +93,11 @@ Yuan2.0-M32 模型与多个闭源、开源模型相比,均呈现出较好的
93
  | Model | Params (B) | Active Params (B) | GFLOPs/token (Inference) | GFLOPs/token (Fine-tune) | Mean Accuracy | Mean Accuracy GFLOPs per token (Inference) |
94
  | ------------------ | :---------------: | :------------: | :---------------: | :---------------: | :---------------:|:---------------:|
95
  | | 参数量 | 激活参数量 | 算力消耗/token (推理阶段) | 算力消耗/token (微调阶段) | 平均测评分数 | 模型算力效率 |
96
- | Llama3-70B | 70 | 70 | 140 | 420 | 79.5 | 0.57 |
97
  | Llama3-8B | 8 | 8 | 16 | 48 | 64.15 | 4.00 |
98
  | Mistral-8*22B | 141 | 39 | 78 | 234 | 72.38 | 0.93 |
99
  | Mistral-8*7B | 47 | 129 | 25.8 | 77,3 | 60.83 | 2.36 |
100
- | **Yuan2.0-M32** | 40 | 3.7 | 7.4 | 22.2 | 79.1 | 10.69 |
101
 
102
 
103
 
 
93
  | Model | Params (B) | Active Params (B) | GFLOPs/token (Inference) | GFLOPs/token (Fine-tune) | Mean Accuracy | Mean Accuracy GFLOPs per token (Inference) |
94
  | ------------------ | :---------------: | :------------: | :---------------: | :---------------: | :---------------:|:---------------:|
95
  | | 参数量 | 激活参数量 | 算力消耗/token (推理阶段) | 算力消耗/token (微调阶段) | 平均测评分数 | 模型算力效率 |
96
+ | Llama3-70B | 70 | 70 | 140 | 420 | 79.25 | 0.57 |
97
  | Llama3-8B | 8 | 8 | 16 | 48 | 64.15 | 4.00 |
98
  | Mistral-8*22B | 141 | 39 | 78 | 234 | 72.38 | 0.93 |
99
  | Mistral-8*7B | 47 | 129 | 25.8 | 77,3 | 60.83 | 2.36 |
100
+ | **Yuan2.0-M32** | 40 | 3.7 | 7.4 | 22.2 | 79.15 | 10.69 |
101
 
102
 
103