zhaicunqi commited on
Commit
1a0651e
1 Parent(s): 1b7d9a1

Upload README_CN.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README_CN.md +5 -5
README_CN.md CHANGED
@@ -176,9 +176,9 @@ benchmark均分排名第⼀。在挑战性的竞赛数学数据集math上,同
176
  ## Chat模型
177
 
178
  ### 后训练数据
179
- 360自有通用微调数据50w,该数据综合考虑各个技能及360垂直业务数据,生成方法如下:
180
  1. 数据多样性:根据360自有标签体系进行领域,意图,难度,长度的分层采样,确保指令多样性
181
- 2. 数据质量:使用开源数据以及自有的偏序数据训练了360gpt-pro-rm(reward bench得分92.59),使用该模型进行样本筛选,过滤response低质数据
182
  3. 复杂指令进化:使用进化方式做复杂指令优化,优化指令跟随能力
183
 
184
  ### 训练方法
@@ -196,10 +196,10 @@ benchmark均分排名第⼀。在挑战性的竞赛数学数据集math上,同
196
 
197
  4. 模型合并
198
 
199
- 在360公司白盒评测集合4上,针对上述3个模型做自动评测,发现不同模型各有其又是技能,考虑模型合并方案。基于sft模型为base做内插得到模型v1,然后仍以sft模型为base和v1模型进行外插,外插系数0.2 最终得到360Zhicao2-7B-Chat-4k.
200
 
201
  ### 模型效果
202
- 我们在一些经典任务上对 360Zhicao2-7B-Chat-4k 模型进行了评测。IFEval (prompt strict) 仅次于GLM4-9B,7b开源模型最高;MT-bench第3名略差于Qwen2.5-7B,7B模型排名第二;CF-Bench第3,在PSR上仅次于GLM4-9B,详细结果如下表:
203
 
204
  | Model | MT-bench | IFEval(strict prompt) | CFBench(CSR,ISR,PSR) | | |
205
  |----------------------|----------|-----------------------|----------------------|------|------|
@@ -207,7 +207,7 @@ benchmark均分排名第⼀。在挑战性的竞赛数学数据集math上,同
207
  | Yi-9B-16k-Chat | 7.44 | 0.455 | 0.75 | 0.4 | 0.52 |
208
  | GLM4-9B-Chat | **8.08** | **0.634** | **0.82** | 0.48 | 0.61 |
209
  | InternLM2.5-7B-Chat | 7.39 | 0.540 | 0.78 | 0.4 | 0.54 |
210
- | 360Zhicao2-7B-Chat-4k| 7.86 | **0.577** | 0.8 | 0.44 | 0.57 |
211
 
212
 
213
 
 
176
  ## Chat模型
177
 
178
  ### 后训练数据
179
+ 高质量微调数据50w,该数据综合考虑大模型通用技能及360垂直业务数据,生成方法如下:
180
  1. 数据多样性:根据360自有标签体系进行领域,意图,难度,长度的分层采样,确保指令多样性
181
+ 2. 数据质量:使用偏序数据训练360gpt-pro-rm(reward bench得分92.59),用该模型进行样本筛选,过滤掉低质数据
182
  3. 复杂指令进化:使用进化方式做复杂指令优化,优化指令跟随能力
183
 
184
  ### 训练方法
 
196
 
197
  4. 模型合并
198
 
199
+ 在360公司白盒评测集合4上,针对上述3个模型做自动评测,发现不同模型各有其优势技能,考虑模型合并方案,得到最终的Chat模型.
200
 
201
  ### 模型效果
202
+ 我们在IFEval、MT-bench、CF-Bench三个经典任务上对 360Zhinao2-7B-Chat-4k 模型进行了评测,模型效果具备较强竞争力。IFEval (prompt strict) 仅次于GLM4-9B,在7B开源模型中得分最高,详细结果如下表:
203
 
204
  | Model | MT-bench | IFEval(strict prompt) | CFBench(CSR,ISR,PSR) | | |
205
  |----------------------|----------|-----------------------|----------------------|------|------|
 
207
  | Yi-9B-16k-Chat | 7.44 | 0.455 | 0.75 | 0.4 | 0.52 |
208
  | GLM4-9B-Chat | **8.08** | **0.634** | **0.82** | 0.48 | 0.61 |
209
  | InternLM2.5-7B-Chat | 7.39 | 0.540 | 0.78 | 0.4 | 0.54 |
210
+ | 360Zhinao2-7B-Chat-4k| 7.86 | **0.577** | 0.8 | 0.44 | 0.57 |
211
 
212
 
213