Text Generation
Transformers
PyTorch
TensorBoard
Chinese
bloom
Inference Endpoints
text-generation-inference
File size: 1,534 Bytes
102e098
 
6db1c02
 
 
 
 
 
 
 
2d725a6
 
daccaa9
c8aaa2b
e05ead3
13976a7
c8aaa2b
 
 
daccaa9
 
 
 
 
 
fe942d5
 
c8aaa2b
 
 
 
 
 
 
 
 
 
 
daccaa9
 
 
 
c8aaa2b
 
13976a7
c8aaa2b
207ab5d
 
 
 
 
 
 
 
57eea6d
207ab5d
 
 
91de3b4
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
---
license: apache-2.0
datasets:
- BelleGroup/train_2M_CN
- BelleGroup/train_3.5M_CN
- BelleGroup/train_1M_CN
- BelleGroup/train_0.5M_CN
- BelleGroup/school_math_0.25M
language:
- zh
---

## GoGPT

基于多样性中文指令数据微调的中文BLOOM底座模型

![img.png](resources/img.png)
> 训练第一轮足够了,后续第二轮和第三轮提升不大

- 🚀多样性指令数据
- 🚀筛选高质量中文数据

| 模型名字       | 参数量    | 模型地址 |
|------------|--------|------|
| gogpt-560m | 5.6亿参数 | 🤗[golaxy/gogpt-560m](https://huggingface.co/golaxy/gogpt-560m) |
| gogpt-3b   | 30亿参数  | 🤗[golaxy/gogpt-3b-bloom](https://huggingface.co/golaxy/gogpt-3b-bloom) |
| gogpt-7b   | 70亿参数  | 🤗[golaxy/gogpt-7b-bloom](https://huggingface.co/golaxy/gogpt-7b-bloom) |


## 测试效果
![img.png](resources/test1.png)
![img.png](resources/test2.png)
![img.png](resources/test3.png)
![img.png](resources/test4.png)
![img.png](resources/test5.png)
![img.png](resources/test6.png)


## TODO
- 进行RLFH训练
- 后续加入中英平行语料

## 感谢

- [@hz-zero_nlp](https://github.com/yuanzhoulvpi2017/zero_nlp)
- [stanford_alpaca](https://github.com/tatsu-lab/stanford_alpaca)
- [Belle数据](https://huggingface.co/BelleGroup)

## Citation

如果你在研究中使用了GoGPT,请按如下格式引用:
```
@misc{GoGPT,
  title={GoGPT: Training Medical GPT Model},
  author={Qiang Yan},
  year={2023},
  howpublished={\url{https://github.com/yanqiangmiffy/GoGPT}},
}
```