TommyZQ commited on
Commit
f84b604
1 Parent(s): d248ea9

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -9
README.md CHANGED
@@ -33,9 +33,11 @@ The vision of OpenCSG is to empower every industry, every company, and every ind
33
 
34
  **csg-wukong-1B** is a 1 billion-parameter small language model(SLM) pretrained on 1T tokens.
35
 
 
 
36
  <br>
37
 
38
- **we will introduce more information about csg-wukong-1B**
39
 
40
 
41
  # Training
@@ -80,16 +82,9 @@ OpenCSG的愿景是让每个行业、每个公司、每个人都拥有自己的
80
 
81
 
82
  **csg-wukong-1B** 是一个1B参数量的小语言模型,该模型训练了1T tokens.
83
-
84
  <br>
85
 
86
- 这是基于 [phi-2](https://huggingface.co/microsoft/phi-2) 进行微调的模型版本。
87
-
88
- | 模型大小 | 基座模型 |
89
- | --- | ----------------------------------------------------------------------------- |
90
- | 2.7B | [opencsg/Opencsg-phi-2-v0.1](https://huggingface.co/opencsg/opencsg-phi-2-v0.1) |
91
- | opencsg-stable-coder-3b-v1 |[opencsg/Opencsg-stable-coder-3b-v1](https://huggingface.co/opencsg/opencsg-stable-code-3b-v1)|
92
-
93
  ```
94
  # 训练
95
 
 
33
 
34
  **csg-wukong-1B** is a 1 billion-parameter small language model(SLM) pretrained on 1T tokens.
35
 
36
+ we will introduce more information about csg-wukong-1B.
37
+
38
  <br>
39
 
40
+
41
 
42
 
43
  # Training
 
82
 
83
 
84
  **csg-wukong-1B** 是一个1B参数量的小语言模型,该模型训练了1T tokens.
85
+ 我们将在后面介绍更多关于这个模型的信息。
86
  <br>
87
 
 
 
 
 
 
 
 
88
  ```
89
  # 训练
90