Update README.md
Browse files
README.md
CHANGED
@@ -4,7 +4,72 @@ language:
|
|
4 |
- zh
|
5 |
pipeline_tag: text-generation
|
6 |
---
|
|
|
7 |
|
8 |
-
|
9 |
|
10 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
4 |
- zh
|
5 |
pipeline_tag: text-generation
|
6 |
---
|
7 |
+
|
8 |
|
9 |
+
这些模型训练自h-corpus-2023
|
10 |
|
11 |
+
|
12 |
+
## 模型的使用教程
|
13 |
+
|
14 |
+
本模型训练自国产开源模型RWKV,所以接入了RWKV生态,建议配合RWKV Runner使用
|
15 |
+
|
16 |
+
RWKV Runner地址: https://github.com/josStorer/RWKV-Runner
|
17 |
+
|
18 |
+
首先在进入RWKV Runner的release界面 https://github.com/josStorer/RWKV-Runner/releases
|
19 |
+
|
20 |
+
点击最新的 RWKV-Runner_windows_x64.exe 下载
|
21 |
+
|
22 |
+
将 RWKV-Runner_windows_x64.exe 放置在一个空文件夹下然后运行
|
23 |
+
|
24 |
+
接着打开模型链接: https://huggingface.co/a686d380/rwkv-5-h-world
|
25 |
+
|
26 |
+
或者国内镜像: https://hf-mirror.com/a686d380/rwkv-5-h-world
|
27 |
+
|
28 |
+
点击 Files and versions, 再点击rwkv-5-h-world-1b5.pth 右侧的下载按钮下载模型
|
29 |
+
|
30 |
+
将下载好的rwkv-5-h-world-1b5.pth 放在 RWKV-Runner_windows_x64.exe 目录下的models文件夹内
|
31 |
+
|
32 |
+
进入RWKV Runner的配置界面,在模型参数中选择模型为 rwkv-5-h-world-1b5.pth
|
33 |
+
|
34 |
+
接着根据你的显卡
|
35 |
+
|
36 |
+
### 如果你是Nvidia显卡
|
37 |
+
|
38 |
+
Strategy 选择CUDA,精度选择fp16,载入显存层数拉满,开启自定义CUDA算子
|
39 |
+
|
40 |
+
### 如果是AMD显卡
|
41 |
+
|
42 |
+
Strategy 选择WebGPU,精度选为fp16
|
43 |
+
|
44 |
+
### 如果你只有集显,使用CPU
|
45 |
+
|
46 |
+
Strategy 选择CPU,精度选为fp16
|
47 |
+
|
48 |
+
|
49 |
+
接着点击运行(A卡先点击转为Safetensors格式再点击运行)
|
50 |
+
|
51 |
+
Runner会先提醒你下载python,安装完成后再次点击,会提醒安装依赖,下载并等待安装完成
|
52 |
+
|
53 |
+
进入续写界面,开始使用
|
54 |
+
|
55 |
+
由于没有对话数据,聊天功能不正常,不建议使用
|
56 |
+
|
57 |
+
|
58 |
+
|
59 |
+
## 配置进阶
|
60 |
+
|
61 |
+
在精度上,int8会比fp16占用显存/内存更小,但是通常更慢。如果你的显卡过于陈旧以至于不支持fp16,请选择fp32。载入显存层数会调配显存和内存的占用,通常尽可能调大此参数使得显存占满。
|
62 |
+
|
63 |
+
如果出现问题可以尝试关闭自定义CUDA算子
|
64 |
+
|
65 |
+
如果你是intel显卡,也可以尝试WebGPU
|
66 |
+
|
67 |
+
有关显存占用的估计: 1b5中的b指代的是billion,十亿。所以1b5也就是十五亿。Billion是目前大语言模型常见的单位,1B=10^9,而常见的KB MB GB分别指代10^3,10^6,10^9字节(注意此时的B指代byte)。因此,当1.5B参数的模型以int8(8比特,1字节)存储时,会占用1.5GB存储,以fp16存储时,会占用3GB。
|
68 |
+
|
69 |
+
## 文本生成进阶
|
70 |
+
|
71 |
+
在续写界面右侧有Temperature Top_P Presence Penalty Frequency Penalty四个重要参数,这些参数非常影响模型的生成,你可以把鼠标放在上面查看说明
|
72 |
+
|
73 |
+
简言之,如果你觉得模型天马行空胡编乱造,请调低Temperature和Top_P,如果模型过于保守,请提高Temperature和Top_P
|
74 |
+
|
75 |
+
如果你发现模型在重复相同的句子或词语,请提高Presence Penalty和Frequency Penalty
|