Update README.md
Browse files
README.md
CHANGED
@@ -11,23 +11,22 @@ pipeline_tag: text-generation
|
|
11 |
<!-- markdownlint-disable html -->
|
12 |
<div align="center">
|
13 |
<h1>
|
14 |
-
|
15 |
</h1>
|
|
|
|
|
|
|
16 |
</div>
|
17 |
|
18 |
<p align="center">
|
19 |
-
|
20 |
</p>
|
21 |
|
22 |
# 目前Sakura发布的所有模型均采用[CC BY-NC-SA 4.0协议](https://creativecommons.org/licenses/by-nc-sa/4.0/deed.zh-hans),Sakura所有模型与其衍生模型均禁止任何形式的商用!Sakura系列所有模型皆仅供学习交流使用,开发者对使用Sakura模型造成的问题不负任何责任。
|
23 |
|
24 |
# 介绍
|
25 |
|
26 |
-
- 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame
|
27 |
-
|
28 |
-
- 目前仍为实验版本,v0.9版本模型在文风、流畅度与准确性上均强于GPT-3.5,但词汇量略逊于GPT-3.5(主观评价).
|
29 |
-
|
30 |
-
- 同时提供了运行模型的API后端,适配OpenAI API格式。
|
31 |
|
32 |
- 新建了[TG交流群](https://t.me/+QMDKZyO9GV1kNDA1),欢迎交流讨论。
|
33 |
|
@@ -38,7 +37,7 @@ pipeline_tag: text-generation
|
|
38 |
|
39 |
**对于模型翻译的人称代词问题(错用,乱加,主宾混淆,男女不分等)和上下文理解问题,如果有好的想法或建议,欢迎提issue!**
|
40 |
|
41 |
-
### TODO:见https://github.com/SakuraLLM/Sakura-13B-Galgame/issues/42
|
42 |
|
43 |
## 快速开始
|
44 |
|
@@ -46,33 +45,43 @@ pipeline_tag: text-generation
|
|
46 |
|
47 |
详见[本仓库Wiki](https://github.com/SakuraLLM/Sakura-13B-Galgame/wiki).
|
48 |
|
|
|
|
|
|
|
|
|
49 |
### 模型下载:
|
50 |
|
51 |
-
| 参数量 | 发布时间-底模-版本 |
|
52 |
-
|
53 |
-
| 32B | 20240508-Qwen1.5-32B-v0.9 |
|
54 |
-
| | 20240508-Qwen1.5-32B-v0.10pre1 |
|
55 |
-
| 14B | 20240111-Qwen-14B-v0.9 | 🤗 [Sakura-13B-LNovel-v0.
|
56 |
-
| | 20240213-Qwen1.5-14B-v0.9 | 🤗 [Sakura-14B-Qwen2beta-v0.9
|
57 |
-
|
|
58 |
-
|
|
|
|
|
|
|
|
|
|
|
|
59 |
|
60 |
p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.co`改成`hf-mirror.com`,使用hf镜像站下载。
|
61 |
|
62 |
## News
|
63 |
|
64 |
-
1. **更新了基于
|
|
|
|
|
|
|
|
|
65 |
|
66 |
-
1.
|
67 |
-
|
68 |
-
1. **更新了基于Qwen1.5底模的`v0.9`版本模型,包括14B和1.8B两个版本。注意:此版本模型的结构为Qwen2. 同时补充更新了基于Qwen 7B的`v0.9`版本模型。**
|
69 |
-
|
70 |
-
1. **更新了0.9的正式版模型`v0.9b`。清洗并增加了预训练与微调的数据量。更推荐使用正式版模型,它会比之前的pre版本更加稳定,质量更高。**
|
71 |
|
72 |
1. **增加了vllm模型后端的支持,详见**[#40](https://github.com/SakuraLLM/Sakura-13B-Galgame/pull/40)
|
73 |
|
74 |
-
1.
|
75 |
-
|
|
|
76 |
1. **Sakura API已经支持OpenAI格式,现在可以通过OpenAI库或者OpenAI API Reference上的请求形式与Server交互。**
|
77 |
一个使用OpenAI库与Sakura模型交互的例子详见[openai_example.py](https://github.com/SakuraLLM/Sakura-13B-Galgame/blob/main/tests/example_openai.py)。
|
78 |
|
|
|
11 |
<!-- markdownlint-disable html -->
|
12 |
<div align="center">
|
13 |
<h1>
|
14 |
+
SakuraLLM
|
15 |
</h1>
|
16 |
+
<center>
|
17 |
+
<b>Sakura</b>: <b><ins>S</ins></b>FT <ins><b>A</b></ins>nd RLHF models using <ins><b>K</b></ins>nowledge of <ins><b>U</b></ins>niversal Character and <ins><b>R</b></ins>elationship <ins><b>A</b></ins>ttributes for Japanese to Chinese Translation in Light Novel & Galgame Domain.
|
18 |
+
</center>
|
19 |
</div>
|
20 |
|
21 |
<p align="center">
|
22 |
+
🤗 <a href="https://huggingface.co/sakuraumi/Sakura-13B-Galgame" target="_blank">Hugging Face</a> • 🤖 <a href="https://www.modelscope.cn/models/sakuraumi/Sakura-13B-Galgame" target="_blank">ModelScope</a>
|
23 |
</p>
|
24 |
|
25 |
# 目前Sakura发布的所有模型均采用[CC BY-NC-SA 4.0协议](https://creativecommons.org/licenses/by-nc-sa/4.0/deed.zh-hans),Sakura所有模型与其衍生模型均禁止任何形式的商用!Sakura系列所有模型皆仅供学习交流使用,开发者对使用Sakura模型造成的问题不负任何责任。
|
26 |
|
27 |
# 介绍
|
28 |
|
29 |
+
- 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行继续预训练与微调,旨在提供开源可控可离线自部署的、ACGN风格的日中翻译模型。
|
|
|
|
|
|
|
|
|
30 |
|
31 |
- 新建了[TG交流群](https://t.me/+QMDKZyO9GV1kNDA1),欢迎交流讨论。
|
32 |
|
|
|
37 |
|
38 |
**对于模型翻译的人称代词问题(错用,乱加,主宾混淆,男女不分等)和上下文理解问题,如果有好的想法或建议,欢迎提issue!**
|
39 |
|
40 |
+
### TODO:见[#42](https://github.com/SakuraLLM/Sakura-13B-Galgame/issues/42)
|
41 |
|
42 |
## 快速开始
|
43 |
|
|
|
45 |
|
46 |
详见[本仓库Wiki](https://github.com/SakuraLLM/Sakura-13B-Galgame/wiki).
|
47 |
|
48 |
+
部分使用方法:[usage.md](https://github.com/SakuraLLM/SakuraLLM/blob/main/usage.md)
|
49 |
+
|
50 |
+
> **请注意,如果给轻小说机翻站使用,请参见[机翻站站内教程](https://books.fishhawk.top/forum?category=Guide&page=1),本 repo 不适用。**
|
51 |
+
|
52 |
### 模型下载:
|
53 |
|
54 |
+
| 参数量 | 发布时间-底模-版本 | 模型 |
|
55 |
+
|:-------:|:-------|:-------|
|
56 |
+
| 32B | 20240508-Qwen1.5-32B-v0.9 | 🤗 [Sakura-32B-Qwen2beta-v0.9-GGUF](https://huggingface.co/SakuraLLM/Sakura-32B-Qwen2beta-v0.9-GGUF) |
|
57 |
+
| | 20240508-Qwen1.5-32B-v0.10pre1 | 🤗 [Sakura-32B-Qwen2beta-v0.10pre1-GGUF](https://huggingface.co/SakuraLLM/Sakura-32B-Qwen2beta-v0.10pre1-GGUF) |
|
58 |
+
| 14B | 20240111-Qwen-14B-v0.9 | 🤗 [Sakura-13B-LNovel-v0.9b-GGUF](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.9b-GGUF) |
|
59 |
+
| | 20240213-Qwen1.5-14B-v0.9 | 🤗 [Sakura-14B-Qwen2beta-v0.9-GGUF](https://huggingface.co/SakuraLLM/Sakura-14B-Qwen2beta-v0.9-GGUF) |
|
60 |
+
| | 20240516-Qwen1.5-14B-v0.9.2 | 🤗 [Sakura-14B-Qwen2beta-v0.9.2-GGUF](https://huggingface.co/SakuraLLM/Sakura-14B-Qwen2beta-v0.9.2-GGUF)
|
61 |
+
|(最新)| **20241008-Qwen2.5-14B-v1.0** | 🤗 [Sakura-14B-Qwen2.5-v1.0-GGUF](https://huggingface.co/SakuraLLM/Sakura-14B-Qwen2.5-v1.0-GGUF)
|
62 |
+
| 7B | 20240116-Qwen-7B-v0.9 | 🤗 [Sakura-7B-LNovel-v0.9-GGUF](https://huggingface.co/SakuraLLM/Sakura-7B-LNovel-v0.9-GGUF) |
|
63 |
+
| | 20240531-Qwen1.5-7B-Galtransl-v2.6 | 🤗 [Galtransl-v2.6](https://huggingface.co/SakuraLLM/GalTransl-7B-v2.6) |
|
64 |
+
| ~2B | 20240214-Qwen1.5-1.8B-v0.9.1 | 🤗 [Sakura-1B8-Qwen2beta-v0.9.1-GGUF](https://huggingface.co/SakuraLLM/Sakura-1B8-Qwen2beta-v0.9.1-GGUF) |
|
65 |
+
| | **20241012-Qwen2.5-1.5B-v1.0** | 🤗 [Sakura-1.5B-Qwen2.5-v1.0-GGUF](https://huggingface.co/SakuraLLM/Sakura-1.5B-Qwen2.5-v1.0-GGUF) |
|
66 |
+
|
67 |
|
68 |
p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.co`改成`hf-mirror.com`,使用hf镜像站下载。
|
69 |
|
70 |
## News
|
71 |
|
72 |
+
1. **更新了基于Qwen2.5-14B的v1.0正式版模型[Sakura-14B-Qwen2.5-v1.0](https://huggingface.co/SakuraLLM/Sakura-14B-Qwen2.5-v1.0-GGUF)和基于Qwen2.5-1.5B的v1.0正式版模型[Qwen2.5-1.5B-v1.0](https://huggingface.co/SakuraLLM/Sakura-1.5B-Qwen2.5-v1.0-GGUF),prompt格式参见[下方说明](https://github.com/SakuraLLM/SakuraLLM#%E6%8E%A8%E7%90%86)。主要改进:**
|
73 |
+
- 改善翻译质量,提高翻译准确率,尤其是人称的准确率。
|
74 |
+
- 支持术语表(GPT字典),以保持专有名词和人称的一致性。
|
75 |
+
- 提高部分简单控制符的保留能力,尤其是单行内存在`\n`的情况下保留`\n`的能力。降低行数与原文不一致的概率。
|
76 |
+
- 由于底模使用GQA,推理速度和显存占用显著改善,可实现更快的多线程推理。关于多线程推理,可参考[Sakura启动器GUI使用教程](https://books.fishhawk.top/forum/656d60530286f15e3384fcf8)或[SakuraLLMServer](https://github.com/neavo/SakuraLLMServer)。
|
77 |
|
78 |
+
1. **更新了基于Qwen1.5-7B的[Galtransl](https://huggingface.co/SakuraLLM/GalTransl-v1)模型,为视觉小说翻译任务专项优化。对视觉小说脚本中的行内换行、控制符、ruby注音等符号具有较好的保留能力。适配[GalTransl视觉小说翻译工具](https://github.com/xd2333/GalTransl)并调优,支持GPT字典([字典写法见此](https://github.com/xd2333/GalTransl/wiki/GPT%E5%AD%97%E5%85%B8%E2%80%90sakura-galtransl))。**
|
|
|
|
|
|
|
|
|
79 |
|
80 |
1. **增加了vllm模型后端的支持,详见**[#40](https://github.com/SakuraLLM/Sakura-13B-Galgame/pull/40)
|
81 |
|
82 |
+
1. <del>感谢[Isotr0py](https://github.com/Isotr0py)提供运行模型的NoteBook仓库[SakuraLLM-Notebooks](https://github.com/Isotr0py/SakuraLLM-Notebooks),可在[Colab](https://colab.research.google.com/)(免费T4\*1)与[Kaggle](https://www.kaggle.com/)(免费P100\*1或T4\*2)平台使用。**已经更新Kaggle平台的[使用教程](https://github.com/SakuraLLM/Sakura-13B-Galgame/wiki/%E7%99%BD%E5%AB%96Kaggle%E5%B9%B3%E5%8F%B0%E9%83%A8%E7%BD%B2%E6%95%99%E7%A8%8B),可以白嫖一定时间的T4\*2。**</del>
|
83 |
+
警告,Kaggle 官方已经采取措施封禁 SakuraLLM 仓库,[参见](https://github.com/SakuraLLM/SakuraLLM/issues/115) ,在 Kaggle 上克隆 SakuraLLM 仓库可能将会导致永久性封号。请换用其他项目或转移至租卡平台使用。
|
84 |
+
|
85 |
1. **Sakura API已经支持OpenAI格式,现在可以通过OpenAI库或者OpenAI API Reference上的请求形式与Server交互。**
|
86 |
一个使用OpenAI库与Sakura模型交互的例子详见[openai_example.py](https://github.com/SakuraLLM/Sakura-13B-Galgame/blob/main/tests/example_openai.py)。
|
87 |
|