Update README.md
Browse files
README.md
CHANGED
@@ -9,6 +9,9 @@ language:
|
|
9 |
ALMA-7B-Ja-V2-GPTQ-Ja-Enは日本語から英語、英語から日本語への機械翻訳を行うモデルです。
|
10 |
ALMA-7B-Ja-V2-GPTQ-Ja-En is a machine translation model that uses ALMA's learning method to translate Japanese to English.
|
11 |
|
|
|
|
|
|
|
12 |
## サンプルコード
|
13 |
|
14 |
Googleアカウントをお持ちの方は以下のColabを使用して動かす事が出来ます。
|
@@ -27,6 +30,7 @@ if you enconter error below.
|
|
27 |
It's mean your memory is not enough. decrease your num_beams or token size.
|
28 |
これはメモリ不足を意味します。num_beamsかtoken sizeを減らしてください。
|
29 |
|
|
|
30 |
## その他の版 Other Version
|
31 |
|
32 |
- None quantized model [ALMA-7B-Ja-V2](https://huggingface.co/webbigdata/ALMA-7B-Ja-V2).
|
@@ -47,4 +51,7 @@ Please find more details in their [paper](https://arxiv.org/abs/2309.11674).
|
|
47 |
archivePrefix={arXiv},
|
48 |
primaryClass={cs.CL}
|
49 |
}
|
50 |
-
```
|
|
|
|
|
|
|
|
9 |
ALMA-7B-Ja-V2-GPTQ-Ja-Enは日本語から英語、英語から日本語への機械翻訳を行うモデルです。
|
10 |
ALMA-7B-Ja-V2-GPTQ-Ja-En is a machine translation model that uses ALMA's learning method to translate Japanese to English.
|
11 |
|
12 |
+
多少の性能を犠牲にして元のモデルをのサイズを小さくし、実行速度を早くし、使いやすくした版です。
|
13 |
+
This is a version of the original model that is smaller in size, faster to run, and easier to use, at the cost of some performance.
|
14 |
+
|
15 |
## サンプルコード
|
16 |
|
17 |
Googleアカウントをお持ちの方は以下のColabを使用して動かす事が出来ます。
|
|
|
30 |
It's mean your memory is not enough. decrease your num_beams or token size.
|
31 |
これはメモリ不足を意味します。num_beamsかtoken sizeを減らしてください。
|
32 |
|
33 |
+
|
34 |
## その他の版 Other Version
|
35 |
|
36 |
- None quantized model [ALMA-7B-Ja-V2](https://huggingface.co/webbigdata/ALMA-7B-Ja-V2).
|
|
|
51 |
archivePrefix={arXiv},
|
52 |
primaryClass={cs.CL}
|
53 |
}
|
54 |
+
```
|
55 |
+
|
56 |
+
量子化設定 gptq 4bit/128G
|
57 |
+
Quantization settings gptq 4bit/128G
|