NOKUBI Takatsugu
commited on
Commit
•
f9faa84
1
Parent(s):
8f3deff
about tokenizer
Browse files
README.md
CHANGED
@@ -31,6 +31,10 @@ Wikipediaをコーパスとし、perplexity 40 程度となります。
|
|
31 |
rinna/japanese-gpt2-meduim を直接使った場合、27 程度なので、そこまで及びません。
|
32 |
何度か複数のパラメータで訓練の再開を試みたものの、かえって損失が上昇してしまう状態となってしまったので、現状のものを公開しています。
|
33 |
|
|
|
|
|
|
|
|
|
34 |
# Japanese GPT-2 model
|
35 |
|
36 |
This model is a dillated model from [rinna/japanese-gpt2-medium](https://huggingface.co/rinna/japanese-gpt2-medium).
|
@@ -48,6 +52,10 @@ Using a2-highgpu-4 instance (A100 x4), it takes about 4 months with some stoppin
|
|
48 |
The model gets about 40 perplexity with Wikipedia corpus.
|
49 |
The teacher model rinna/japanese-gpt2-meduim gets about 27 perplexity, so the student model is worse.
|
50 |
|
|
|
|
|
|
|
|
|
51 |
# LICENSE
|
52 |
|
53 |
MIT (same as rinna/japanese-gpt2-medium)
|
|
|
31 |
rinna/japanese-gpt2-meduim を直接使った場合、27 程度なので、そこまで及びません。
|
32 |
何度か複数のパラメータで訓練の再開を試みたものの、かえって損失が上昇してしまう状態となってしまったので、現状のものを公開しています。
|
33 |
|
34 |
+
## トークナイザについて
|
35 |
+
|
36 |
+
トークナイザは rinna/japanese-gpt2-meduim を使ってください。
|
37 |
+
|
38 |
# Japanese GPT-2 model
|
39 |
|
40 |
This model is a dillated model from [rinna/japanese-gpt2-medium](https://huggingface.co/rinna/japanese-gpt2-medium).
|
|
|
52 |
The model gets about 40 perplexity with Wikipedia corpus.
|
53 |
The teacher model rinna/japanese-gpt2-meduim gets about 27 perplexity, so the student model is worse.
|
54 |
|
55 |
+
## tokenizer
|
56 |
+
|
57 |
+
The repository don't have tokenizer, so you shoud use rinna/japanese-gpt2-medium.
|
58 |
+
|
59 |
# LICENSE
|
60 |
|
61 |
MIT (same as rinna/japanese-gpt2-medium)
|