NOKUBI Takatsugu commited on
Commit
f9faa84
1 Parent(s): 8f3deff

about tokenizer

Browse files
Files changed (1) hide show
  1. README.md +8 -0
README.md CHANGED
@@ -31,6 +31,10 @@ Wikipediaをコーパスとし、perplexity 40 程度となります。
31
  rinna/japanese-gpt2-meduim を直接使った場合、27 程度なので、そこまで及びません。
32
  何度か複数のパラメータで訓練の再開を試みたものの、かえって損失が上昇してしまう状態となってしまったので、現状のものを公開しています。
33
 
 
 
 
 
34
  # Japanese GPT-2 model
35
 
36
  This model is a dillated model from [rinna/japanese-gpt2-medium](https://huggingface.co/rinna/japanese-gpt2-medium).
@@ -48,6 +52,10 @@ Using a2-highgpu-4 instance (A100 x4), it takes about 4 months with some stoppin
48
  The model gets about 40 perplexity with Wikipedia corpus.
49
  The teacher model rinna/japanese-gpt2-meduim gets about 27 perplexity, so the student model is worse.
50
 
 
 
 
 
51
  # LICENSE
52
 
53
  MIT (same as rinna/japanese-gpt2-medium)
 
31
  rinna/japanese-gpt2-meduim を直接使った場合、27 程度なので、そこまで及びません。
32
  何度か複数のパラメータで訓練の再開を試みたものの、かえって損失が上昇してしまう状態となってしまったので、現状のものを公開しています。
33
 
34
+ ## トークナイザについて
35
+
36
+ トークナイザは rinna/japanese-gpt2-meduim を使ってください。
37
+
38
  # Japanese GPT-2 model
39
 
40
  This model is a dillated model from [rinna/japanese-gpt2-medium](https://huggingface.co/rinna/japanese-gpt2-medium).
 
52
  The model gets about 40 perplexity with Wikipedia corpus.
53
  The teacher model rinna/japanese-gpt2-meduim gets about 27 perplexity, so the student model is worse.
54
 
55
+ ## tokenizer
56
+
57
+ The repository don't have tokenizer, so you shoud use rinna/japanese-gpt2-medium.
58
+
59
  # LICENSE
60
 
61
  MIT (same as rinna/japanese-gpt2-medium)