japanese-distilgpt2 / README.md
NOKUBI Takatsugu
about tokenizer
f9faa84
|
raw
history blame
2.47 kB
metadata
language: ja
tags:
  - ja
  - japanese
  - gpt2
  - text-generation
  - lm
  - nlp
license: mit
datasets:
  - wikipedia
  - cc100

日本語 gpt2 蒸留モデル

このモデルはrinna/japanese-gpt2-meduimを教師として蒸留したものです。 蒸留には、HuggigFace Transformersのコードをベースとし、りんなの訓練コードと組み合わせてデータ扱うよう改造したものを使っています。

訓練用コード: https://github.com/knok/japanese-pretrained-models

学習に関して

学習に当たり、Google Startup Programにて提供されたクレジットを用いました。 a2-highgpu-4インスタンス(A100 x 4)を使って4か月程度、何度かのresumeを挟んで訓練させました。

精度について

Wikipediaをコーパスとし、perplexity 40 程度となります。 rinna/japanese-gpt2-meduim を直接使った場合、27 程度なので、そこまで及びません。 何度か複数のパラメータで訓練の再開を試みたものの、かえって損失が上昇してしまう状態となってしまったので、現状のものを公開しています。

トークナイザについて

トークナイザは rinna/japanese-gpt2-meduim を使ってください。

Japanese GPT-2 model

This model is a dillated model from rinna/japanese-gpt2-medium. To train, I combined HuggingFace Transformers code and rinna gpt2 train code.

The code is available at: https://github.com/knok/japanese-pretrained-models

training environment

To train, I used GCP credit offered by Google Startup Progam. Using a2-highgpu-4 instance (A100 x4), it takes about 4 months with some stopping and resume training.

perplexity

The model gets about 40 perplexity with Wikipedia corpus. The teacher model rinna/japanese-gpt2-meduim gets about 27 perplexity, so the student model is worse.

tokenizer

The repository don't have tokenizer, so you shoud use rinna/japanese-gpt2-medium.

LICENSE

MIT (same as rinna/japanese-gpt2-medium)