ysakuramoto commited on
Commit
a1f3fdb
1 Parent(s): 95bc47d

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -4
README.md CHANGED
@@ -35,10 +35,10 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
35
  |精度|86.4%|85.5%|86.4%|
36
  - 条件
37
  - ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
38
- - 比較対象のBERTモデルに"cl-tohoku/bert-base-japanese-whole-word-masking"を利用。
39
  - 推論データ n=1,474。精度はAccuracy
40
  - 学習パラメータ: エポック数=10, lr=1e-4
41
- - 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
42
  - Google Colabにて、学習にGPU、推論にCPUを利用。バッチ処理でなく1件ずつ推論。
43
  - それぞれ、学習~推論を3回実施した平均値。
44
 
@@ -50,10 +50,10 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
50
  |精度|86.4%|82.5%|83.3%|
51
  - 条件
52
  - ストックマーク社さんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
53
- - 比較対象のBERTモデルに"cl-tohoku/bert-base-japanese-whole-word-masking"を利用。
54
  - 推論データ n=2,140。精度は完全一致のf-measure
55
  - 学習パラメータ: エポック数=10, lr=1e-4
56
- - 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
57
  - Google Colabにて、学習にGPU、推論にCPUを利用。バッチ処理でなく1件ずつ推論。
58
  - それぞれ、学習~推論を3回実施した平均値。
59
 
 
35
  |精度|86.4%|85.5%|86.4%|
36
  - 条件
37
  - ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
38
+ - 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"
39
  - 推論データ n=1,474。精度はAccuracy
40
  - 学習パラメータ: エポック数=10, lr=1e-4
41
+ - 推論時の高速化として、枝刈り(-20%)・量子化・jitコンパイルを実施。
42
  - Google Colabにて、学習にGPU、推論にCPUを利用。バッチ処理でなく1件ずつ推論。
43
  - それぞれ、学習~推論を3回実施した平均値。
44
 
 
50
  |精度|86.4%|82.5%|83.3%|
51
  - 条件
52
  - ストックマーク社さんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
53
+ - 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"
54
  - 推論データ n=2,140。精度は完全一致のf-measure
55
  - 学習パラメータ: エポック数=10, lr=1e-4
56
+ - 推論時の高速化として、枝刈り(-20%)・量子化・jitコンパイルを実施。
57
  - Google Colabにて、学習にGPU、推論にCPUを利用。バッチ処理でなく1件ずつ推論。
58
  - それぞれ、学習~推論を3回実施した平均値。
59