ysakuramoto commited on
Commit
81efab8
1 Parent(s): b90ef8e

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -0
README.md CHANGED
@@ -33,6 +33,8 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
33
  |学習時間(s)|585.0|399.7|-|
34
  |推論時間(s)|259.0|108.7|70.5|
35
  |精度|86.4%|85.5%|86.4%|
 
 
36
  - 条件
37
  - ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
38
  - 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
@@ -48,6 +50,8 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
48
  |学習時間(s)|428.0|294.0|-|
49
  |推論時間(s)|163.5|78.4|40.9|
50
  |精度|86.4%|82.5%|83.3%|
 
 
51
  - 条件
52
  - ストックマーク社さんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
53
  - 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
 
33
  |学習時間(s)|585.0|399.7|-|
34
  |推論時間(s)|259.0|108.7|70.5|
35
  |精度|86.4%|85.5%|86.4%|
36
+ |モデルファイルサイズ(MB)|440.2|-|41.8|
37
+
38
  - 条件
39
  - ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
40
  - 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
 
50
  |学習時間(s)|428.0|294.0|-|
51
  |推論時間(s)|163.5|78.4|40.9|
52
  |精度|86.4%|82.5%|83.3%|
53
+ |モデルファイルサイズ(MB)|440.2|-|41.8|
54
+
55
  - 条件
56
  - ストックマーク社さんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
57
  - 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。