Mizuiro-sakura
commited on
Commit
•
54f1751
1
Parent(s):
65d1242
Update README.md
Browse files
README.md
CHANGED
@@ -28,7 +28,7 @@ You could use this model for NER tasks.
|
|
28 |
|
29 |
# How to use 使い方
|
30 |
transformersおよびpytorch、sentencepiece、Juman++をインストールしてください。
|
31 |
-
|
32 |
```python
|
33 |
from transformers import AutoTokenizer,pipeline, AutoModelForTokenClassification
|
34 |
tokenizer = AutoTokenizer.from_pretrained('Mizuiro-sakura/deberta-v2-base-japanese-finetuned-ner')
|
@@ -45,7 +45,7 @@ print(result)
|
|
45 |
precision recall f1-score support
|
46 |
|
47 |
その他の組織名 0.73 0.75 0.74 238
|
48 |
-
|
49 |
人名 0.84 0.87 0.85 547
|
50 |
地名 0.83 0.83 0.83 446
|
51 |
政治的組織名 0.82 0.85 0.83 263
|
@@ -66,5 +66,6 @@ This is a Japanese DeBERTa V2 base model pre-trained on Japanese Wikipedia, the
|
|
66 |
|
67 |
# Acknowledgments 謝辞
|
68 |
モデルを公開してくださった京都大学黒橋研究室には感謝いたします。
|
|
|
69 |
I would like to thank Kurohashi Lab at Kyoto University.
|
70 |
|
|
|
28 |
|
29 |
# How to use 使い方
|
30 |
transformersおよびpytorch、sentencepiece、Juman++をインストールしてください。
|
31 |
+
以下のコードを実行することで、固有表現抽出タスクを解かせることができます。 please execute this code.
|
32 |
```python
|
33 |
from transformers import AutoTokenizer,pipeline, AutoModelForTokenClassification
|
34 |
tokenizer = AutoTokenizer.from_pretrained('Mizuiro-sakura/deberta-v2-base-japanese-finetuned-ner')
|
|
|
45 |
precision recall f1-score support
|
46 |
|
47 |
その他の組織名 0.73 0.75 0.74 238
|
48 |
+
イベント名 0.81 0.81 0.81 215
|
49 |
人名 0.84 0.87 0.85 547
|
50 |
地名 0.83 0.83 0.83 446
|
51 |
政治的組織名 0.82 0.85 0.83 263
|
|
|
66 |
|
67 |
# Acknowledgments 謝辞
|
68 |
モデルを公開してくださった京都大学黒橋研究室には感謝いたします。
|
69 |
+
|
70 |
I would like to thank Kurohashi Lab at Kyoto University.
|
71 |
|