koelectra-finetuned-ner
This model is a fine-tuned version of Leo97/KoELECTRA-small-v3-modu-ner on the None dataset. It achieves the following results on the evaluation set:
- Loss: 0.0165
- Precision: 1.0
- Recall: 1.0
- F1: 1.0
- Accuracy: 1.0
Model description
한국정보통신기술협회(TTA) 대분류 기준을 따르는 15 가지의 태그셋
분류 | 표기 | 정의 |
---|---|---|
ARTIFACTS | AF | 사람에 의해 창조된 인공물로 문화재, 건물, 악기, 도로, 무기, 운송수단, 작품명, 공산품명이 모두 이에 해당 |
ANIMAL | AM | 사람을 제외한 짐승 |
CIVILIZATION | CV | 문명/문화 |
DATE | DT | 기간 및 계절, 시기/시대 |
EVENT | EV | 특정 사건/사고/행사 명칭 |
STUDY_FIELD | FD | 학문 분야, 학파 및 유파 |
LOCATION | LC | 지역/장소와 지형/지리 명칭 등을 모두 포함 |
MATERIAL | MT | 원소 및 금속, 암석/보석, 화학물질 |
ORGANIZATION | OG | 기관 및 단체 명칭 |
PERSON | PS | 인명 및 인물의 별칭 (유사 인물 명칭 포함) |
PLANT | PT | 꽃/나무, 육지식물, 해초류, 버섯류, 이끼류 |
QUANTITY | QT | 수량/분량, 순서/순차, 수사로 이루어진 표현 |
TIME | TI | 시계상으로 나타나는 시/시각, 시간 범위 |
TERM | TM | 타 개체명에서 정의된 세부 개체명 이외의 개체명 |
THEORY | TR | 특정 이론, 법칙 원리 등 |
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 3
Training results
Training Loss | Epoch | Step | Validation Loss | Precision | Recall | F1 | Accuracy |
---|---|---|---|---|---|---|---|
No log | 1.0 | 34 | 0.0945 | 0.7547 | 0.8 | 0.7767 | 0.9734 |
No log | 2.0 | 68 | 0.0210 | 1.0 | 1.0 | 1.0 | 1.0 |
No log | 3.0 | 102 | 0.0165 | 1.0 | 1.0 | 1.0 | 1.0 |
Framework versions
- Transformers 4.34.0
- Pytorch 2.0.1+cu118
- Datasets 2.14.5
- Tokenizers 0.14.1
- Downloads last month
- 161
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for yeye776/koelectra-finetuned-ner
Base model
Leo97/KoELECTRA-small-v3-modu-ner