File size: 2,064 Bytes
00e66aa 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a 350ddfd 9891f4a |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 |
# Bio_ClinicalBERT-finetuned-medicalcondition
Este modelo é uma versão ajustada finamente do [emilyalsentzer/Bio_ClinicalBERT](https://huggingface.co/emilyalsentzer/Bio_ClinicalBERT) no conjunto de dados None. Ele alcança os seguintes resultados no conjunto de avaliação:
- Perda: 0.7201
- Pontuação F1: 0.8254
## Descrição do Modelo
Mais informações são necessárias.
## Usos Pretendidos e Limitações
Mais informações são necessárias.
## Dados de Treinamento e Avaliação
Mais informações são necessárias.
## Procedimento de Treinamento
### Hiperparâmetros de Treinamento
Os seguintes hiperparâmetros foram usados durante o treinamento:
- Taxa de Aprendizado: 2e-05
- Tamanho do Lote de Treinamento: 64
- Tamanho do Lote de Avaliação: 64
- Semente: 42
- Otimizador: Adam com betas=(0.9,0.999) e epsilon=1e-08
- Tipo de Agendador de Taxa de Aprendizado: linear
- Número de Épocas: 10
- Treinamento de Precisão Mista: AMP Nativo
### Resultados do Treinamento
| Perda de Treinamento | Época | Passo | Perda de Validação | Pontuação F1 |
|:---------------------:|:-----:|:------:|:------------------:|:------------:|
| 0.8002 | 1.0 | 1772 | 0.6327 | 0.7759 |
| 0.5933 | 2.0 | 3544 | 0.5906 | 0.7934 |
| 0.5015 | 3.0 | 5316 | 0.5768 | 0.8033 |
| 0.4265 | 4.0 | 7088 | 0.5792 | 0.8099 |
| 0.3698 | 5.0 | 8860 | 0.6030 | 0.8109 |
| 0.3229 | 6.0 | 10632 | 0.6366 | 0.8167 |
| 0.2907 | 7.0 | 12404 | 0.6671 | 0.8198 |
| 0.2649 | 8.0 | 14176 | 0.6850 | 0.8237 |
| 0.2477 | 9.0 | 15948 | 0.7072 | 0.8247 |
| 0.2348 | 10.0 | 17720 | 0.7201 | 0.8254 |
### Versões do Framework
- Transformers 4.25.1
- Pytorch 1.13.1+cu116
- Datasets 2.8.0
- Tokenizers 0.13.2 |