Edit model card

LOS-MUCHACHOS

Este es modelo resultado de un finetuning de FacebookAI/xlm-roberta-large-finetuned-conll03-english sobre el conll2002 dataset. Los siguientes son los resultados sobre el conjunto de evaluación:

  • Loss: 0.17227034270763397
  • Precision: 0.8140103176758078
  • Recall: 0.8423714526552403
  • F1: 0.8279480806407071
  • Accuracy: 0.9781214374225526

Model Description

Este modelo ha sido desarrollado para identificar y clasificar entidades nombradas (personas, ubicaciones, organizaciones, etc.) en texto en español. Se basa en la arquitectura [nombre del modelo base, por ejemplo, BERT, RoBERTa, etc.] y ha sido ajustado (fine-tuned) utilizando el conjunto de datos CoNLL-2002.

  • Developed by: Aragangs.DEv
  • Under the tutelage of: Raul de Piñeres
  • Model type: []
  • Language(s) (NLP): Español (es)
  • License: Apache 2.0
  • Finetuned from model [optional]: Modelo AranicoB

Bias, Risks, and Limitations

El modelo puede tener sesgos inherentes en los datos de entrenamiento. Podría no reconocer entidades de manera precisa en dialectos o variaciones regionales del español. Los usuarios deben ser conscientes de estas limitaciones y evaluar los resultados críticamente.

Recommendations

Los usuarios deben revisar los resultados para posibles sesgos y errores, especialmente cuando se utiliza en contextos críticos. Se recomienda un ajuste adicional con datos específicos del dominio para mejorar el rendimiento.

Training hyperparameters

The following hyperparameters were used during training:

  • eval_strategy="epoch",
  • save_strategy="epoch",
  • learning_rate=2e-5, # (Aprendizaje se esta cambiando)
  • per_device_train_batch_size=4,
  • per_device_eval_batch_size=8,
  • num_train_epochs=5,
  • weight_decay=0.1,
  • max_grad_norm=1.0,
  • adam_epsilon=1e-8,
  • #fp16=True,
  • save_total_limit=2,
  • load_best_model_at_end=True,
  • push_to_hub=True,
  • metric_for_best_model="f1",
  • seed=42,

Training results

Metric Value
eval_loss 0.17227034270763397
eval_precision 0.8140103176758078
eval_recall 0.8423714526552403
eval_f1 0.8279480806407071
eval_accuracy 0.9781214374225526
eval_runtime 7.6283
eval_samples_per_second 198.995
eval_steps_per_second 24.907
epoch 5.0
Label Precision Recall F1 Number
LOC 0.8303085299455535 0.8440959409594095 0.8371454711802379 1084
MISC 0.5976331360946746 0.5941176470588235 0.5958702064896756 340
ORG 0.7989276139410187 0.8514285714285714 0.8243430152143845 1400
PER 0.9174434087882823 0.9374149659863945 0.9273216689098251 735
Downloads last month
168
Safetensors
Model size
108M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Dataset used to train KPOETA/Bert-Los-Muchachos