electricidad-small-discriminator-finetuned-clasificacion-comentarios-suicidas

El presente modelo se encentra basado en una versión mejorada de mrm8488/electricidad-small-discriminator, y con el uso de la base de datos hackathon-pln-es/comentarios_depresivos. Siendo de esta manera los resultados obtenidos en la evaluación del modelo:

  • Pérdida 0.0458
  • Precisión: 0.9916

Autores

  • Danny Vásquez
  • César Salazar
  • Alexis Cañar
  • Yannela Castro
  • Daniel Patiño

Descripción del Modelo

electricidad-small-discriminator-finetuned-clasificacion-comentarios-suicidas es un modelo Transformers pre-entrenado bajo un largo corpus de comentarios obtenidos de REDDIT traducidos al español, con el fin de poder predecir si un comentario tiene una tendencia suicida en base al contexto. Por ende, recibirá una ENTRADA en la cuál se ingresará el texto a comprobar, para posteriormente obtener como única SALIDA de igual manera dos posibles opciones: “Suicida” o “No Suicida”.

Motivación

Siendo la principal inspiración del modelo que sea utilizado para futuros proyectos que busquen detectar los casos de depresión a tiempo mediante el procesamiento del lenguaje natural, para poder prevenir los casos de suicido en niños, jóvenes y adultos.

¿Cómo usarlo?

El modelo puede ser utilizado de manera directa mediante la importación de la librería pipeline de transformers:

>>> from transformers import pipeline
>>> model_name= 'hackathon-pln-es/electricidad-small-discriminator-finetuned-clasificacion-comentarios-suicidas'
>>> cls= pipeline("text-classification", model=model_name)
>>> cls(“Estoy feliz”)[0]['label']
[{'resultado': "No Suicida"
}]
>>> cls(“Quiero acabar con todo”)[0]['label']
[{'resultado': " Suicida"
}]

Proceso de entrenamiento

Datos de entrenamiento

Como se declaró anteriormente, el modelo se pre-entrenó basándose en la base de datos comentarios_depresivos, el cuál posee una cantidad de 192 347 filas de datos para el entrenamiento, 33 944 para las pruebas y 22630 para la validación.

Hiper parámetros de entrenamiento

  • learning_rate: 2e-05
  • train_batch_size: 32
  • eval_batch_size: 32
  • lr_scheduler_type: linear
  • num_epochs: 15

Resultados del entrenamiento

Pérdida_entrenamiento Epoch Pérdida_Validación Presición
0.161100 1.0 0.133057 0.952718
0.134500 2.0 0.110966 0.960804
0.108500 3.0 0.086417 0.970835
0.099400 4.0 0.073618 0.974856
0.090500 5.0 0.065231 0.979629
0.080700 6.0 0.060849 0.982324
0.069200 7.0 0.054718 0.986125
0.060400 8.0 0.051153 0.985948
0.048200 9.0 0.045747 0.989748
0.045500 10.0 0.049992 0.988069
0.043400 11.0 0.046325 0.990234
0.034300 12.0 0.050746 0.989792
0.032900 13.0 0.043434 0.991737
0.028400 14.0 0.045003 0.991869
0.022300 15.0 0.045819 0.991648

Versiones del Framework

  • Transformers 4.17.0
  • Pytorch 1.10.0+cu111
  • Datasets 2.0.0
  • Tokenizers 0.11.6

Citación BibTeX

@article{ccs_2022,
  author    = {Danny Vásquez and
               César Salazar and
               Alexis Cañar and
               Yannela Castro and
Daniel Patiño},
  title     = {Modelo Electricidad-small-discriminator-finetuned-clasificacion-comentarios-suicidas},
  journal   = {Huggingface},
  year      = {2022},
}

Visualizar en GRADIO:


Downloads last month
244
Safetensors
Model size
13.6M params
Tensor type
I64
·
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Collection including somosnlp-hackathon-2022/electricidad-small-discriminator-finetuned-clasificacion-comentarios-suicidas