Edit model card

Descripci贸n do modelo

Modelo de (~) 67M de par谩metros, adestrado e afinado desde cero, usando un dataset en galego de 305MB obtido da wikipedia en galego.

No contexto da Resoluci贸n do 22 de decembro de 2021 da Secretar铆a Xeral de Educaci贸n e Formaci贸n Profesional pola que se convocan premios para o desenvolvemento de proxectos de innovaci贸n tecnol贸xica ou cient铆fica e proxectos de innovaci贸n did谩ctica no 谩mbito da formaci贸n profesional en centros p煤blicos dependentes da Conseller铆a de Cultura, Educaci贸n e Universidade, baixo o nome de "Creaci贸n dun modelo de linguaxe adestrado previamente mediante t茅cnicas de autoatenci贸n para explorar arquitecturas que permitan o seu uso en soluci贸ns de procesamento da linguaxe natural en galego tanto na docencia como na contorna empresarial"

Usos e limitaci贸ns

Este modelo foi creado con fins pedag贸xicos e de investigaci贸n.

Hyperparametros de entrenamento

  • learning_rate: 1e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • gradient_accumulation_steps: 32
  • total_train_batch_size: 256
  • optimizer: Adam with betas=(0.08113086280077723,0.8857246592117177) and epsilon=5.264065162059701e-07
  • lr_scheduler_type: linear
  • num_epochs: 15

Resultados

  • Loss: 1.6262

Versi贸ns

  • Transformers 4.24.0
  • Pytorch 1.13.1
  • Datasets 2.6.1
  • Tokenizers 0.11.0
Downloads last month
18
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.