Edit model card

opus_model

This model is a fine-tuned version of Helsinki-NLP/opus-mt-ja-pl on custom dataset. It achieves the following results on the evaluation set (Tatoeba_MT):

  • Loss: 2.2837
  • Bleu: 18.4
  • Gen Len: 18.6414
  • Meteor: 0.398
  • chr-F: 39.72

Model description

Helsinki-NLP/opus-mt-ja-pl model fine-tuned on some pop culture texts (vn, manga, rpgs).

Intended uses & limitations

More information needed

Training and evaluation data

Training with kaggle notebook (GPU) on GPU-T4.

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 2e-05
  • train_batch_size: 16
  • eval_batch_size: 16
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 5
  • mixed_precision_training: Native AMP

Examples

Japanese Original translation DeepL Opus-mt-ja-pl-pop
今ちょっとやることがあってね Mam teraz coś do zrobienia. Mam teraz kilka rzeczy do zrobienia. Mam teraz kilka spraw do załatwienia.
なぜッあの少女を助けてやらなかったのだ! Czemu jej nie pomogłeś! Dlaczego nie pomogłeś tej dziewczynie? Czemu jej nie pomogłeś?!
ここで何をしている? Czego tu szukacie? Co ty tu robisz? Co tu robisz?
あんたの協力が要る Potrzebujemy cię. Potrzebuję twojej pomocy. Potrzebuję twojej pomocy.
こたえはなに? A jaka jest właściwie odpowiedź? Jaka jest odpowiedź? Co to za odpowiedź?

Training results

Training Loss Epoch Step Validation Loss
2.5484 1.0 25898 2.4672
2.3038 2.0 51796 2.3692
2.1828 3.0 77694 2.3193
2.0729 4.0 103592 2.2925
2.0035 5.0 129490 2.2837

Framework versions

  • Transformers 4.42.3
  • Pytorch 2.1.2
  • Datasets 2.20.0
  • Tokenizers 0.19.1
Downloads last month
41
Safetensors
Model size
77.5M params
Tensor type
F32
·
Inference API
This model can be loaded on Inference API (serverless).

Finetuned from