model_gam_1809_viner2

This model was trained from scratch on the None dataset. It achieves the following results on the evaluation set:

  • eval_loss: 0.6808
  • eval_hiều cao khách hàng: {'precision': 0.9117647058823529, 'recall': 0.9393939393939394, 'f1': 0.9253731343283583, 'number': 33}
  • eval_hiều dài sản phẩm: {'precision': 0.7272727272727273, 'recall': 0.4444444444444444, 'f1': 0.5517241379310345, 'number': 18}
  • eval_hiều rộng sản phẩm: {'precision': 0.3157894736842105, 'recall': 0.6666666666666666, 'f1': 0.42857142857142855, 'number': 9}
  • eval_hong cách mua sắm: {'precision': 0.5925925925925926, 'recall': 0.7619047619047619, 'f1': 0.6666666666666666, 'number': 21}
  • eval_hong cách nhà cửa: {'precision': 0.7222222222222222, 'recall': 0.6190476190476191, 'f1': 0.6666666666666666, 'number': 21}
  • eval_hong cách thời trang: {'precision': 0.5416666666666666, 'recall': 0.7647058823529411, 'f1': 0.6341463414634146, 'number': 17}
  • eval_hất tóc: {'precision': 0.6896551724137931, 'recall': 0.7692307692307693, 'f1': 0.7272727272727274, 'number': 26}
  • eval_hối lượng sản phẩm: {'precision': 0.7894736842105263, 'recall': 0.8333333333333334, 'f1': 0.8108108108108109, 'number': 18}
  • eval_hời gian nhận hàng: {'precision': 0.6571428571428571, 'recall': 0.7931034482758621, 'f1': 0.71875, 'number': 29}
  • eval_iá sản phẩm: {'precision': 0.7777777777777778, 'recall': 0.8484848484848485, 'f1': 0.8115942028985507, 'number': 33}
  • eval_oại da: {'precision': 0.7586206896551724, 'recall': 0.9166666666666666, 'f1': 0.830188679245283, 'number': 24}
  • eval_ung hoàng đạo: {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 18}
  • eval_ung mệnh: {'precision': 0.9130434782608695, 'recall': 0.9130434782608695, 'f1': 0.9130434782608695, 'number': 23}
  • eval_àu da: {'precision': 0.7352941176470589, 'recall': 0.6756756756756757, 'f1': 0.7042253521126761, 'number': 37}
  • eval_àu sắc sản phẩm: {'precision': 0.782608695652174, 'recall': 0.7659574468085106, 'f1': 0.7741935483870968, 'number': 47}
  • eval_áng khuôn mặt: {'precision': 0.8095238095238095, 'recall': 0.85, 'f1': 0.8292682926829269, 'number': 20}
  • eval_áng người: {'precision': 0.9411764705882353, 'recall': 0.8888888888888888, 'f1': 0.9142857142857143, 'number': 18}
  • eval_ân nặng khách hàng: {'precision': 0.8888888888888888, 'recall': 0.9523809523809523, 'f1': 0.9195402298850575, 'number': 42}
  • eval_ã sản phẩm: {'precision': 0.6666666666666666, 'recall': 0.7692307692307693, 'f1': 0.7142857142857142, 'number': 26}
  • eval_ơn vị sản phẩm: {'precision': 0.726027397260274, 'recall': 0.6883116883116883, 'f1': 0.7066666666666667, 'number': 77}
  • eval_ản phẩm: {'precision': 0.8305921052631579, 'recall': 0.8790252393385553, 'f1': 0.854122621564482, 'number': 1149}
  • eval_ật độ tóc: {'precision': 0.8636363636363636, 'recall': 0.8260869565217391, 'f1': 0.8444444444444444, 'number': 23}
  • eval_ặc điểm khác của da: {'precision': 0.8571428571428571, 'recall': 0.8780487804878049, 'f1': 0.8674698795180722, 'number': 41}
  • eval_ịa chỉ nhận hàng: {'precision': 0.6285714285714286, 'recall': 0.7857142857142857, 'f1': 0.6984126984126985, 'number': 28}
  • eval_ố lượng sản phẩm: {'precision': 0.7642857142857142, 'recall': 0.7482517482517482, 'f1': 0.7561837455830388, 'number': 143}
  • eval_ố điện thoại nhận hàng: {'precision': 0.8994413407821229, 'recall': 1.0, 'f1': 0.9470588235294117, 'number': 161}
  • eval_ố đo vòng: {'precision': 0.952, 'recall': 0.9444444444444444, 'f1': 0.9482071713147411, 'number': 126}
  • eval_ộ dài tóc: {'precision': 0.8, 'recall': 0.8, 'f1': 0.8000000000000002, 'number': 20}
  • eval_ộ tuổi khách hàng: {'precision': 0.8888888888888888, 'recall': 0.8888888888888888, 'f1': 0.8888888888888888, 'number': 18}
  • eval_overall_precision: 0.8164
  • eval_overall_recall: 0.8592
  • eval_overall_f1: 0.8372
  • eval_overall_accuracy: 0.9167
  • eval_runtime: 3.2923
  • eval_samples_per_second: 196.821
  • eval_steps_per_second: 49.205
  • epoch: 8.0
  • step: 7960

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 2.5e-05
  • train_batch_size: 4
  • eval_batch_size: 4
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 10

Framework versions

  • Transformers 4.44.2
  • Pytorch 2.4.0+cu121
  • Datasets 3.0.0
  • Tokenizers 0.19.1
Downloads last month
3
Safetensors
Model size
559M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.