--- license: cc-by-nc-4.0 base_model: KT-AI/midm-bitext-S-7B-inst-v1 tags: - generated_from_trainer model-index: - name: lora-midm-7b-food-order-understanding results: [] --- # 실험내용과 테스트 데이터에 대한 분류 결과 리포트 주문 문장에 의해 학습된 midm을 nsmc (영화 리뷰 데이터셋) train dataset 3000개로 학습을 시켰다. 처음에는 2000개를 학습시켰으나 정확도가 예상한 것 만큼 나오지 않아 1000개를 더 학습시켰더니 약 2%의 정확도가 올라갔다. 그리고 1000개의 test dataset으로 테스트를 해보았다. 정확도는 89.30 % 가 나왔으며 표는 밑 사진으로 확인할 수 있다. 이 실험은 다른 데이터 셋과 다른 요구로 학습되어있던 LLM을 새 데이터 셋과 새 요구로 미세튜닝 하였을 때 정확도가 얼만큼 나오는지를 보여주는 것이다. # 표 ![image/jpeg](https://cdn-uploads.huggingface.co/production/uploads/6523d751ab14165941297c07/NQ2fLxz5VL94yBCVjvL9G.jpeg) # lora-midm-7b-food-order-understanding This model is a fine-tuned version of [KT-AI/midm-bitext-S-7B-inst-v1](https://huggingface.co/KT-AI/midm-bitext-S-7B-inst-v1) on an unknown dataset. ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 1 - eval_batch_size: 1 - seed: 42 - gradient_accumulation_steps: 2 - total_train_batch_size: 2 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: cosine - lr_scheduler_warmup_ratio: 0.03 - training_steps: 300 - mixed_precision_training: Native AMP ### Training results ### Framework versions - Transformers 4.35.2 - Pytorch 2.1.0+cu118 - Datasets 2.15.0 - Tokenizers 0.15.0