---
language:
- ko
- en
library_name: transformers
license: cc-by-nc-sa-4.0
pipeline_tag: text-generation
tags:
- pytorch
---
## Model Description
K-S 고객사 프로젝트 시 생성한 RAG 데이터셋을 활용하여 Supervised Fine-Tuning(a.k.a SFT) 학습한 모델입니다. 학습 데이터셋은 보안에 의해 공개하지 않습니다.
## About the Model
- **Name:** TwinDoc/RedWhale-tv-10.8B-sft-k
- **Finetuned from model:** [TwinDoc/RedWhale-tv-10.8B-v1.0](https://huggingface.co/TwinDoc/RedWhale-tv-10.8B-v1.0)
- **Train Datasets:** private
- **Developed by:** 애자일소다 (AGILESODA)
- **Model type:** llama
- **Language(s) (NLP):** 한국어
- **License:** cc-by-nc-sa-4.0
- **train setting**
- Lora r, alpha : 32, 32
- Dtype : bf16
- Epoch : 5
- Learning rate : 1e-5
- Global batch : 1
- Context length : 4096
- **inference setting**
- BOS id : 1
- EOS id : 2
- Top-p : 0.95
- Temperature : 0.01
## prompt template
```
### User: 당신은 인공지능 비서입니다. 사용자가 여러분에게 과제를 줍니다. 당신의 목표는 가능한 한 충실하게 작업을 완료하는 것입니다. 작업을 수행하는 동안 단계별로 생각하고 단계를 정당화하세요. User의 질문이 주어지면 고품질의 답변을 만들어주세요.
원문: {CONTEXT}
질문: 원문을 참고하여 답변하세요. {QUESTION}
### Assistant: {ANSWER}
```
## License
The content of this project, created by AGILESODA, is licensed under the [Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)](https://creativecommons.org/licenses/by-nc-sa/4.0/).
## Citation
```
@misc{vo2024redwhaleadaptedkoreanllm,
title={RedWhale: An Adapted Korean LLM Through Efficient Continual Pretraining},
author={Anh-Dung Vo and Minseong Jung and Wonbeen Lee and Daewoo Choi},
year={2024},
eprint={2408.11294},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2408.11294},
}
```
**Built with:**