---
language:
- ko
- en
library_name: transformers
license: cc-by-nc-sa-4.0
pipeline_tag: text-generation
tags:
- pytorch
---
## Model Description
S-B 고객사 프로젝트 시 생성한 RAG 데이터셋을 활용하여 Supervised Fine-Tuning(a.k.a SFT) 학습한 모델입니다. 학습 데이터셋은 보안에 의해 공개하지 않습니다.
## About the Model
- **Name:** TwinDoc/RedWhale-tv-10.8B-sft-s
- **Finetuned from model:** [TwinDoc/RedWhale-tv-10.8B-v1.0](https://huggingface.co/TwinDoc/RedWhale-tv-10.8B-v1.0)
- **Train Datasets:** private
- **Developed by:** 애자일소다 (AGILESODA)
- **Model type:** llama
- **Language(s) (NLP):** 한국어
- **License:** cc-by-nc-sa-4.0
- **train setting**
- Lora r, alpha : 4, 16
- Dtype : bf16
- Epoch : 7
- Learning rate : 1e-4
- Global batch : 4
- Context length : 4096
- ## inference setting
- BOS id : 1
- EOS id : 2
- Top-p : 0.95
- Temperature : 0.01
## prompt template
```
Human: ##원문##과 ##질문##이 주어지면, ##원문##에 있는 정보를 바탕으로 고품질의 ##답변##을 만들어주세요. ##원문##에서 ##질문##에 대한 명확한 답을 찾을 수 없을 경우 "답변을 찾을 수 없습니다."로 ##답변##을 작성해야하며 ##원문##에 없는 내용은 ##답변##에 포함하지 않아야 합니다.
##원문##
{CONTEXT}
##질문##
{QUESTION}
Assistant: {ANSWER}
```
## License
The content of this project, created by AGILESODA, is licensed under the [Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)](https://creativecommons.org/licenses/by-nc-sa/4.0/).
## Citation
```
@misc{vo2024redwhaleadaptedkoreanllm,
title={RedWhale: An Adapted Korean LLM Through Efficient Continual Pretraining},
author={Anh-Dung Vo and Minseong Jung and Wonbeen Lee and Daewoo Choi},
year={2024},
eprint={2408.11294},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2408.11294},
}
```
**Built with:**