colab으로 돌리는 방법 여쭤봐도 될까요?

#1
by coconut00 - opened

안녕하세요. colab으로 돌리는 중인데

model = Llama.from_pretrained(
repo_id="teddylee777/Llama-3-Open-Ko-8B-gguf",
filename="Llama-3-Open-Ko-8B-Q6_K.gguf",
n_gpu_layers = -1,
chat_format='llama-3'
)
model.verbose=False
system_prompt = "당신은 친절한 어시스턴트로 최선을 다해 답변하세요."
ai = "안녕"
output = llm.create_chat_completion(
messages = [
{"role": "system", "content": system_prompt},
{
"role": "user", "content": ai
}
]
)

이런 기본 코드로 짜서 돌리는데 답변 생성이 안돼서요..다른 기타 등등 코드들을 시도해봤는데 유독 답변이 생성이 안되네요.
혹시 괜찮으시면 조언을 얻고 싶습니다.
감사합니다. 좋은 하루 되세요!

chat_format 에 'llama-3' 대신 model card 에 기입한 템플릿을 활용하여 추론해야 제대로된 답변을 받으실 수 있습니다.
템플릿은 model card 에 넣어놨습니다^^

추가로 대화형 추론을 위해서라면 instruct 모델을 사용하시는 것을 추천 드립니다!

감사합니다!!

coconut00 changed discussion status to closed

Sign up or log in to comment