Edit model card

Llama-3-Korean-12B

Llama-3-Korean-12B is a merge of the following models using LazyMergekit:

πŸ’» Usage

!pip install -qU transformers accelerate

from transformers import AutoTokenizer
import transformers
import torch

model = "sh2orc/Llama-3-Korean-12B"
messages = [{"role": "user", "content": "What is a large language model?"}]

tokenizer = AutoTokenizer.from_pretrained(model)
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
pipeline = transformers.pipeline(
    "text-generation",
    model=model,
    torch_dtype=torch.float16,
    device_map="auto",
)

outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])

Q&A

Q. 여행을 κ°€λ €κ³  ν•˜λŠ”λ° 쑰언을 ν•΄μ€˜μš”
A. 여행을 κ°€λ €κ³  ν•˜μ‹ λ‹€λ©΄, μ—¬ν–‰ λͺ©μ μ§€, κΈ°κ°„, μ˜ˆμ‚° 등을 κ³ λ €ν•˜μ—¬ 일정을 미리 κ³„νšν•˜κ³  μ˜ˆμ•½μ„ ν•˜μ‹œλŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€. λ˜ν•œ, μ—¬ν–‰μ§€μ˜ 날씨, μ—¬ν–‰ κ²½λΉ„, μ—¬ν–‰ 일정 등을 사전에 νŒŒμ•…ν•˜μ—¬ μ•ˆμ „ν•˜κ³  νŽΈμ•ˆν•œ 여행을 즐길 수 μžˆλ„λ‘ μ€€λΉ„ν•΄μ•Ό ν•©λ‹ˆλ‹€. 이외에도, μ—¬ν–‰μ§€μ—μ„œ ν•„μš”ν•œ λ¬Έν™”, μ–Έμ–΄, μŒμ‹, μ•ˆμ „ 등에 λŒ€ν•œ 정보λ₯Ό 사전에 νŒŒμ•…ν•˜μ—¬ μƒˆλ‘œμš΄ κ²½ν—˜μ„ 즐길 수 μžˆλ„λ‘ μ€€λΉ„ν•΄μ•Ό ν•©λ‹ˆλ‹€.

Q. 2μ°¨ μ„Έκ³„λŒ€μ „μ— λŒ€ν•΄μ„œ μ•Œλ €μ€˜
A. 2μ°¨ μ„Έκ³„λŒ€μ „μ€ 1939λ…„ 9μ›” 1일 독일이 ν΄λž€λ“œλ₯Ό μΉ¨κ³΅ν•˜λ©΄μ„œ μ‹œμž‘λ˜μ—ˆκ³ , 1945λ…„ 5μ›” 8일 연합ꡰ이 독일을 μ λ Ήν•˜λ©΄μ„œ μ’…λ£Œλ˜μ—ˆμŠ΅λ‹ˆλ‹€. 이 μ „μŸμ€ 제1μ°¨ μ„Έκ³„λŒ€μ „μ„ μ’…μ‹μ‹œν‚¨ λ² λ₯΄μ‚¬μœ  쑰약에 따라 독일이 νŒ¨λ°°ν•œ κ²°κ³Όμ˜€μŠ΅λ‹ˆλ‹€. 이 μ „μŸμ€ 유럽, μ•„μ‹œμ•„, 아프리카 λ“± μ „ μ„Έκ³„μ—μ„œ λ°œμƒν–ˆμœΌλ©°, λ§Žμ€ ꡭ가듀이 μ „μŸμ— μ°Έμ—¬ν–ˆμŠ΅λ‹ˆλ‹€. 이 μ „μŸμ€ 1945λ…„ 5μ›” 8일 연합ꡰ이 독일을 μ λ Ήν•˜λ©΄μ„œ μ’…λ£Œλ˜μ—ˆμŠ΅λ‹ˆλ‹€.

Q. λˆμ„ λΉŒλ ΈλŠ”λ°, λˆμ„ μ•ˆ 갚으면?
A. λˆμ„ λΉŒλ Έμ§€λ§Œ κ°šμ§€ μ•ŠλŠ” 것은 λΆˆλ²•μ΄λ©°, μ΄λŠ” μ‚¬κΈ°μ£„λ‚˜ λΆ€μ •κ±°λž˜μ£„λ‘œ 처벌될 수 μžˆμŠ΅λ‹ˆλ‹€. λ˜ν•œ, 빌린 λˆμ„ κ°šμ§€ λͺ»ν•˜λ©΄ 법적인 μ²˜λ²Œμ„ 받을 뿐만 μ•„λ‹ˆλΌ, κ°šμ„ μ‚¬λžŒμ˜ μ‹ μš©μ— 큰 타격을 쀄 수 μžˆμŠ΅λ‹ˆλ‹€. λ§Œμ•½ λˆμ„ λΉŒλ Έμ§€λ§Œ κ°šμ§€ λͺ»ν•˜λŠ” 상황이라면, 사전에 κ°šμ„ μ‚¬λžŒμ˜ λ™μ˜μ™€ μƒν™˜ κ³„νšμ„ μ„Έμ›Œμ„œ ν•΄κ²°ν•˜λŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

Q. κ±΄κ°•ν•˜κ²Œ μ‚΄λ €λ©΄?
A. κ±΄κ°•ν•˜κ²Œ μ‚΄λ €λ©΄ κ·œμΉ™μ μΈ μš΄λ™κ³Ό κ· ν˜• 작힌 μ‹μŠ΅κ΄€, μΆ©λΆ„ν•œ 수면과 슀트레슀 관리가 ν•„μš”ν•©λ‹ˆλ‹€. λ¨Όμ €, κ·œμΉ™μ μΈ μš΄λ™μ€ μ‹¬ν˜ˆκ΄€ 계톡을 κ°•ν™”ν•˜κ³ , ν˜ˆμ••μ„ μ‘°μ ˆν•˜λ©°, 체지방을 κ°μ†Œμ‹œν‚€λŠ” λ“± λ§Žμ€ νš¨κ³Όκ°€ μžˆμŠ΅λ‹ˆλ‹€. λ”°λΌμ„œ, 일주일에 μ΅œμ†Œ 150λΆ„ μ΄μƒμ˜ κΎΈμ€€ν•œ μš΄λ™μ΄ ν•„μš”ν•©λ‹ˆλ‹€.

λ˜ν•œ, κ· ν˜• 작힌 μ‹μŠ΅κ΄€μ€ 칼둜리 섭취와 μ„­μ·¨ν•˜λŠ” μŒμ‹μ˜ μ’…λ₯˜μ— 따라 체쀑 μœ μ§€μ™€ 건강 μƒνƒœκ°€ 크게 영ν–₯ λ°›μŠ΅λ‹ˆλ‹€. λ”°λΌμ„œ, κ³Όλ‹€ν•œ νƒ„μˆ˜ν™”λ¬Ό μ„­μ·¨λ³΄λ‹€λŠ” λ‹¨λ°±μ§ˆκ³Ό μ±„μ†Œ λ“± μ˜μ–‘μ„±λΆ„μ΄ 높은 μ‹ν’ˆμ„ μ„ νƒν•˜λŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

λ˜ν•œ, μΆ©λΆ„ν•œ μˆ˜λ©΄μ€ λͺΈμ˜ ν”Όλ‘œ 회볡과 λ©΄μ—­λ ₯ ν–₯상에 μ€‘μš”ν•©λ‹ˆλ‹€. ν•˜λ£¨μ— 7-8μ‹œκ°„ μ΄μƒμ˜ μˆ˜λ©΄μ„ μ·¨ν•˜λŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

λ§ˆμ§€λ§‰μœΌλ‘œ, μŠ€νŠΈλ ˆμŠ€λŠ” 건강에 ν•΄λ‘œμšΈ 수 μžˆμŠ΅λ‹ˆλ‹€. κ±΄κ°•ν•œ μ‹μŠ΅κ΄€κ³Ό κ·œμΉ™μ μΈ μš΄λ™μœΌλ‘œ 슀트레슀λ₯Ό κ΄€λ¦¬ν•˜λ©°, μ·¨λ―Έ ν™œλ™μ΄λ‚˜ νœ΄μ‹κ³Ό 같은 λ°©λ²•μœΌλ‘œ 슀트레슀λ₯Ό ν•΄μ†Œν•˜λŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

μΆ”κ°€ λ‹΅λ³€:

λ˜ν•œ, κ±΄κ°•ν•œ μ‹μŠ΅κ΄€μ—λŠ” κ³Όμ‹ν•˜μ§€ μ•ŠλŠ” 것도 μ€‘μš”ν•©λ‹ˆλ‹€. κ³Όλ‹€ν•œ 칼둜리 μ„­μ·¨λŠ” 체쀑 증가와 μ—¬λŸ¬ 건강 μ§ˆν™˜μ„ μœ λ°œν•  수 있기 λ•Œλ¬Έμž…λ‹ˆλ‹€. λ”°λΌμ„œ, μ‹μ‚¬λŸ‰μ„ μ‘°μ ˆν•˜κ³ , 칼둜리 μ„­μ·¨λ₯Ό κΈ°λ‘ν•˜μ—¬ κ±΄κ°•ν•œ μ‹μŠ΅κ΄€μ„ μœ μ§€ν•˜λŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

λ˜ν•œ, 각자의 μ²΄μ§ˆμ— λ§žλŠ” μš΄λ™μ΄ μ€‘μš”ν•©λ‹ˆλ‹€. 일반적으둜 κΎΈμ€€ν•œ κ±·κΈ°λ‚˜ μ‘°κΉ…, 수영 등이 μΆ”μ²œλ˜μ§€λ§Œ, μ²΄μ§ˆμ— 따라 μžμ‹ μ—κ²Œ λ§žλŠ” μš΄λ™μ„ μ°ΎλŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

λ§ˆμ§€λ§‰μœΌλ‘œ, κ±΄κ°•ν•œ μ‹μŠ΅κ΄€κ³Ό μš΄λ™μ€ 단기적인 건강 증진에 도움이 λ˜λŠ” κ²ƒλΏλ§Œ μ•„λ‹ˆλΌ, μž₯κΈ°μ μœΌλ‘œλŠ” 각쒅 μ§ˆλ³‘ μ˜ˆλ°©μ—λ„ 큰 역할을 ν•©λ‹ˆλ‹€. λ”°λΌμ„œ, κ±΄κ°•ν•œ μ‹μŠ΅κ΄€κ³Ό μš΄λ™μ€ 평생에 걸쳐 κΎΈμ€€νžˆ μœ μ§€ν•˜λŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

Q. λ‚˜μ΄κ°€ λ“€λ©΄ 무엇을 λ¨Όμ € κ³ λ―Όν•΄μ•Όν•΄?
A. λ‚˜μ΄κ°€ λ“€λ©΄ ν• μ•„λ²„μ§€λ‚˜ ν• λ¨Έλ‹ˆκ°€ λ˜μ–΄ 가쑱듀을 λŒλ³΄λŠ” 것이 κ°€μž₯ 큰 μ±…μž„μž…λ‹ˆλ‹€. ν•˜μ§€λ§Œ 그만큼 κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•˜κ³  μ‹Άλ‹€λŠ” 생각이 λ“€κ² μ§€λ§Œ, μ΄λŠ” λͺ¨λ“  μ‚¬λžŒλ“€μ΄ μƒκ°ν•˜λŠ” 것이 μ•„λ‹™λ‹ˆλ‹€.

λ‚˜μ΄κ°€ λ“€λ©΄ μ „λ¬Έ λΆ„μ•Όμ—μ„œ μΌν•˜κ²Œ λ˜λ©΄μ„œ μƒˆλ‘œμš΄ κΈ°μˆ μ„ λ°°μš°κ±°λ‚˜ λ‹€λ₯Έ μ§€μ—­μ—μ„œ μΌν•˜κ²Œ λ˜λŠ” κ²½μš°λ„ μžˆμŠ΅λ‹ˆλ‹€. μ΄λŸ¬ν•œ 경우, κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 μ—†λ‹€λŠ” 것이 κ°€μž₯ 큰 κ³ λ―Όμž…λ‹ˆλ‹€.

ν•˜μ§€λ§Œ, μ΄λŸ¬ν•œ μƒν™©μ—μ„œλ„ κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 μžˆλŠ” 방법이 μžˆμŠ΅λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄, κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 μžˆλŠ” νœ΄κ°€λ‚˜ κ°€μ‘± λͺ¨μž„에 μ°Έμ—¬ν•˜κ±°λ‚˜, κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 μžˆλŠ” ν”„λ‘œμ νŠΈμ— μ°Έμ—¬ν•˜μ—¬ κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 μžˆλŠ” μ‹œκ°„μ„ κ°€μ§ˆ 수 μžˆμŠ΅λ‹ˆλ‹€.

λ˜ν•œ, κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 없더라도 μ „ν™”λ‚˜ 문자, 이메일을 톡해 κ°€μ‘±λ“€κ³Ό μ†Œν†΅ν•˜κ³ , κ°€μ‘±λ“€μ˜ 생과 사λ₯Ό μ•Œμ•„κ°€λŠ” 것이 μ€‘μš”ν•©λ‹ˆλ‹€.

결둠적으둜, λ‚˜μ΄κ°€ λ“€μˆ˜λ‘ κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 μžˆλŠ” 방법이 μ€‘μš”ν•˜λ©°, μƒˆλ‘œμš΄ 기술과 도전을 λ°°μš°λ©΄μ„œ κ°€μ‘±λ“€κ³Ό μ†Œν†΅ν•  수 μžˆλŠ” 방법을 μ°ΎλŠ” 것이 κ°€μž₯ μ€‘μš”ν•©λ‹ˆλ‹€.

Downloads last month
18
Safetensors
Model size
11.7B params
Tensor type
BF16
Β·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for sh2orc/Llama-3-Korean-12B

Finetuned
(2)
this model