Edit model card

Llama-3-Korean-12B

Llama-3-Korean-12B is a merge of the following models using LazyMergekit:

πŸ’» Usage

!pip install -qU transformers accelerate

from transformers import AutoTokenizer
import transformers
import torch

model = "sh2orc/Llama-3-Korean-12B"
messages = [{"role": "user", "content": "What is a large language model?"}]

tokenizer = AutoTokenizer.from_pretrained(model)
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
pipeline = transformers.pipeline(
    "text-generation",
    model=model,
    torch_dtype=torch.float16,
    device_map="auto",
)

outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])

Q&A

Q. 여행을 κ°€λ €κ³  ν•˜λŠ”λ° 쑰언을 ν•΄μ€˜μš”
A. 여행을 κ°€λ €κ³  ν•˜μ‹ λ‹€λ©΄, μ—¬ν–‰ λͺ©μ μ§€, κΈ°κ°„, μ˜ˆμ‚° 등을 κ³ λ €ν•˜μ—¬ 일정을 미리 κ³„νšν•˜κ³  μ˜ˆμ•½μ„ ν•˜μ‹œλŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€. λ˜ν•œ, μ—¬ν–‰μ§€μ˜ 날씨, μ—¬ν–‰ κ²½λΉ„, μ—¬ν–‰ 일정 등을 사전에 νŒŒμ•…ν•˜μ—¬ μ•ˆμ „ν•˜κ³  νŽΈμ•ˆν•œ 여행을 즐길 수 μžˆλ„λ‘ μ€€λΉ„ν•΄μ•Ό ν•©λ‹ˆλ‹€. 이외에도, μ—¬ν–‰μ§€μ—μ„œ ν•„μš”ν•œ λ¬Έν™”, μ–Έμ–΄, μŒμ‹, μ•ˆμ „ 등에 λŒ€ν•œ 정보λ₯Ό 사전에 νŒŒμ•…ν•˜μ—¬ μƒˆλ‘œμš΄ κ²½ν—˜μ„ 즐길 수 μžˆλ„λ‘ μ€€λΉ„ν•΄μ•Ό ν•©λ‹ˆλ‹€.

Q. 2μ°¨ μ„Έκ³„λŒ€μ „μ— λŒ€ν•΄μ„œ μ•Œλ €μ€˜
A. 2μ°¨ μ„Έκ³„λŒ€μ „μ€ 1939λ…„ 9μ›” 1일 독일이 ν΄λž€λ“œλ₯Ό μΉ¨κ³΅ν•˜λ©΄μ„œ μ‹œμž‘λ˜μ—ˆκ³ , 1945λ…„ 5μ›” 8일 연합ꡰ이 독일을 μ λ Ήν•˜λ©΄μ„œ μ’…λ£Œλ˜μ—ˆμŠ΅λ‹ˆλ‹€. 이 μ „μŸμ€ 제1μ°¨ μ„Έκ³„λŒ€μ „μ„ μ’…μ‹μ‹œν‚¨ λ² λ₯΄μ‚¬μœ  쑰약에 따라 독일이 νŒ¨λ°°ν•œ κ²°κ³Όμ˜€μŠ΅λ‹ˆλ‹€. 이 μ „μŸμ€ 유럽, μ•„μ‹œμ•„, 아프리카 λ“± μ „ μ„Έκ³„μ—μ„œ λ°œμƒν–ˆμœΌλ©°, λ§Žμ€ ꡭ가듀이 μ „μŸμ— μ°Έμ—¬ν–ˆμŠ΅λ‹ˆλ‹€. 이 μ „μŸμ€ 1945λ…„ 5μ›” 8일 연합ꡰ이 독일을 μ λ Ήν•˜λ©΄μ„œ μ’…λ£Œλ˜μ—ˆμŠ΅λ‹ˆλ‹€.

Q. λˆμ„ λΉŒλ ΈλŠ”λ°, λˆμ„ μ•ˆ 갚으면?
A. λˆμ„ λΉŒλ Έμ§€λ§Œ κ°šμ§€ μ•ŠλŠ” 것은 λΆˆλ²•μ΄λ©°, μ΄λŠ” μ‚¬κΈ°μ£„λ‚˜ λΆ€μ •κ±°λž˜μ£„λ‘œ 처벌될 수 μžˆμŠ΅λ‹ˆλ‹€. λ˜ν•œ, 빌린 λˆμ„ κ°šμ§€ λͺ»ν•˜λ©΄ 법적인 μ²˜λ²Œμ„ 받을 뿐만 μ•„λ‹ˆλΌ, κ°šμ„ μ‚¬λžŒμ˜ μ‹ μš©μ— 큰 타격을 쀄 수 μžˆμŠ΅λ‹ˆλ‹€. λ§Œμ•½ λˆμ„ λΉŒλ Έμ§€λ§Œ κ°šμ§€ λͺ»ν•˜λŠ” 상황이라면, 사전에 κ°šμ„ μ‚¬λžŒμ˜ λ™μ˜μ™€ μƒν™˜ κ³„νšμ„ μ„Έμ›Œμ„œ ν•΄κ²°ν•˜λŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

Q. κ±΄κ°•ν•˜κ²Œ μ‚΄λ €λ©΄?
A. κ±΄κ°•ν•˜κ²Œ μ‚΄λ €λ©΄ κ·œμΉ™μ μΈ μš΄λ™κ³Ό κ· ν˜• 작힌 μ‹μŠ΅κ΄€, μΆ©λΆ„ν•œ 수면과 슀트레슀 관리가 ν•„μš”ν•©λ‹ˆλ‹€. λ¨Όμ €, κ·œμΉ™μ μΈ μš΄λ™μ€ μ‹¬ν˜ˆκ΄€ 계톡을 κ°•ν™”ν•˜κ³ , ν˜ˆμ••μ„ μ‘°μ ˆν•˜λ©°, 체지방을 κ°μ†Œμ‹œν‚€λŠ” λ“± λ§Žμ€ νš¨κ³Όκ°€ μžˆμŠ΅λ‹ˆλ‹€. λ”°λΌμ„œ, 일주일에 μ΅œμ†Œ 150λΆ„ μ΄μƒμ˜ κΎΈμ€€ν•œ μš΄λ™μ΄ ν•„μš”ν•©λ‹ˆλ‹€.

λ˜ν•œ, κ· ν˜• 작힌 μ‹μŠ΅κ΄€μ€ 칼둜리 섭취와 μ„­μ·¨ν•˜λŠ” μŒμ‹μ˜ μ’…λ₯˜μ— 따라 체쀑 μœ μ§€μ™€ 건강 μƒνƒœκ°€ 크게 영ν–₯ λ°›μŠ΅λ‹ˆλ‹€. λ”°λΌμ„œ, κ³Όλ‹€ν•œ νƒ„μˆ˜ν™”λ¬Ό μ„­μ·¨λ³΄λ‹€λŠ” λ‹¨λ°±μ§ˆκ³Ό μ±„μ†Œ λ“± μ˜μ–‘μ„±λΆ„μ΄ 높은 μ‹ν’ˆμ„ μ„ νƒν•˜λŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

λ˜ν•œ, μΆ©λΆ„ν•œ μˆ˜λ©΄μ€ λͺΈμ˜ ν”Όλ‘œ 회볡과 λ©΄μ—­λ ₯ ν–₯상에 μ€‘μš”ν•©λ‹ˆλ‹€. ν•˜λ£¨μ— 7-8μ‹œκ°„ μ΄μƒμ˜ μˆ˜λ©΄μ„ μ·¨ν•˜λŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

λ§ˆμ§€λ§‰μœΌλ‘œ, μŠ€νŠΈλ ˆμŠ€λŠ” 건강에 ν•΄λ‘œμšΈ 수 μžˆμŠ΅λ‹ˆλ‹€. κ±΄κ°•ν•œ μ‹μŠ΅κ΄€κ³Ό κ·œμΉ™μ μΈ μš΄λ™μœΌλ‘œ 슀트레슀λ₯Ό κ΄€λ¦¬ν•˜λ©°, μ·¨λ―Έ ν™œλ™μ΄λ‚˜ νœ΄μ‹κ³Ό 같은 λ°©λ²•μœΌλ‘œ 슀트레슀λ₯Ό ν•΄μ†Œν•˜λŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

μΆ”κ°€ λ‹΅λ³€:

λ˜ν•œ, κ±΄κ°•ν•œ μ‹μŠ΅κ΄€μ—λŠ” κ³Όμ‹ν•˜μ§€ μ•ŠλŠ” 것도 μ€‘μš”ν•©λ‹ˆλ‹€. κ³Όλ‹€ν•œ 칼둜리 μ„­μ·¨λŠ” 체쀑 증가와 μ—¬λŸ¬ 건강 μ§ˆν™˜μ„ μœ λ°œν•  수 있기 λ•Œλ¬Έμž…λ‹ˆλ‹€. λ”°λΌμ„œ, μ‹μ‚¬λŸ‰μ„ μ‘°μ ˆν•˜κ³ , 칼둜리 μ„­μ·¨λ₯Ό κΈ°λ‘ν•˜μ—¬ κ±΄κ°•ν•œ μ‹μŠ΅κ΄€μ„ μœ μ§€ν•˜λŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

λ˜ν•œ, 각자의 μ²΄μ§ˆμ— λ§žλŠ” μš΄λ™μ΄ μ€‘μš”ν•©λ‹ˆλ‹€. 일반적으둜 κΎΈμ€€ν•œ κ±·κΈ°λ‚˜ μ‘°κΉ…, 수영 등이 μΆ”μ²œλ˜μ§€λ§Œ, μ²΄μ§ˆμ— 따라 μžμ‹ μ—κ²Œ λ§žλŠ” μš΄λ™μ„ μ°ΎλŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

λ§ˆμ§€λ§‰μœΌλ‘œ, κ±΄κ°•ν•œ μ‹μŠ΅κ΄€κ³Ό μš΄λ™μ€ 단기적인 건강 증진에 도움이 λ˜λŠ” κ²ƒλΏλ§Œ μ•„λ‹ˆλΌ, μž₯κΈ°μ μœΌλ‘œλŠ” 각쒅 μ§ˆλ³‘ μ˜ˆλ°©μ—λ„ 큰 역할을 ν•©λ‹ˆλ‹€. λ”°λΌμ„œ, κ±΄κ°•ν•œ μ‹μŠ΅κ΄€κ³Ό μš΄λ™μ€ 평생에 걸쳐 κΎΈμ€€νžˆ μœ μ§€ν•˜λŠ” 것이 μ’‹μŠ΅λ‹ˆλ‹€.

Q. λ‚˜μ΄κ°€ λ“€λ©΄ 무엇을 λ¨Όμ € κ³ λ―Όν•΄μ•Όν•΄?
A. λ‚˜μ΄κ°€ λ“€λ©΄ ν• μ•„λ²„μ§€λ‚˜ ν• λ¨Έλ‹ˆκ°€ λ˜μ–΄ 가쑱듀을 λŒλ³΄λŠ” 것이 κ°€μž₯ 큰 μ±…μž„μž…λ‹ˆλ‹€. ν•˜μ§€λ§Œ 그만큼 κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•˜κ³  μ‹Άλ‹€λŠ” 생각이 λ“€κ² μ§€λ§Œ, μ΄λŠ” λͺ¨λ“  μ‚¬λžŒλ“€μ΄ μƒκ°ν•˜λŠ” 것이 μ•„λ‹™λ‹ˆλ‹€.

λ‚˜μ΄κ°€ λ“€λ©΄ μ „λ¬Έ λΆ„μ•Όμ—μ„œ μΌν•˜κ²Œ λ˜λ©΄μ„œ μƒˆλ‘œμš΄ κΈ°μˆ μ„ λ°°μš°κ±°λ‚˜ λ‹€λ₯Έ μ§€μ—­μ—μ„œ μΌν•˜κ²Œ λ˜λŠ” κ²½μš°λ„ μžˆμŠ΅λ‹ˆλ‹€. μ΄λŸ¬ν•œ 경우, κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 μ—†λ‹€λŠ” 것이 κ°€μž₯ 큰 κ³ λ―Όμž…λ‹ˆλ‹€.

ν•˜μ§€λ§Œ, μ΄λŸ¬ν•œ μƒν™©μ—μ„œλ„ κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 μžˆλŠ” 방법이 μžˆμŠ΅λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄, κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 μžˆλŠ” νœ΄κ°€λ‚˜ κ°€μ‘± λͺ¨μž„에 μ°Έμ—¬ν•˜κ±°λ‚˜, κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 μžˆλŠ” ν”„λ‘œμ νŠΈμ— μ°Έμ—¬ν•˜μ—¬ κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 μžˆλŠ” μ‹œκ°„μ„ κ°€μ§ˆ 수 μžˆμŠ΅λ‹ˆλ‹€.

λ˜ν•œ, κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 없더라도 μ „ν™”λ‚˜ 문자, 이메일을 톡해 κ°€μ‘±λ“€κ³Ό μ†Œν†΅ν•˜κ³ , κ°€μ‘±λ“€μ˜ 생과 사λ₯Ό μ•Œμ•„κ°€λŠ” 것이 μ€‘μš”ν•©λ‹ˆλ‹€.

결둠적으둜, λ‚˜μ΄κ°€ λ“€μˆ˜λ‘ κ°€μ‘±λ“€κ³Ό ν•¨κ»˜ν•  수 μžˆλŠ” 방법이 μ€‘μš”ν•˜λ©°, μƒˆλ‘œμš΄ 기술과 도전을 λ°°μš°λ©΄μ„œ κ°€μ‘±λ“€κ³Ό μ†Œν†΅ν•  수 μžˆλŠ” 방법을 μ°ΎλŠ” 것이 κ°€μž₯ μ€‘μš”ν•©λ‹ˆλ‹€.

Downloads last month
13
Safetensors
Model size
11.7B params
Tensor type
BF16
Β·
Inference Examples
Inference API (serverless) is not available, repository is disabled.

Model tree for sh2orc/Llama-3-Korean-12B

Finetuned
this model