license: llama3
language:
- en
- ko
pipeline_tag: text-generation
tags:
- saltlux
- luxia
- meta
- llama-3
- pytorch
Model Details
Saltlux, AI Labs์์ ํ์ต ๋ฐ ๊ณต๊ฐํ Llama-3-Luxia-Ko-8B ๋ชจ๋ธ์ Meta์์ ์ถ์ํ Llama-3-8B ๋ชจ๋ธ์ ํ๊ตญ์ด์ ํนํํ ๋ชจ๋ธ์
๋๋ค.
์์ฒด ๋ณด์ ํ๊ณ ์๋ 1TB ์ด์์ ํ๊ตญ์ด ํ์ต ๋ฐ์ดํฐ ์ค, ์ฝ 100GB ์ ๋์ ๋ฐ์ดํฐ๋ฅผ ์ ๋ณํ์ฌ ์ฌ์ ํ์ต์ ์ํํ์ต๋๋ค.
๋ํ ๊ณต๊ฐ๋ Llama-3 Tokenizer๋ฅผ ํ๊ตญ์ด๋ก ํ์ฅํ๊ณ ์ฌ์ ํ์ต์ ํ์ฉํ์ต๋๋ค.
- Meta Llama-3: Meta developed and released the Meta Llama 3 family of large language models (LLMs), a collection of pretrained and instruction tuned generative text models in 8 and 70B sizes. The Llama 3 instruction tuned models are optimized for dialogue use cases and outperform many of the available open source chat models on common industry benchmarks. Further, in developing these models, we took great care to optimize helpfulness and safety.
Model Description
- Model developers: Saltlux, AI Labs ์ธ์ด๋ชจ๋ธํ
- Variation: Llama-3-Luxia-Ko 8B ํ๋ผ๋ฏธํฐ ์์ค์ ์ฌ์ ํ์ต ๋ชจ๋ธ
- Input: ํ ์คํธ๋ง ์ ๋ ฅํฉ๋๋ค.
- Output: ํ ์คํธ์ ์ฝ๋๋ฅผ ์์ฑํฉ๋๋ค.
- Model Architecture: Llama-3-Luxia-Ko ๋ชจ๋ธ์ Meta์์ ์ถ์ํ Llama-3์ ๊ฐ์ auto-regressive ์ธ์ด๋ชจ๋ธ๋ก ์ต์ ํ๋ transformer ์ํคํ ์ณ๋ฅผ ์ฌ์ฉํฉ๋๋ค.
- Model Release Date: April 30, 2024.
- Status: ์ด ๋ชจ๋ธ์ ์คํ๋ผ์ธ ๋ฐ์ดํฐ ์ธํธ์์ ํ๋ จ๋ Staticํ ๋ชจ๋ธ์ ๋๋ค. ์ปค๋ฎค๋ํฐ์ ํผ๋๋ฐฑ์ ํตํด ๋ชจ๋ธ ์์ ์ฑ์ ๊ฐ์ ํจ์ ๋ฐ๋ผ ์กฐ์ ๋ ๋ชจ๋ธ์ ํฅํ ๋ฒ์ ์ด ์ถ์๋ ์์ ์ ๋๋ค.
- License: Llama3 License: https://llama.meta.com/llama3/license
Intended Use
Llama-3-Luxia-Ko๋ ํ๊ตญ์ด ํนํ ์ธ์ด๋ชจ๋ธ๋ก ์ฐ๊ตฌ์ฉ์ผ๋ก ์ ์๋์์ผ๋ฉฐ, ๋ค์ํ ์์ฐ์ด ์์ฑ ์์ ์ ๋ง๊ฒ ์ฌํ์ฉ ๋ฐ ๋ณํ๋ ์ ์์ต๋๋ค.
How to Use
์ด ์ ์ฅ์์๋ transformers์ ํจ๊ป ์ฌ์ฉํ ์ ์๋ ์ฝ๋๋ฒ ์ด์ค์ Llama-3-Luxia-Ko-8B
๊ฐ ํฌํจ๋์ด ์์ต๋๋ค.
import transformers
import torch
model_id = "Saltlux/Llama-3-Luxia-Ko-8B"
pipeline = transformers.pipeline(
"text-generation", model=model_id, model_kwargs={"torch_dtype": torch.bfloat16}, device_map="auto"
)
pipeline("<|begin_of_text|>์๋
ํ์ธ์. ์ํธ๋ฃฉ์ค AI Labs ์
๋๋ค.")
Training Details
Llama-3-Luxia-Ko ๋ชจ๋ธ ํ์ต์ ์ํด ํ์ฉํ ํ์ต ๋ฐ์ดํฐ ๋ฐ ์ฅ๋น๋ Saltlux์์ ๋ณด์ ํ๊ณ ์๋ ์์ฒด ํ๊ตญ์ด ์ฝํผ์ค ๋ฐ H100 ์ธ์คํด์ค๋ฅผ ํ์ฉํ์ต๋๋ค.
Training Data
Llama-3-Luxia-Ko๋ ๊ณต๊ฐ์ ์ผ๋ก ์ฌ์ฉ ๊ฐ๋ฅํ ์ฝํผ์ค์ ํจ๊ป ์์ฒด์ ์ผ๋ก ์์งํ 2023๋
์ต์ ๋ด์ค๋ฐ์ดํฐ๋ฅผ ํฌํจํ์ฌ ์ฝ 100GB ์ฝํผ์ค๋ก ์ฌ์ ํ์ต ๋์์ต๋๋ค.
์ฌ์ ํ์ต ๋ฐ์ดํฐ๋ ์ผ๋ฐ ๋ถ์ผ ์ด์ธ์๋ ๋ฒ๋ฅ , ํนํ, ์๋ฃ, ์ญ์ฌ, ์ฌํ, ๋ฌธํ, ๋ํ(๋ฌธ์ด/๊ตฌ์ด) ๋ฑ ๋ค์ํ ๋๋ฉ์ธ์ด ํฌํจ๋์ด์์ต๋๋ค.
Data Preprocessing
๋ณด์ ํ๊ณ ์๋ ํ๊ตญ์ด ๋ฐ์ดํฐ์ ํ์ง ํฅ์์ ์ํด ๋ฌธ์ ์ญ์ (Document Delete), ๋ฌธ์ ์์ (Document Modify) ์์ค์ ์ ์ฒ๋ฆฌ ๋ฐฉ์์ ์๋ฆฝํ๊ณ ์ ์ฉํฉ๋๋ค.
Document Delete
- ์งง์ ํ ์คํธ (120 ์์ ๋ฏธ๋ง) ํํฐ๋ง
- ๊ธด ํ ์คํธ (100,000 ์์ ์ด์) ํํฐ๋ง
- ํ๊ตญ์ด ๋น์จ์ด 25% ๋ฏธ๋ง์ธ ๊ฒฝ์ฐ ํํฐ๋ง
- ๊ธ๋จธ๋ฆฌ ๊ธฐํธ๊ฐ 90% ์ด์์ธ ๊ฒฝ์ฐ ํํฐ๋ง
- ์์ค์ด ์๋ ๊ฒฝ์ฐ ํํฐ๋ง
Document Modify
- ์ด๋ชจ์ ๋ฌธ์ ์ ๊ทํ (์ต๋ 2๊ฐ๊น์ง ํ์ฉ)
- ๊ฐํ ๋ฌธ์ ์ ๊ทํ (์ต๋ 2๊ฐ๊น์ง ํ์ฉ)
- HTML ํ๊ทธ ์ ๊ฑฐ
- ๋ถํ์ํ ๋ฌธ์ ์ ๊ฑฐ
- ๋น์๋ณํ ์งํ (ํด๋ํฐ ๋ฒํธ, ๊ณ์ข๋ฒํธ ๋ฑ์ ๊ฐ์ธ์ ๋ณด)
- ์ค๋ณต ๋ฌธ์์ด ์ ๊ฑฐ
Data Sampling
Llama-3-Luxia-Ko-8B ๋ชจ๋ธ ํ์ต์ ์ํด 1TB ์์ค์ ํ๊ตญ์ด ์ฝํผ์ค์ 10๋ถ์ 1์ธ 100GB ๋ฐ์ดํฐ๋ฅผ ์ํ๋งํฉ๋๋ค.
๋ฐ์ดํฐ ์ํ๋ง์ ๋ค์ํ ๋๋ฉ์ธ๊ณผ ๋ด์ฉ์ด ํฌํจ๋ ์ ์๋๋ก ๊ณ ๋ คํ์ฌ ์ํ๋งํ๋ฉฐ ๋ฐฉ๋ฒ์ ์๋์ ๊ฐ์ต๋๋ค.
- ์ํ๋ง ๋์์ 10GB ์ด์์ ํฌ๊ธฐ๋ฅผ ๊ฐ์ง๋ ๋๋ฉ์ธ ์ฝํผ์ค
- ๋๋ฉ์ธ ์ฝํผ์ค ๋ด ๋ช ์ฌ, ๋ณตํฉ๋ช ์ฌ ๊ธฐ๋ฐ ํค์๋ ์ฌ์ ๊ตฌ์ถ
- ๋ฑ์ฅํ๋ ํค์๋์ DF(Document Frequency)๊ฐ ์๊ณ๊ฐ ์ด์์ผ ๊ฒฝ์ฐ ํด๋น ํค์๋๊ฐ ํฌํจ๋ ๋ฌธ์๋ ์ํ๋ง์ ์ค๋จ
Use Device
NVIDIA H100 80GB * 8EA์ ํ์ฉํ์ฌ ๋ชจ๋ธ ์ฌ์ ํ์ต์ ์งํํ์์ต๋๋ค.
Training Hyperparameters
Model | Params | Context length | GQA | Learning rate | Batch | Precision |
Llama-3-Luxia-Ko | 8B | 8k | yes | 1e-5 | 128 | bf16 |
Tokenizer
Llama-3-Tokenizer๋ฅผ ํ๊ตญ์ด ํนํํ๊ธฐ ์ํด ํ๊ตญ์ด ํ ํฐ 17,536๊ฐ๋ฅผ ์ถ๊ฐํ๊ณ ํ์ฉํ์์ต๋๋ค.
Model | Vocab Size |
Llama-3 | 128,256 |
Llama-3-Luxia-Ko | 145,792 |
Tokenizer Result
์ ๋ ฅ | Llama-3 | Llama-3-Luxia-Ko |
์์ฆ ๋ ์จ๊ฐ ๋๋ฌด ์ค๋ฝ๊ฐ๋ฝํด์ ์์ง๋ ๊ฒจ์ธ์ท์ ๋ชป์น์ ์ด์.. | ['์', '์ฆ', ' ๋ ', '์จ', '๊ฐ', ' ๋๋ฌด', ' ์ค', '๋ฝ', '๊ฐ', '๋ฝ', 'ํด์', ' ์์ง', '๋', ' ๊ฒจ', '์ธ', '๏ฟฝ', '๏ฟฝ', '์', ' ๋ชป', '์น', '์ ', '์ด์', '..'] | ['์์ฆ', ' ๋ ์จ', '๊ฐ', ' ๋๋ฌด', ' ์ค๋ฝ', '๊ฐ๋ฝ', 'ํด์', ' ์์ง', '๋', ' ๊ฒจ์ธ', '์ท', '์', ' ๋ชป', '์น', '์ ', '์ด์', '..'] |
๋ง์๋ ๋ฐฅ์ ๋์ จ์ต๋๊น? ๋ง์ด ๊ถ๊ธํ๋ค์. | ['๋ง', '์๋', ' ๏ฟฝ', '๏ฟฝ', '์', ' ๋', '์ จ', '์ต', '๋๊น', '?', ' ๋ง', '์ด', ' ๊ถ๊ธ', 'ํ', '๋ค์', '.'] | ['๋ง', '์๋', ' ๋ฐฅ', '์', ' ๋์ จ', '์ต', '๋๊น', '?', ' ๋ง', '์ด', ' ๊ถ๊ธ', 'ํ', '๋ค์', '.'] |
๋๋ฒ์๋ถํฐ ํ๊ธ์ฌ ํ๋ก๊น์ง ์ํ๋ ํ๋ก๋ฅผ ์ฐพ๋ ๊ฐ์ฅ ๋น ๋ฅธ ๋ฐฉ๋ฒ - ์๋ฉด ๊ฒ์, ์์ฒญ ํ๋ก, ์ ์ฌ ํ๋ก, AI ์ถ์ฒ, ํ๋ก ๋ฐ ๋ฒ๋ น ๊ฒ์. | ['๋', '๋ฒ', '์', '๋ถํฐ', ' ํ', '๊ธ', '์ฌ', ' ํ', '๋ก', '๊น์ง', ' ์', 'ํ๋', ' ํ', '๋ก', '๋ฅผ', ' ์ฐพ', '๋', ' ๊ฐ์ฅ', ' ๋น ', '๋ฅธ', ' ๋ฐฉ๋ฒ', ' -', ' ์', '๋ฉด', ' ๊ฒ์', ',', ' ์์ฒญ', ' ํ', '๋ก', ',', ' ์ ', '์ฌ', ' ํ', '๋ก', ',', ' AI', ' ์ถ์ฒ', ',', ' ํ', '๋ก', ' ๋ฐ', ' ๋ฒ', '๋ น', ' ๊ฒ์', '.'] | ['๋', '๋ฒ', '์', '๋ถํฐ', ' ํ', '๊ธ', '์ฌ', ' ํ๋ก', '๊น์ง', ' ์', 'ํ๋', ' ํ๋ก', '๋ฅผ', ' ์ฐพ', '๋', ' ๊ฐ์ฅ', ' ๋น ๋ฅธ', ' ๋ฐฉ๋ฒ', ' -', ' ์๋ฉด', ' ๊ฒ์', ',', ' ์์ฒญ', ' ํ๋ก', ',', ' ์ ์ฌ', ' ํ๋ก', ',', ' AI', ' ์ถ์ฒ', ',', ' ํ๋ก', ' ๋ฐ', ' ๋ฒ๋ น', ' ๊ฒ์', '.'] |
๋ณธ ๋ฐ๋ช ์ ๊ธ์ํ์ ๋ค์ ๋ถ๋ถ์ ์์นญ์์ผ ํน์ ๋ฌด๋ฌ๋ชจ์์ ํ์ฑํ๋ ๊ฑด์ถ์ฉ ๊ธ์์ฌ ์ฅ์ํ์ผ๋ก ์ด๋ฃจ์ด์ง ๊ฒ์ ํน์ง์ด ์๋ค. | ['๋ณธ', ' ๋ฐ', '๋ช ', '์', ' ๊ธ', '์', 'ํ', '์', ' ๋ค', '์', ' ๋ถ๋ถ', '์', ' ์', '์นญ', '์', '์ผ', ' ํน', '์ ', ' ๋ฌด', '๏ฟฝ', '๏ฟฝ', '๋ชจ', '์', '์', ' ํ', '์ฑ', 'ํ๋', ' ๊ฑด', '์ถ', '์ฉ', ' ๊ธ', '์', '์ฌ', ' ์ฅ', '์', 'ํ', '์ผ๋ก', ' ์ด๋ฃจ', '์ด์ง', ' ๊ฒ', '์', ' ํน', '์ง', '์ด', ' ์๋ค', '.'] | ['๋ณธ', ' ๋ฐ๋ช ', '์', ' ๊ธ์', 'ํ', '์', ' ๋ค์', ' ๋ถ๋ถ', '์', ' ์์นญ', '์', '์ผ', ' ํน์ ', ' ๋ฌด๋ฌ', '๋ชจ', '์', '์', ' ํ์ฑ', 'ํ๋', ' ๊ฑด์ถ', '์ฉ', ' ๊ธ์', '์ฌ', ' ์ฅ์', 'ํ', '์ผ๋ก', ' ์ด๋ฃจ์ด์ง', ' ๊ฒ', '์', ' ํน์ง', '์ด', ' ์๋ค', '.'] |
๊ณจ๋ค๊ณต์ฆ์ ์ ์๊ธฐ๋๊ฑฐ์์? ๊ทธ๋ฆฌ๊ณ ์น๋ฃํ๋ ค๋ฉด ์ด๋ป๊ฒํด์ผํ์ฃ ? | ['๊ณจ', '๋ค', '๊ณต', '์ฆ', '์', ' ์', ' ์', '๊ธฐ๋', '๊ฑฐ', '์', '์', '?', ' ๊ทธ๋ฆฌ๊ณ ', ' ์น', '๋ฃ', 'ํ๋ ค', '๋ฉด', ' ์ด๋ป๊ฒ', 'ํด์ผ', 'ํ', '์ฃ ', '?'] | ['๊ณจ', '๋ค', '๊ณต์ฆ', '์', ' ์', ' ์', '๊ธฐ๋', '๊ฑฐ', '์', '์', '?', ' ๊ทธ๋ฆฌ๊ณ ', ' ์น๋ฃ', 'ํ๋ ค', '๋ฉด', ' ์ด๋ป๊ฒ', 'ํด์ผ', 'ํ', '์ฃ ', '?'] |
Citation instructions
Llama-3-Luxia-Ko
@article{llama3luxiakomodelcard,
title={Llama 3 Luxua Ko Model Card},
author={AILabs@Saltux},
year={2024},
url={์์ ์์ }
}
Original Llama-3
@article{llama3modelcard,
title={Llama 3 Model Card},
author={AI@Meta},
year={2024},
url={https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md}
}