Ko-Llama3-Luxia-8B / README.md
yuringu's picture
Update README.md
6ae5e71 verified
|
raw
history blame
9.16 kB
metadata
license: llama3
language:
  - en
  - ko
pipeline_tag: text-generation
tags:
  - saltlux
  - luxia
  - meta
  - llama-3
  - pytorch

Model Details

Saltlux, AI Labs์—์„œ ํ•™์Šต ๋ฐ ๊ณต๊ฐœํ•œ Llama-3-Luxia-Ko-8B ๋ชจ๋ธ์€ Meta์—์„œ ์ถœ์‹œํ•œ Llama-3-8B ๋ชจ๋ธ์„ ํ•œ๊ตญ์–ด์— ํŠนํ™”ํ•œ ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค.

์ž์ฒด ๋ณด์œ ํ•˜๊ณ  ์žˆ๋Š” 1TB ์ด์ƒ์˜ ํ•œ๊ตญ์–ด ํ•™์Šต ๋ฐ์ดํ„ฐ ์ค‘, ์•ฝ 100GB ์ •๋„์˜ ๋ฐ์ดํ„ฐ๋ฅผ ์„ ๋ณ„ํ•˜์—ฌ ์‚ฌ์ „ํ•™์Šต์„ ์ˆ˜ํ–‰ํ–ˆ์Šต๋‹ˆ๋‹ค.

๋˜ํ•œ ๊ณต๊ฐœ๋œ Llama-3 Tokenizer๋ฅผ ํ•œ๊ตญ์–ด๋กœ ํ™•์žฅํ•˜๊ณ  ์‚ฌ์ „ํ•™์Šต์— ํ™œ์šฉํ–ˆ์Šต๋‹ˆ๋‹ค.

  • Meta Llama-3: Meta developed and released the Meta Llama 3 family of large language models (LLMs), a collection of pretrained and instruction tuned generative text models in 8 and 70B sizes. The Llama 3 instruction tuned models are optimized for dialogue use cases and outperform many of the available open source chat models on common industry benchmarks. Further, in developing these models, we took great care to optimize helpfulness and safety.

Model Description

  • Model developers: Saltlux, AI Labs ์–ธ์–ด๋ชจ๋ธํŒ€
  • Variation: Llama-3-Luxia-Ko 8B ํŒŒ๋ผ๋ฏธํ„ฐ ์ˆ˜์ค€์˜ ์‚ฌ์ „ํ•™์Šต ๋ชจ๋ธ
  • Input: ํ…์ŠคํŠธ๋งŒ ์ž…๋ ฅํ•ฉ๋‹ˆ๋‹ค.
  • Output: ํ…์ŠคํŠธ์™€ ์ฝ”๋“œ๋ฅผ ์ƒ์„ฑํ•ฉ๋‹ˆ๋‹ค.
  • Model Architecture: Llama-3-Luxia-Ko ๋ชจ๋ธ์€ Meta์—์„œ ์ถœ์‹œํ•œ Llama-3์™€ ๊ฐ™์€ auto-regressive ์–ธ์–ด๋ชจ๋ธ๋กœ ์ตœ์ ํ™”๋œ transformer ์•„ํ‚คํ…์ณ๋ฅผ ์‚ฌ์šฉํ•ฉ๋‹ˆ๋‹ค.
  • Model Release Date: April 30, 2024.
  • Status: ์ด ๋ชจ๋ธ์€ ์˜คํ”„๋ผ์ธ ๋ฐ์ดํ„ฐ ์„ธํŠธ์—์„œ ํ›ˆ๋ จ๋œ Staticํ•œ ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค. ์ปค๋ฎค๋‹ˆํ‹ฐ์˜ ํ”ผ๋“œ๋ฐฑ์„ ํ†ตํ•ด ๋ชจ๋ธ ์•ˆ์ •์„ฑ์„ ๊ฐœ์„ ํ•จ์— ๋”ฐ๋ผ ์กฐ์ •๋œ ๋ชจ๋ธ์˜ ํ–ฅํ›„ ๋ฒ„์ „์ด ์ถœ์‹œ๋  ์˜ˆ์ •์ž…๋‹ˆ๋‹ค.
  • License: Llama3 License: https://llama.meta.com/llama3/license

Intended Use

Llama-3-Luxia-Ko๋Š” ํ•œ๊ตญ์–ด ํŠนํ™” ์–ธ์–ด๋ชจ๋ธ๋กœ ์—ฐ๊ตฌ์šฉ์œผ๋กœ ์ œ์ž‘๋˜์—ˆ์œผ๋ฉฐ, ๋‹ค์–‘ํ•œ ์ž์—ฐ์–ด ์ƒ์„ฑ ์ž‘์—…์— ๋งž๊ฒŒ ์žฌํ™œ์šฉ ๋ฐ ๋ณ€ํ˜•๋  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

How to Use

์ด ์ €์žฅ์†Œ์—๋Š” transformers์™€ ํ•จ๊ป˜ ์‚ฌ์šฉํ•  ์ˆ˜ ์žˆ๋Š” ์ฝ”๋“œ๋ฒ ์ด์Šค์™€ Llama-3-Luxia-Ko-8B๊ฐ€ ํฌํ•จ๋˜์–ด ์žˆ์Šต๋‹ˆ๋‹ค.

import transformers
import torch

model_id = "Saltlux/Llama-3-Luxia-Ko-8B"

pipeline = transformers.pipeline(
    "text-generation", model=model_id, model_kwargs={"torch_dtype": torch.bfloat16}, device_map="auto"
)
pipeline("<|begin_of_text|>์•ˆ๋…•ํ•˜์„ธ์š”. ์†”ํŠธ๋ฃฉ์Šค AI Labs ์ž…๋‹ˆ๋‹ค.")

Training Details

Llama-3-Luxia-Ko ๋ชจ๋ธ ํ•™์Šต์„ ์œ„ํ•ด ํ™œ์šฉํ•œ ํ•™์Šต ๋ฐ์ดํ„ฐ ๋ฐ ์žฅ๋น„๋Š” Saltlux์—์„œ ๋ณด์œ ํ•˜๊ณ  ์žˆ๋Š” ์ž์ฒด ํ•œ๊ตญ์–ด ์ฝ”ํผ์Šค ๋ฐ H100 ์ธ์Šคํ„ด์Šค๋ฅผ ํ™œ์šฉํ–ˆ์Šต๋‹ˆ๋‹ค.

Training Data

Llama-3-Luxia-Ko๋Š” ๊ณต๊ฐœ์ ์œผ๋กœ ์‚ฌ์šฉ ๊ฐ€๋Šฅํ•œ ์ฝ”ํผ์Šค์™€ ํ•จ๊ป˜ ์ž์ฒด์ ์œผ๋กœ ์ˆ˜์ง‘ํ•œ 2023๋…„ ์ตœ์‹  ๋‰ด์Šค๋ฐ์ดํ„ฐ๋ฅผ ํฌํ•จํ•˜์—ฌ ์•ฝ 100GB ์ฝ”ํผ์Šค๋กœ ์‚ฌ์ „ํ•™์Šต ๋˜์—ˆ์Šต๋‹ˆ๋‹ค.
์‚ฌ์ „ํ•™์Šต ๋ฐ์ดํ„ฐ๋Š” ์ผ๋ฐ˜ ๋ถ„์•ผ ์ด์™ธ์—๋„ ๋ฒ•๋ฅ , ํŠนํ—ˆ, ์˜๋ฃŒ, ์—ญ์‚ฌ, ์‚ฌํšŒ, ๋ฌธํ™”, ๋Œ€ํ™”(๋ฌธ์–ด/๊ตฌ์–ด) ๋“ฑ ๋‹ค์–‘ํ•œ ๋„๋ฉ”์ธ์ด ํฌํ•จ๋˜์–ด์žˆ์Šต๋‹ˆ๋‹ค.

Data Preprocessing

๋ณด์œ ํ•˜๊ณ  ์žˆ๋Š” ํ•œ๊ตญ์–ด ๋ฐ์ดํ„ฐ์˜ ํ’ˆ์งˆ ํ–ฅ์ƒ์„ ์œ„ํ•ด ๋ฌธ์„œ ์‚ญ์ œ(Document Delete), ๋ฌธ์„œ ์ˆ˜์ •(Document Modify) ์ˆ˜์ค€์˜ ์ „์ฒ˜๋ฆฌ ๋ฐฉ์•ˆ์„ ์ˆ˜๋ฆฝํ•˜๊ณ  ์ ์šฉํ•ฉ๋‹ˆ๋‹ค.

  • Document Delete

    • ์งง์€ ํ…์ŠคํŠธ (120 ์Œ์ ˆ ๋ฏธ๋งŒ) ํ•„ํ„ฐ๋ง
    • ๊ธด ํ…์ŠคํŠธ (100,000 ์Œ์ ˆ ์ด์ƒ) ํ•„ํ„ฐ๋ง
    • ํ•œ๊ตญ์–ด ๋น„์œจ์ด 25% ๋ฏธ๋งŒ์ธ ๊ฒฝ์šฐ ํ•„ํ„ฐ๋ง
    • ๊ธ€๋จธ๋ฆฌ ๊ธฐํ˜ธ๊ฐ€ 90% ์ด์ƒ์ธ ๊ฒฝ์šฐ ํ•„ํ„ฐ๋ง
    • ์š•์„ค์ด ์žˆ๋Š” ๊ฒฝ์šฐ ํ•„ํ„ฐ๋ง
  • Document Modify

    • ์ด๋ชจ์…˜ ๋ฌธ์ž ์ •๊ทœํ™” (์ตœ๋Œ€ 2๊ฐœ๊นŒ์ง€ ํ—ˆ์šฉ)
    • ๊ฐœํ–‰ ๋ฌธ์ž ์ •๊ทœํ™” (์ตœ๋Œ€ 2๊ฐœ๊นŒ์ง€ ํ—ˆ์šฉ)
    • HTML ํƒœ๊ทธ ์ œ๊ฑฐ
    • ๋ถˆํ•„์š”ํ•œ ๋ฌธ์ž ์ œ๊ฑฐ
    • ๋น„์‹๋ณ„ํ™” ์ง„ํ–‰ (ํœด๋Œ€ํฐ ๋ฒˆํ˜ธ, ๊ณ„์ขŒ๋ฒˆํ˜ธ ๋“ฑ์˜ ๊ฐœ์ธ์ •๋ณด)
    • ์ค‘๋ณต ๋ฌธ์ž์—ด ์ œ๊ฑฐ

Data Sampling

Llama-3-Luxia-Ko-8B ๋ชจ๋ธ ํ•™์Šต์„ ์œ„ํ•ด 1TB ์ˆ˜์ค€์˜ ํ•œ๊ตญ์–ด ์ฝ”ํผ์Šค์˜ 10๋ถ„์˜ 1์ธ 100GB ๋ฐ์ดํ„ฐ๋ฅผ ์ƒ˜ํ”Œ๋งํ•ฉ๋‹ˆ๋‹ค.

๋ฐ์ดํ„ฐ ์ƒ˜ํ”Œ๋ง์€ ๋‹ค์–‘ํ•œ ๋„๋ฉ”์ธ๊ณผ ๋‚ด์šฉ์ด ํฌํ•จ๋  ์ˆ˜ ์žˆ๋„๋ก ๊ณ ๋ คํ•˜์—ฌ ์ƒ˜ํ”Œ๋งํ•˜๋ฉฐ ๋ฐฉ๋ฒ•์€ ์•„๋ž˜์™€ ๊ฐ™์Šต๋‹ˆ๋‹ค.

  • ์ƒ˜ํ”Œ๋ง ๋Œ€์ƒ์€ 10GB ์ด์ƒ์˜ ํฌ๊ธฐ๋ฅผ ๊ฐ€์ง€๋Š” ๋„๋ฉ”์ธ ์ฝ”ํผ์Šค
  • ๋„๋ฉ”์ธ ์ฝ”ํผ์Šค ๋‚ด ๋ช…์‚ฌ, ๋ณตํ•ฉ๋ช…์‚ฌ ๊ธฐ๋ฐ˜ ํ‚ค์›Œ๋“œ ์‚ฌ์ „ ๊ตฌ์ถ•
  • ๋“ฑ์žฅํ•˜๋Š” ํ‚ค์›Œ๋“œ์˜ DF(Document Frequency)๊ฐ€ ์ž„๊ณ„๊ฐ’ ์ด์ƒ์ผ ๊ฒฝ์šฐ ํ•ด๋‹น ํ‚ค์›Œ๋“œ๊ฐ€ ํฌํ•จ๋œ ๋ฌธ์„œ๋Š” ์ƒ˜ํ”Œ๋ง์„ ์ค‘๋‹จ

Use Device

NVIDIA H100 80GB * 8EA์„ ํ™œ์šฉํ•˜์—ฌ ๋ชจ๋ธ ์‚ฌ์ „ํ•™์Šต์„ ์ง„ํ–‰ํ•˜์˜€์Šต๋‹ˆ๋‹ค.

Training Hyperparameters

Model Params Context length GQA Learning rate Batch Precision
Llama-3-Luxia-Ko 8B 8k yes 1e-5 128 bf16

Tokenizer

Llama-3-Tokenizer๋ฅผ ํ•œ๊ตญ์–ด ํŠนํ™”ํ•˜๊ธฐ ์œ„ํ•ด ํ•œ๊ตญ์–ด ํ† ํฐ 17,536๊ฐœ๋ฅผ ์ถ”๊ฐ€ํ•˜๊ณ  ํ™œ์šฉํ•˜์˜€์Šต๋‹ˆ๋‹ค.

Model Vocab Size
Llama-3 128,256
Llama-3-Luxia-Ko 145,792

Tokenizer Result

์ž…๋ ฅ Llama-3 Llama-3-Luxia-Ko
์š”์ฆ˜ ๋‚ ์”จ๊ฐ€ ๋„ˆ๋ฌด ์˜ค๋ฝ๊ฐ€๋ฝํ•ด์„œ ์•„์ง๋„ ๊ฒจ์šธ์˜ท์„ ๋ชป์น˜์› ์–ด์š”.. ['์š”', '์ฆ˜', ' ๋‚ ', '์”จ', '๊ฐ€', ' ๋„ˆ๋ฌด', ' ์˜ค', '๋ฝ', '๊ฐ€', '๋ฝ', 'ํ•ด์„œ', ' ์•„์ง', '๋„', ' ๊ฒจ', '์šธ', '๏ฟฝ', '๏ฟฝ', '์„', ' ๋ชป', '์น˜', '์› ', '์–ด์š”', '..'] ['์š”์ฆ˜', ' ๋‚ ์”จ', '๊ฐ€', ' ๋„ˆ๋ฌด', ' ์˜ค๋ฝ', '๊ฐ€๋ฝ', 'ํ•ด์„œ', ' ์•„์ง', '๋„', ' ๊ฒจ์šธ', '์˜ท', '์„', ' ๋ชป', '์น˜', '์› ', '์–ด์š”', '..']
๋ง›์žˆ๋Š” ๋ฐฅ์„ ๋“œ์…จ์Šต๋‹ˆ๊นŒ? ๋ง›์ด ๊ถ๊ธˆํ•˜๋„ค์š”. ['๋ง›', '์žˆ๋Š”', ' ๏ฟฝ', '๏ฟฝ', '์„', ' ๋“œ', '์…จ', '์Šต', '๋‹ˆ๊นŒ', '?', ' ๋ง›', '์ด', ' ๊ถ๊ธˆ', 'ํ•˜', '๋„ค์š”', '.'] ['๋ง›', '์žˆ๋Š”', ' ๋ฐฅ', '์„', ' ๋“œ์…จ', '์Šต', '๋‹ˆ๊นŒ', '?', ' ๋ง›', '์ด', ' ๊ถ๊ธˆ', 'ํ•˜', '๋„ค์š”', '.']
๋Œ€๋ฒ•์›๋ถ€ํ„ฐ ํ•˜๊ธ‰์‹ฌ ํŒ๋ก€๊นŒ์ง€ ์›ํ•˜๋Š” ํŒ๋ก€๋ฅผ ์ฐพ๋Š” ๊ฐ€์žฅ ๋น ๋ฅธ ๋ฐฉ๋ฒ• - ์„œ๋ฉด ๊ฒ€์ƒ‰, ์š”์ฒญ ํŒ๋ก€, ์œ ์‚ฌ ํŒ๋ก€, AI ์ถ”์ฒœ, ํŒ๋ก€ ๋ฐ ๋ฒ•๋ น ๊ฒ€์ƒ‰. ['๋Œ€', '๋ฒ•', '์›', '๋ถ€ํ„ฐ', ' ํ•˜', '๊ธ‰', '์‹ฌ', ' ํŒ', '๋ก€', '๊นŒ์ง€', ' ์›', 'ํ•˜๋Š”', ' ํŒ', '๋ก€', '๋ฅผ', ' ์ฐพ', '๋Š”', ' ๊ฐ€์žฅ', ' ๋น ', '๋ฅธ', ' ๋ฐฉ๋ฒ•', ' -', ' ์„œ', '๋ฉด', ' ๊ฒ€์ƒ‰', ',', ' ์š”์ฒญ', ' ํŒ', '๋ก€', ',', ' ์œ ', '์‚ฌ', ' ํŒ', '๋ก€', ',', ' AI', ' ์ถ”์ฒœ', ',', ' ํŒ', '๋ก€', ' ๋ฐ', ' ๋ฒ•', '๋ น', ' ๊ฒ€์ƒ‰', '.'] ['๋Œ€', '๋ฒ•', '์›', '๋ถ€ํ„ฐ', ' ํ•˜', '๊ธ‰', '์‹ฌ', ' ํŒ๋ก€', '๊นŒ์ง€', ' ์›', 'ํ•˜๋Š”', ' ํŒ๋ก€', '๋ฅผ', ' ์ฐพ', '๋Š”', ' ๊ฐ€์žฅ', ' ๋น ๋ฅธ', ' ๋ฐฉ๋ฒ•', ' -', ' ์„œ๋ฉด', ' ๊ฒ€์ƒ‰', ',', ' ์š”์ฒญ', ' ํŒ๋ก€', ',', ' ์œ ์‚ฌ', ' ํŒ๋ก€', ',', ' AI', ' ์ถ”์ฒœ', ',', ' ํŒ๋ก€', ' ๋ฐ', ' ๋ฒ•๋ น', ' ๊ฒ€์ƒ‰', '.']
๋ณธ ๋ฐœ๋ช…์€ ๊ธˆ์†ํŒ์˜ ๋‹ค์ˆ˜ ๋ถ€๋ถ„์„ ์—์นญ์‹œ์ผœ ํŠน์ • ๋ฌด๋Šฌ๋ชจ์–‘์„ ํ˜•์„ฑํ•˜๋Š” ๊ฑด์ถ•์šฉ ๊ธˆ์†์žฌ ์žฅ์‹ํŒ์œผ๋กœ ์ด๋ฃจ์–ด์ง„ ๊ฒƒ์— ํŠน์ง•์ด ์žˆ๋‹ค. ['๋ณธ', ' ๋ฐœ', '๋ช…', '์€', ' ๊ธˆ', '์†', 'ํŒ', '์˜', ' ๋‹ค', '์ˆ˜', ' ๋ถ€๋ถ„', '์„', ' ์—', '์นญ', '์‹œ', '์ผœ', ' ํŠน', '์ •', ' ๋ฌด', '๏ฟฝ', '๏ฟฝ', '๋ชจ', '์–‘', '์„', ' ํ˜•', '์„ฑ', 'ํ•˜๋Š”', ' ๊ฑด', '์ถ•', '์šฉ', ' ๊ธˆ', '์†', '์žฌ', ' ์žฅ', '์‹', 'ํŒ', '์œผ๋กœ', ' ์ด๋ฃจ', '์–ด์ง„', ' ๊ฒƒ', '์—', ' ํŠน', '์ง•', '์ด', ' ์žˆ๋‹ค', '.'] ['๋ณธ', ' ๋ฐœ๋ช…', '์€', ' ๊ธˆ์†', 'ํŒ', '์˜', ' ๋‹ค์ˆ˜', ' ๋ถ€๋ถ„', '์„', ' ์—์นญ', '์‹œ', '์ผœ', ' ํŠน์ •', ' ๋ฌด๋Šฌ', '๋ชจ', '์–‘', '์„', ' ํ˜•์„ฑ', 'ํ•˜๋Š”', ' ๊ฑด์ถ•', '์šฉ', ' ๊ธˆ์†', '์žฌ', ' ์žฅ์‹', 'ํŒ', '์œผ๋กœ', ' ์ด๋ฃจ์–ด์ง„', ' ๊ฒƒ', '์—', ' ํŠน์ง•', '์ด', ' ์žˆ๋‹ค', '.']
๊ณจ๋‹ค๊ณต์ฆ์€ ์™œ ์ƒ๊ธฐ๋Š”๊ฑฐ์—์š”? ๊ทธ๋ฆฌ๊ณ  ์น˜๋ฃŒํ•˜๋ ค๋ฉด ์–ด๋–ป๊ฒŒํ•ด์•ผํ•˜์ฃ ? ['๊ณจ', '๋‹ค', '๊ณต', '์ฆ', '์€', ' ์™œ', ' ์ƒ', '๊ธฐ๋Š”', '๊ฑฐ', '์—', '์š”', '?', ' ๊ทธ๋ฆฌ๊ณ ', ' ์น˜', '๋ฃŒ', 'ํ•˜๋ ค', '๋ฉด', ' ์–ด๋–ป๊ฒŒ', 'ํ•ด์•ผ', 'ํ•˜', '์ฃ ', '?'] ['๊ณจ', '๋‹ค', '๊ณต์ฆ', '์€', ' ์™œ', ' ์ƒ', '๊ธฐ๋Š”', '๊ฑฐ', '์—', '์š”', '?', ' ๊ทธ๋ฆฌ๊ณ ', ' ์น˜๋ฃŒ', 'ํ•˜๋ ค', '๋ฉด', ' ์–ด๋–ป๊ฒŒ', 'ํ•ด์•ผ', 'ํ•˜', '์ฃ ', '?']

Citation instructions

Llama-3-Luxia-Ko

@article{llama3luxiakomodelcard,
  title={Llama 3 Luxua Ko Model Card},
  author={AILabs@Saltux},
  year={2024},
  url={์ˆ˜์ •์˜ˆ์ •}
}

Original Llama-3

@article{llama3modelcard,
title={Llama 3 Model Card},
author={AI@Meta},
year={2024},
url={https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md}
}