Update README.md
Browse files
README.md
CHANGED
@@ -10,4 +10,169 @@ tags:
|
|
10 |
- meta
|
11 |
- llama-3
|
12 |
- pytorch
|
13 |
-
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
10 |
- meta
|
11 |
- llama-3
|
12 |
- pytorch
|
13 |
+
---
|
14 |
+
# Llama-3-Luxia-Ko-8B
|
15 |
+
**Built with Meta Llama 3**<br>
|
16 |
+
Meta์์ ์ถ์ํ Llama-3 ๋ชจ๋ธ vocab 128,256๊ฐ์ ํ๊ตญ์ด vocab 17,536๊ฐ๋ฅผ ์ถ๊ฐํ์ฌ ์ด 145,792๊ฐ์ vocab์ ํ๋ณดํ์์ต๋๋ค.<br>
|
17 |
+
์ดํ ๋ค์ํ ๋๋ฉ์ธ์ ํ๊ตญ์ด ์ฝํผ์ค ์ฝ 95GB๋ฅผ ์ถ๊ฐํ์ฌ ํ์ต๋ ํ๊ตญ์ด ํนํ ์ฌ์ ํ์ต ์ธ์ด๋ชจ๋ธ์
๋๋ค.
|
18 |
+
|
19 |
+
## Model Details
|
20 |
+
- **Overview:** ์ด ๋ชจ๋ธ์ Llama-3๋ชจ๋ธ์ ํ๊ตญ์ด vocab 17,536๊ฐ๋ฅผ ์ถ๊ฐ๋ก ํ์ตํ ๋ค, ํ๊ตญ์ด ์ฝํผ์ค๋ก ์ฌ์ ํ์ต๋ ํ๊ตญ์ด ํนํ ์ธ์ด๋ชจ๋ธ์
๋๋ค.
|
21 |
+
- **Meta Llama-3:** Meta developed and released the Meta Llama 3 family of large language models (LLMs), a collection of pretrained and instruction tuned generative text models in 8 and 70B sizes. The Llama 3 instruction tuned models are optimized for dialogue use cases and outperform many of the available open source chat models on common industry benchmarks. Further, in developing these models, we took great care to optimize helpfulness and safety.
|
22 |
+
|
23 |
+
### Model Description
|
24 |
+
- **Developed by:** Saltlux AIlabs ์ธ์ด๋ชจ๋ธํ
|
25 |
+
- **Vatiations:** Llama-3-Luxia-Ko 8B ํ๋ผ๋ฏธํฐ ์์ค์ ์ฌ์ ํ์ต ๋ชจ๋ธ
|
26 |
+
- **Input:** ํ
์คํธ๋ง ์
๋ ฅํฉ๋๋ค.
|
27 |
+
- **Output:** ํ
์คํธ์ ์ฝ๋๋ฅผ ์์ฑํฉ๋๋ค.
|
28 |
+
- **Model Architecture:** Llama-3-Luxia-Ko ๋ชจ๋ธ์ Meta์์ ์ถ์ํ Llama-3์ ๊ฐ์ auto-regressive ์ธ์ด๋ชจ๋ธ๋ก ์ต์ ํ๋ transformer ์ํคํ
์ณ๋ฅผ ์ฌ์ฉํฉ๋๋ค.
|
29 |
+
- **Model Release Date:** April 30, 2024.
|
30 |
+
- **Status:** ์ด ๋ชจ๋ธ์ ์คํ๋ผ์ธ ๋ฐ์ดํฐ ์ธํธ์์ ํ๋ จ๋ Staticํ ๋ชจ๋ธ์
๋๋ค. ์ปค๋ฎค๋ํฐ์ ํผ๋๋ฐฑ์ ํตํด ๋ชจ๋ธ ์์ ์ฑ์ ๊ฐ์ ํจ์ ๋ฐ๋ผ ์กฐ์ ๋ ๋ชจ๋ธ์ ํฅํ ๋ฒ์ ์ด ์ถ์๋ ์์ ์
๋๋ค.
|
31 |
+
- **License:** Llama3 License: [https://llama.meta.com/llama3/license](https://llama.meta.com/llama3/license)
|
32 |
+
|
33 |
+
## Intended Use
|
34 |
+
- **Intended Use Cases:** Ko-Llama-3๋ ํ๊ตญ์ด ํนํ ์ธ์ด๋ชจ๋ธ๋ก ์์
์ฉ ๋ฐ ์ฐ๊ตฌ์ฉ์ผ๋ก ์ ์๋์์ผ๋ฉฐ ์ฌ์ ํ์ต ์ธ์ด๋ชจ๋ธ์
๋๋ค.
|
35 |
+
|
36 |
+
### How to Use
|
37 |
+
์ด ์ ์ฅ์์๋ transformers์ ํจ๊ป ์ฌ์ฉํ ์ ์๋ ์ฝ๋๋ฒ ์ด์ค์ `Llama-3-Luxia-Ko-8B`๊ฐ ํฌํจ๋์ด ์์ต๋๋ค.
|
38 |
+
|
39 |
+
```
|
40 |
+
import transformers
|
41 |
+
import torch
|
42 |
+
|
43 |
+
model_id = "Saltlux/Llama-3-Luxia-Ko-8B"
|
44 |
+
|
45 |
+
pipeline = transformers.pipeline(
|
46 |
+
"text-generation", model=model_id, model_kwargs={"torch_dtype": torch.bfloat16}, device_map="auto"
|
47 |
+
)
|
48 |
+
pipeline("<|begin_of_text|>์๋
ํ์ธ์~!")
|
49 |
+
|
50 |
+
```
|
51 |
+
|
52 |
+
## Training Details
|
53 |
+
|
54 |
+
### Training Data
|
55 |
+
- **Overview:** Ko-Llama-3๋ ๊ณต๊ฐ์ ์ผ๋ก ์ฌ์ฉ ๊ฐ๋ฅํ ์ฝํผ์ค์ ํจ๊ป ์์ฒด์ ์ผ๋ก ์์งํ 2023๋
์ต์ ๋ด์ค๋ฐ์ดํฐ๋ฅผ ํฌํจํ์ฌ ์ฝ 95GB ์ฝํผ์ค๋ก ์ฌ์ ํ์ต ๋์์ต๋๋ค.<br>
|
56 |
+
์ฌ์ ํ์ต ๋ฐ์ดํฐ์ ๋๋ฉ์ธ์ ๋ฒ๋ฅ , ํนํ, ์๋ฃ, ์ญ์ฌ ๋ถ์ผ ๋ฑ์ ๋ค์ํ ๋๋ฉ์ธ์ด ํฌํจ๋์ด์์ต๋๋ค.
|
57 |
+
|
58 |
+
#### Preprocessing
|
59 |
+
ํ๊ตญ์ด ๊ณต๊ฐ ์ฝํผ์ค ๋ฐ ์์ฒด ์์ง ๋ฐ์ดํฐ ์ฝ 1TB ์์ค์์ Saltlux๊ฐ ์์ฒด ์ ์ํ ์ ๊ทํ ํด์ ํ์ฉํ์ฌ ์ ์ฒ๋ฆฌ๋ฅผ ์ํํฉ๋๋ค.
|
60 |
+
|
61 |
+
[Document Delete]
|
62 |
+
- ์งง์ ํ
์คํธ (120 ์์ ๋ฏธ๋ง) ํํฐ๋ง
|
63 |
+
- ๊ธด ํ
์คํธ (100,000 ์์ ์ด์) ํํฐ๋ง
|
64 |
+
- ํ๊ตญ์ด ๋น์จ์ด 25% ๋ฏธ๋ง์ธ ๊ฒฝ์ฐ ํํฐ๋ง
|
65 |
+
- ๊ธ๋จธ๋ฆฌ ๊ธฐํธ๊ฐ 90% ์ด์์ธ ๊ฒฝ์ฐ ํํฐ๋ง
|
66 |
+
- ์์ค์ด ์๋ ๊ฒฝ์ฐ ํํฐ๋ง
|
67 |
+
|
68 |
+
[Document Modify]
|
69 |
+
- ์ด๋ชจ์
๋ฌธ์ ์ ๊ทํ (์ต๋ 2๊ฐ๊น์ง ํ์ฉ)
|
70 |
+
- ๊ฐํ ๋ฌธ์ ์ ๊ทํ (์ต๋ 2๊ฐ๊น์ง ํ์ฉ)
|
71 |
+
- HTML ํ๊ทธ ์ ๊ฑฐ
|
72 |
+
- ๋ถํ์ํ ๋ฌธ์ ์ ๊ฑฐ
|
73 |
+
- ๋น์๋ณํ ์งํ (ํด๋ํฐ ๋ฒํธ, ๊ณ์ข๋ฒํธ ๋ฑ์ ๊ฐ์ธ์ ๋ณด)
|
74 |
+
- ์ค๋ณต ๋ฌธ์์ด ์ ๊ฑฐ
|
75 |
+
|
76 |
+
#### Random Sampling
|
77 |
+
์ ์ฒด ํ๋ณดํ ์ฝํผ์ค ์ค ์ฐ์ ์ ์ผ๋ก ๋ฐ๋์ ํ์ตํด์ผํ๋ ์ฝํผ์ค์ด๋ฉด์, ๋ค์ํ ๋๋ฉ์ธ์์ ์ํ๋ง ํ๊ธฐ ์ํด ์งํํฉ๋๋ค.<br>
|
78 |
+
Saltlux์ ์ํ๋ง ๋ฐฉ๋ฒ์ ์๋์ ๊ฐ์ต๋๋ค.
|
79 |
+
- ์ฝํผ์ค์ ์ฉ๋์ด 10GB ์ด์์ธ ๋ฐ์ดํฐ์ ํํด์ ๋๋ค ์ํ๋ง ์งํ
|
80 |
+
- ์ํ๋ง ๋ฐฉ์์ ์
๋ ฅ ์ฝํผ์ค์์ ๋ช
์ฌ/๋ณตํฉ๋ช
์ฌ๋ฅผ ์ถ์ถํด ๋ฌธ์ ๋ด์ ๋ช
์ฌ ์ถ์ถ ๋น๋ ์๋ฅผ ์ธ๋ฉฐ, ์ถ์ถ ๋น๋์ ์๊ณ๊ฐ์ ์ ํด ๋์ผ๋ฉด ํด๋น ๋ช
์ฌ/๋ณตํฉ๋ช
์ฌ๊ฐ ์๋ ๋ฌธ์๋ฅผ ์ํ๋งํ์ง ์์
|
81 |
+
- ํ์ต๋ฐ์ดํฐ ์ถ์ถ ๋ช
์ฌ๋น๋ ์๊ณ๊ฐ์ 1,000์ผ๋ก ํด์ ๋๋ค ์ํ๋ง ์งํํ์ฌ ๋ค์ํ ๋๋ฉ์ธ, ๋ฌธ์๋ฅผ ํ์ต๋ฐ์ดํฐ๋ก ์ ์
|
82 |
+
|
83 |
+
|
84 |
+
### Hardware and Hyperparameters
|
85 |
+
- **Overview:** Saltlux-Ko-Llama-3 ํ์ต์ ํ์ฉํ ์ฅ๋น์ ํ์ต ํ๋ผ๋ฏธํฐ์
๋๋ค.
|
86 |
+
|
87 |
+
#### Use Device
|
88 |
+
NVIDIA H100 80GB * 8GA์ ํ์ฉํ์ฌ ๋ชจ๋ธ ์ฌ์ ํ์ต์ ์งํํ์์ต๋๋ค.
|
89 |
+
|
90 |
+
#### Training Hyperparameters
|
91 |
+
|Model|Params|Context length|GQA|Learning rate|Batch|Precision|Epoch|
|
92 |
+
|-------------|---|---|---|---|---|---|---|
|
93 |
+
|Saltlux-Ko-Llama-3|8B|8k|Yes|5e-6|128|bf16|1.0|
|
94 |
+
|
95 |
+
### Tokenizer
|
96 |
+
- **Overview:** ํ๊ตญ์ด ํ ํฐ๋ค์ ๋ค ์ปค๋ฒํ ์ ์๋ ์์ค์ ๊ณต๊ฐ ๋ง๋ญ์น ๋ฐ์ดํฐ 87.85GB ๋ก Llama-3 ํ๊ตญ์ด ํ ํฌ๋์ด์ ํ์ต์ ์งํํ์์ต๋๋ค.
|
97 |
+
|
98 |
+
#### Tokenizer Train Dataset
|
99 |
+
ํ๊ตญ์ด ํ ํฌ๋์ด๏ฟฝ๏ฟฝ๏ฟฝ ํ์ต์ ์ฌ์ฉํ ๋ฐ์ดํฐ๋ ๋ด์ค, ๋ธ๋ก๊ทธ, ํ๊ตญ์ด ์ํค๋ฐฑ๊ณผ, ๋ํ, ์ ๋ฌธ ๋๋ฉ์ธ(๋ฒ๋ฅ , ํนํ ๋ฑ) ๊ณต๊ฐ๋ ๋ค์ํ ํ๊ตญ์ด ์ฝํผ์ค๋ฅผ ํ์ฉํ์์.
|
100 |
+
|
101 |
+
#### Tokenizer Result
|
102 |
+
<table>
|
103 |
+
<tr>
|
104 |
+
<td><strong>์
๋ ฅ</strong>
|
105 |
+
</td>
|
106 |
+
<td><strong>Llama-3</strong>
|
107 |
+
</td>
|
108 |
+
<td><strong>Ko-Llama-3</strong>
|
109 |
+
</td>
|
110 |
+
</tr>
|
111 |
+
<tr>
|
112 |
+
<td>์์ฆ ๋ ์จ๊ฐ ๋๋ฌด ์ค๋ฝ๊ฐ๋ฝํด์ ์์ง๋ ๊ฒจ์ธ์ท์ ๋ชป์น์ ์ด์..
|
113 |
+
</td>
|
114 |
+
<td>['์', '์ฆ', ' ๋ ', '์จ', '๊ฐ', ' ๋๋ฌด', ' ์ค', '๋ฝ', '๊ฐ', '๋ฝ', 'ํด์', ' ์์ง', '๋', ' ๊ฒจ', '์ธ', '๏ฟฝ', '๏ฟฝ', '์', ' ๋ชป', '์น', '์ ', '์ด์', '..']
|
115 |
+
</td>
|
116 |
+
<td>['์์ฆ', ' ๋ ์จ', '๊ฐ', ' ๋๋ฌด', ' ์ค๋ฝ', '๊ฐ๋ฝ', 'ํด์', ' ์์ง', '๋', ' ๊ฒจ์ธ', '์ท', '์', ' ๋ชป', '์น', '์ ', '์ด์', '..']
|
117 |
+
</td>
|
118 |
+
</tr>
|
119 |
+
<tr>
|
120 |
+
<td>๋ง์๋ ๋ฐฅ์ ๋์
จ์ต๋๊น? ๋ง์ด ๊ถ๊ธํ๋ค์.
|
121 |
+
</td>
|
122 |
+
<td>['๋ง', '์๋', ' ๏ฟฝ', '๏ฟฝ', '์', ' ๋', '์
จ', '์ต', '๋๊น', '?', ' ๋ง', '์ด', ' ๊ถ๊ธ', 'ํ', '๋ค์', '.']
|
123 |
+
</td>
|
124 |
+
<td>['๋ง', '์๋', ' ๋ฐฅ', '์', ' ๋์
จ', '์ต', '๋๊น', '?', ' ๋ง', '์ด', ' ๊ถ๊ธ', 'ํ', '๋ค์', '.']
|
125 |
+
</td>
|
126 |
+
</tr>
|
127 |
+
<tr>
|
128 |
+
<td>๋๋ฒ์๋ถํฐ ํ๊ธ์ฌ ํ๋ก๊น์ง ์ํ๋ ํ๋ก๋ฅผ ์ฐพ๋ ๊ฐ์ฅ ๋น ๋ฅธ ๋ฐฉ๋ฒ - ์๋ฉด ๊ฒ์, ์์ฒญ ํ๋ก, ์ ์ฌ ํ๋ก, AI ์ถ์ฒ, ํ๋ก ๋ฐ ๋ฒ๋ น ๊ฒ์.
|
129 |
+
</td>
|
130 |
+
<td>['๋', '๋ฒ', '์', '๋ถํฐ', ' ํ', '๊ธ', '์ฌ', ' ํ', '๋ก', '๊น์ง', ' ์', 'ํ๋', ' ํ', '๋ก', '๋ฅผ', ' ์ฐพ', '๋', ' ๊ฐ์ฅ', ' ๋น ', '๋ฅธ', ' ๋ฐฉ๋ฒ', ' -', ' ์', '๋ฉด', ' ๊ฒ์', ',', ' ์์ฒญ', ' ํ', '๋ก', ',', ' ์ ', '์ฌ', ' ํ', '๋ก', ',', ' AI', ' ์ถ์ฒ', ',', ' ํ', '๋ก', ' ๋ฐ', ' ๋ฒ', '๋ น', ' ๊ฒ์', '.']
|
131 |
+
</td>
|
132 |
+
<td>['๋', '๋ฒ', '์', '๋ถํฐ', ' ํ', '๊ธ', '์ฌ', ' ํ๋ก', '๊น์ง', ' ์', 'ํ๋', ' ํ๋ก', '๋ฅผ', ' ์ฐพ', '๋', ' ๊ฐ์ฅ', ' ๋น ๋ฅธ', ' ๋ฐฉ๋ฒ', ' -', ' ์๋ฉด', ' ๊ฒ์', ',', ' ์์ฒญ', ' ํ๋ก', ',', ' ์ ์ฌ', ' ํ๋ก', ',', ' AI', ' ์ถ์ฒ', ',', ' ํ๋ก', ' ๋ฐ', ' ๋ฒ๋ น', ' ๊ฒ์', '.']
|
133 |
+
</td>
|
134 |
+
</tr>
|
135 |
+
<tr>
|
136 |
+
<td>๋ณธ ๋ฐ๋ช
์ ๊ธ์ํ์ ๋ค์ ๋ถ๋ถ์ ์์นญ์์ผ ํน์ ๋ฌด๋ฌ๋ชจ์์ ํ์ฑํ๋ ๊ฑด์ถ์ฉ ๊ธ์์ฌ ์ฅ์ํ์ผ๋ก ์ด๋ฃจ์ด์ง ๊ฒ์ ํน์ง์ด ์๋ค.
|
137 |
+
</td>
|
138 |
+
<td>['๋ณธ', ' ๋ฐ', '๋ช
', '์', ' ๊ธ', '์', 'ํ', '์', ' ๋ค', '์', ' ๋ถ๋ถ', '์', ' ์', '์นญ', '์', '์ผ', ' ํน', '์ ', ' ๋ฌด', '๏ฟฝ', '๏ฟฝ', '๋ชจ', '์', '์', ' ํ', '์ฑ', 'ํ๋', ' ๊ฑด', '์ถ', '์ฉ', ' ๊ธ', '์', '์ฌ', ' ์ฅ', '์', 'ํ', '์ผ๋ก', ' ์ด๋ฃจ', '์ด์ง', ' ๊ฒ', '์', ' ํน', '์ง', '์ด', ' ์๋ค', '.']
|
139 |
+
</td>
|
140 |
+
<td>['๋ณธ', ' ๋ฐ๋ช
', '์', ' ๊ธ์', 'ํ', '์', ' ๋ค์', ' ๋ถ๋ถ', '์', ' ์์นญ', '์', '์ผ', ' ํน์ ', ' ๋ฌด๋ฌ', '๋ชจ', '์', '์', ' ํ์ฑ', 'ํ๋', ' ๊ฑด์ถ', '์ฉ', ' ๊ธ์', '์ฌ', ' ์ฅ์', 'ํ', '์ผ๋ก', ' ์ด๋ฃจ์ด์ง', ' ๊ฒ', '์', ' ํน์ง', '์ด', ' ์๋ค', '.']
|
141 |
+
</td>
|
142 |
+
</tr>
|
143 |
+
<tr>
|
144 |
+
<td>๊ณจ๋ค๊ณต์ฆ์ ์ ์๊ธฐ๋๊ฑฐ์์? ๊ทธ๋ฆฌ๊ณ ์น๋ฃํ๋ ค๋ฉด ์ด๋ป๊ฒํด์ผํ์ฃ ?
|
145 |
+
</td>
|
146 |
+
<td>['๊ณจ', '๋ค', '๊ณต', '์ฆ', '์', ' ์', ' ์', '๊ธฐ๋', '๊ฑฐ', '์', '์', '?', ' ๊ทธ๋ฆฌ๊ณ ', ' ์น', '๋ฃ', 'ํ๋ ค', '๋ฉด', ' ์ด๋ป๊ฒ', 'ํด์ผ', 'ํ', '์ฃ ', '?']
|
147 |
+
</td>
|
148 |
+
<td>['๊ณจ', '๋ค', '๊ณต์ฆ', '์', ' ์', ' ์', '๊ธฐ๋', '๊ฑฐ', '์', '์', '?', ' ๊ทธ๋ฆฌ๊ณ ', ' ์น๋ฃ', 'ํ๋ ค', '๋ฉด', ' ์ด๋ป๊ฒ', 'ํด์ผ', 'ํ', '์ฃ ', '?']
|
149 |
+
</td>
|
150 |
+
</tr>
|
151 |
+
</table>
|
152 |
+
|
153 |
+
## Model Card Authors
|
154 |
+
Saltlux AILabs ์ธ์ด๋ชจ๋ธํ
|
155 |
+
|
156 |
+
## Model Card Contact
|
157 |
+
Saltlux AILabs ์ธ์ด๋ชจ๋ธํ
|
158 |
+
|
159 |
+
## Citation instructions
|
160 |
+
**Saltlux-Ko-Llama-3**
|
161 |
+
```
|
162 |
+
@article{Kollama3modelcard,
|
163 |
+
title={Satlux Ko Llama 3 Model Card},
|
164 |
+
author={AILabs@Saltux},
|
165 |
+
year={2024},
|
166 |
+
url={์์ ์์ }
|
167 |
+
}
|
168 |
+
```
|
169 |
+
|
170 |
+
**Original Llama-3**
|
171 |
+
```
|
172 |
+
@article{llama3modelcard,
|
173 |
+
title={Llama 3 Model Card},
|
174 |
+
author={AI@Meta},
|
175 |
+
year={2024},
|
176 |
+
url={https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md}
|
177 |
+
}
|
178 |
+
```
|