File size: 13,281 Bytes
9ba8455 0b1aeb4 a7bd71a f48cbb6 0f05ab2 f48cbb6 a7bd71a 4d3013c a7bd71a f48cbb6 0f05ab2 f48cbb6 a7bd71a ae8ec45 a7bd71a 0f05ab2 a7bd71a f48cbb6 a7bd71a f48cbb6 9ec8ba5 6fc7fc1 f48cbb6 c025f22 a7bd71a 1e75918 0f05ab2 1e75918 a7bd71a f48cbb6 6ae5e71 d3ef354 6ae5e71 a7bd71a e0cb2fe 4dbd174 a7bd71a c025f22 a7bd71a 4dbd174 c025f22 4dbd174 e0cb2fe 5237168 e0cb2fe 5237168 e0cb2fe 5237168 e0cb2fe 5237168 e0cb2fe 128163a e0cb2fe 5237168 e0cb2fe f48cbb6 c025f22 a7bd71a f3cd592 57d542a a7bd71a 57d542a a7bd71a |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 |
---
license: llama3
language:
- en
- ko
pipeline_tag: text-generation
tags:
- saltlux
- luxia
- meta
- llama-3
- pytorch
---
# Model Details
Saltlux, AI Labs ์ธ์ด๋ชจ๋ธํ์์ ํ์ต ๋ฐ ๊ณต๊ฐํ <b>Ko-Llama3-Luxia-8B</b> ๋ชจ๋ธ์ Meta์์ ์ถ์ํ Llama-3-8B ๋ชจ๋ธ์ <b>ํ๊ตญ์ด์ ํนํ</b>ํ ๋ชจ๋ธ์
๋๋ค.<br><br>
์์ฒด ๋ณด์ ํ๊ณ ์๋ 1TB ์ด์์ ํ๊ตญ์ด ํ์ต ๋ฐ์ดํฐ ์ค, ์ฝ 100GB ์ ๋์ ๋ฐ์ดํฐ๋ฅผ ์ ๋ณํ์ฌ ์ฌ์ ํ์ต์ ํ์ฉํ์์ต๋๋ค.<br><br>
๋ํ ๊ณต๊ฐ๋ Llama-3 Tokenizer๋ฅผ ํ๊ตญ์ด๋ก ํ์ฅํ๊ณ ์ฌ์ ํ์ต์ ํ์ฉํ์ต๋๋ค.
- **Meta Llama-3:** Meta developed and released the Meta Llama 3 family of large language models (LLMs), a collection of pretrained and instruction tuned generative text models in 8 and 70B sizes. The Llama 3 instruction tuned models are optimized for dialogue use cases and outperform many of the available open source chat models on common industry benchmarks. Further, in developing these models, we took great care to optimize helpfulness and safety.
- **License:** Llama3 License [https://llama.meta.com/llama3/license](https://llama.meta.com/llama3/license)
### Intended Use
Ko-Llama3-Luxia-8B๋ ์ฐ๊ตฌ์ฉ์ผ๋ก ์ ์๋์์ผ๋ฉฐ, ๋ค์ํ ์์ฐ์ด ์์ฑ ํ์คํฌ๋ฅผ ์ํด ์์ ๋กญ๊ฒ ํ์ต ๋ฐ ํ์ฉํ ์ ์์ต๋๋ค.
### How to Use
ํด๋น ๋ชจ๋ธ ์นด๋์๋ `Ko-Llama3-Luxia-8B` ๋ชจ๋ธ๊ณผ transformers ๋ผ์ด๋ธ๋ฌ๋ฆฌ ๊ธฐ๋ฐ์ ์์ ์ฝ๋๋ฅผ ์ ๊ณตํฉ๋๋ค.
```
import transformers
import torch
model_id = "saltlux/Ko-Llama3-Luxia-8B"
pipeline = transformers.pipeline(
"text-generation", model=model_id, model_kwargs={"torch_dtype": torch.bfloat16}, device_map="auto"
)
pipeline("<|begin_of_text|>์๋
ํ์ธ์. ์ํธ๋ฃฉ์ค AI Labs ์
๋๋ค.")
```
# Training Details
ํ๊ตญ์ด ํนํ๋ฅผ ์ํ ์ฌ์ ํ์ต ๋ฐ์ดํฐ๋ Saltlux์์ ๋ณด์ ํ ๋ด์ค, ๋ฒ๋ฅ , ํนํ, ์๋ฃ, ์ญ์ฌ, ์ฌํ, ๋ฌธํ, ๋ํ(๋ฌธ์ด/๊ตฌ์ด) ๋ฑ์ ๋๋ฉ์ธ์ผ๋ก ๊ตฌ์ฑ๋ 100GB ์์ค์ ์ฝํผ์ค(~2023๋
)๋ฅผ ํ์ฉํ์์ต๋๋ค.<br>
- ํ์ฌ ์ ๊ณต๋๋ ๋ชจ๋ธ์ 1 Epoch ํ์ต๋ ๋ชจ๋ธ์
๋๋ค.<br>
### Use Device
์ฌ์ ํ์ต์ NVIDIA H100 80GB * 8EA ์ฅ๋น๋ฅผ ํ์ฉํ์ฌ ์งํํ์์ต๋๋ค.
#### Training Hyperparameters
<table>
<tr>
<td><strong>Model</strong>
</td>
<td><strong>Params</strong>
</td>
<td><strong>Context length</strong>
</td>
<td><strong>GQA</strong>
</td>
<td><strong>Learning rate</strong>
</td>
<td><strong>Batch</strong>
</td>
<td><strong>Precision</strong>
</td>
</tr>
<tr>
<td>Ko-Llama3-Luxia-8B
</td>
<td>8B
</td>
<td>8k
</td>
<td>yes
</td>
<td>1e-5
</td>
<td>128
</td>
<td>bf16
</td>
</tr>
</table>
### Tokenizer
Llama-3-Tokenizer๋ฅผ ํ๊ตญ์ด ํนํํ๊ธฐ ์ํด ํ๊ตญ์ด ํ ํฐ 17,536๊ฐ๋ฅผ ์ถ๊ฐํ๊ณ ํ์ฉํ์์ต๋๋ค.
<table>
<tr>
<td><strong>Model</strong>
</td>
<td><strong>Vocab Size</strong>
</td>
</tr>
<tr>
<td>Llama-3
</td>
<td>128,256
</td>
</tr>
<tr>
<td>Ko-Llama3-Luxia-8B
</td>
<td>145,792
</td>
</tr>
</table>
### Tokenizer Result
+ Ko
<table>
<tr>
<td><strong>์
๋ ฅ</strong>
</td>
<td><strong>Llama-3</strong>
</td>
<td><strong>Ko-Llama3-Luxia-8B</strong>
</td>
</tr>
<tr>
<td>์์ฆ ๋ ์จ๊ฐ ๋๋ฌด ์ค๋ฝ๊ฐ๋ฝํด์ ์์ง๋ ๊ฒจ์ธ์ท์ ๋ชป์น์ ์ด์..
</td>
<td>['์', '์ฆ', ' ๋ ', '์จ', '๊ฐ', ' ๋๋ฌด', ' ์ค', '๋ฝ', '๊ฐ', '๋ฝ', 'ํด์', ' ์์ง', '๋', ' ๊ฒจ', '์ธ', '๏ฟฝ', '๏ฟฝ', '์', ' ๋ชป', '์น', '์ ', '์ด์', '..']
</td>
<td>['์์ฆ', ' ๋ ์จ', '๊ฐ', ' ๋๋ฌด', ' ์ค๋ฝ', '๊ฐ๋ฝ', 'ํด์', ' ์์ง', '๋', ' ๊ฒจ์ธ', '์ท', '์', ' ๋ชป', '์น', '์ ', '์ด์', '..']
</td>
</tr>
<tr>
<td>๋ง์๋ ๋ฐฅ์ ๋์
จ์ต๋๊น? ๋ง์ด ๊ถ๊ธํ๋ค์.
</td>
<td>['๋ง', '์๋', ' ๏ฟฝ', '๏ฟฝ', '์', ' ๋', '์
จ', '์ต', '๋๊น', '?', ' ๋ง', '์ด', ' ๊ถ๊ธ', 'ํ', '๋ค์', '.']
</td>
<td>['๋ง', '์๋', ' ๋ฐฅ', '์', ' ๋์
จ', '์ต', '๋๊น', '?', ' ๋ง', '์ด', ' ๊ถ๊ธ', 'ํ', '๋ค์', '.']
</td>
</tr>
<tr>
<td>๋๋ฒ์๋ถํฐ ํ๊ธ์ฌ ํ๋ก๊น์ง ์ํ๋ ํ๋ก๋ฅผ ์ฐพ๋ ๊ฐ์ฅ ๋น ๋ฅธ ๋ฐฉ๋ฒ - ์๋ฉด ๊ฒ์, ์์ฒญ ํ๋ก, ์ ์ฌ ํ๋ก, AI ์ถ์ฒ, ํ๋ก ๋ฐ ๋ฒ๋ น ๊ฒ์.
</td>
<td>['๋', '๋ฒ', '์', '๋ถํฐ', ' ํ', '๊ธ', '์ฌ', ' ํ', '๋ก', '๊น์ง', ' ์', 'ํ๋', ' ํ', '๋ก', '๋ฅผ', ' ์ฐพ', '๋', ' ๊ฐ์ฅ', ' ๋น ', '๋ฅธ', ' ๋ฐฉ๋ฒ', ' -', ' ์', '๋ฉด', ' ๊ฒ์', ',', ' ์์ฒญ', ' ํ', '๋ก', ',', ' ์ ', '์ฌ', ' ํ', '๋ก', ',', ' AI', ' ์ถ์ฒ', ',', ' ํ', '๋ก', ' ๋ฐ', ' ๋ฒ', '๋ น', ' ๊ฒ์', '.']
</td>
<td>['๋', '๋ฒ', '์', '๋ถํฐ', ' ํ', '๊ธ', '์ฌ', ' ํ๋ก', '๊น์ง', ' ์', 'ํ๋', ' ํ๋ก', '๋ฅผ', ' ์ฐพ', '๋', ' ๊ฐ์ฅ', ' ๋น ๋ฅธ', ' ๋ฐฉ๋ฒ', ' -', ' ์๋ฉด', ' ๊ฒ์', ',', ' ์์ฒญ', ' ํ๋ก', ',', ' ์ ์ฌ', ' ํ๋ก', ',', ' AI', ' ์ถ์ฒ', ',', ' ํ๋ก', ' ๋ฐ', ' ๋ฒ๋ น', ' ๊ฒ์', '.']
</td>
</tr>
<tr>
<td>๋ณธ ๋ฐ๋ช
์ ๊ธ์ํ์ ๋ค์ ๋ถ๋ถ์ ์์นญ์์ผ ํน์ ๋ฌด๋ฌ๋ชจ์์ ํ์ฑํ๋ ๊ฑด์ถ์ฉ ๊ธ์์ฌ ์ฅ์ํ์ผ๋ก ์ด๋ฃจ์ด์ง ๊ฒ์ ํน์ง์ด ์๋ค.
</td>
<td>['๋ณธ', ' ๋ฐ', '๋ช
', '์', ' ๊ธ', '์', 'ํ', '์', ' ๋ค', '์', ' ๋ถ๋ถ', '์', ' ์', '์นญ', '์', '์ผ', ' ํน', '์ ', ' ๋ฌด', '๏ฟฝ', '๏ฟฝ', '๋ชจ', '์', '์', ' ํ', '์ฑ', 'ํ๋', ' ๊ฑด', '์ถ', '์ฉ', ' ๊ธ', '์', '์ฌ', ' ์ฅ', '์', 'ํ', '์ผ๋ก', ' ์ด๋ฃจ', '์ด์ง', ' ๊ฒ', '์', ' ํน', '์ง', '์ด', ' ์๋ค', '.']
</td>
<td>['๋ณธ', ' ๋ฐ๋ช
', '์', ' ๊ธ์', 'ํ', '์', ' ๋ค์', ' ๋ถ๋ถ', '์', ' ์์นญ', '์', '์ผ', ' ํน์ ', ' ๋ฌด๋ฌ', '๋ชจ', '์', '์', ' ํ์ฑ', 'ํ๋', ' ๊ฑด์ถ', '์ฉ', ' ๊ธ์', '์ฌ', ' ์ฅ์', 'ํ', '์ผ๋ก', ' ์ด๋ฃจ์ด์ง', ' ๊ฒ', '์', ' ํน์ง', '์ด', ' ์๋ค', '.']
</td>
</tr>
<tr>
<td>๊ณจ๋ค๊ณต์ฆ์ ์ ์๊ธฐ๋๊ฑฐ์์? ๊ทธ๋ฆฌ๊ณ ์น๋ฃํ๋ ค๋ฉด ์ด๋ป๊ฒํด์ผํ์ฃ ?
</td>
<td>['๊ณจ', '๋ค', '๊ณต', '์ฆ', '์', ' ์', ' ์', '๊ธฐ๋', '๊ฑฐ', '์', '์', '?', ' ๊ทธ๋ฆฌ๊ณ ', ' ์น', '๋ฃ', 'ํ๋ ค', '๋ฉด', ' ์ด๋ป๊ฒ', 'ํด์ผ', 'ํ', '์ฃ ', '?']
</td>
<td>['๊ณจ', '๋ค', '๊ณต์ฆ', '์', ' ์', ' ์', '๊ธฐ๋', '๊ฑฐ', '์', '์', '?', ' ๊ทธ๋ฆฌ๊ณ ', ' ์น๋ฃ', 'ํ๋ ค', '๋ฉด', ' ์ด๋ป๊ฒ', 'ํด์ผ', 'ํ', '์ฃ ', '?']
</td>
</tr>
</table>
+ En
<table>
<tr>
<td><strong>์
๋ ฅ</strong>
</td>
<td><strong>Llama-3</strong>
</td>
<td><strong>Ko-Llama3-Luxia-8B</strong>
</td>
</tr>
<tr>
<td>Korean cuisine, hanguk yori, or hansik, has evolved through centuries of social and political change.
</td>
<td>['K', 'orean', ' cuisine', ',', ' h', 'angu', 'k', ' y', 'ori', ',', ' or', ' hans', 'ik', ',', ' has', ' evolved', ' through', ' centuries', ' of', ' social', ' and', ' political', ' change', '.']
</td>
<td>['K', 'orean', ' cuisine', ',', ' h', 'angu', 'k', ' y', 'ori', ',', ' or', ' hans', 'ik', ',', ' has', ' evolved', ' through', ' centuries', ' of', ' social', ' and', ' political', ' change', '.']
</td>
</tr>
<tr>
<td>Son Heung-min is a South Korean professional footballer who plays as a forward for and captains both Premier League club Tottenham Hotspur and the South Korea national team.
</td>
<td>['Son', ' He', 'ung', '-min', ' is', ' a', ' South', ' Korean', ' professional', ' football', 'er', ' who', ' plays', ' as', ' a', ' forward', ' for', ' and', ' captains', ' both', ' Premier', ' League', ' club', ' Tottenham', ' Hot', 'sp', 'ur', ' and', ' the', ' South', ' Korea', ' national', ' team', '.']
</td>
<td>['Son', ' He', 'ung', '-min', ' is', ' a', ' South', ' Korean', ' professional', ' football', 'er', ' who', ' plays', ' as', ' a', ' forward', ' for', ' and', ' captains', ' both', ' Premier', ' League', ' club', ' Tottenham', ' Hot', 'sp', 'ur', ' and', ' the', ' South', ' Korea', ' national', ' team', '.']
</td>
</tr>
</table>
### Inference Result
<table>
<tr>
<td><strong>Llama-3</strong>
</td>
<td><strong>Ko-Llama3-Luxia-8B</strong>
</td>
</tr>
<tr>
<td><b>์บ๋ฆฌ๋น์๋ฒ ์ด๋ ์ฉ์ธ์</b> ์์นํ ์บ๋ฆฌ๋น์ ๋ฒ ์ด์ ๊ณต์ ์จ๋ผ์ธ ์นด์ง๋
ธ์
๋๋ค. ์บ๋ฆฌ๋น์ ๋ฒ ์ด๋ 1994๋
๋ถํฐ ์ด์๋์ด ์์ผ๋ฉฐ, 2005๋
์ ์จ๋ผ์ธ์ผ๋ก ์คํํ์ต๋๋ค. ์ด ์ฌ์ดํธ๋ ์๊ตญ์์ ์ด์๋๋ ๋ผ์ด์ผ์ค๋ฅผ ๊ฐ์ง๊ณ ์์ผ๋ฉฐ, ์๊ตญ ์ ๋ถ๊ฐ ์น์ธํ๊ณ ์์ต๋๋ค.\n์บ๋ฆฌ๋น์ ๋ฒ ์ด๋ ๋ค์ํ ๊ฒ์์ ์ ๊ณตํฉ๋๋ค. ์ฌ๋กฏ ๋จธ์ , ๋ธ๋์ญ, ๋ฃฐ๋ , ํฌ์ปค, ๋ฐ์นด๋ผ ๋ฑ์ด ์์ต๋๋ค. ๋ํ, ์บ๋ฆฌ๋น์ ๋ฒ ์ด๋ ๋ค์ํ ๋ณด๋์ค์ ํ๋ก๋ชจ์
์ ์ ๊ณตํฉ๋๋ค. ์๋ฅผ ๋ค์ด, ์ ๊ท ํ์์๊ฒ๋ ๊ฐ์
์ 100% ๋ฐฐํ
๋ณด๋์ค๊ฐ ์ฃผ์ด์ง๋๋ค. ๋ํ, ๋งค์ฃผ๋ง๋ค ๋ค์ํ ์ด๋ฒคํธ์ ํ๋ก๋ชจ์
์ด ์งํ๋ฉ๋๋ค.<์ดํ ์๋ต>
</td>
<td><b>์บ๋ฆฌ๋น์๋ฒ ์ด๋ ์ฉ์ธ์</b> ์๋ ๋์ด๊ณต์์ธ๋ฐ์. ์บ๋ฆฌ๋น์๋ฒ ์ด์ ๊ฒฝ์ฐ์๋ ์ํฐํํฌ์ ๋์ด๊ณต์์ด ๊ฐ์ด ์์ต๋๋ค. ๊ทธ๋์ ์ฌ๋ฆ์๋ ๋ฌผ๋์ด๋ฅผ ์ฆ๊ธฐ๊ณ ๊ฒจ์ธ์๋ ๋์ฐ๋งค๋ฅผ ํ ์ ์์ด์ ์ฌ๊ณ์ ๋ด๋ด ์ฆ๊ธธ ์ ์๋ ๊ณณ์ด์ฃ .\n์บ๋ฆฌ๋น์๋ฒ ์ด๋ฅผ ์ด์ฉํ๋ ค๋ฉด ์ฐ์ ํํ์ด์ง์์ ์
์ฅ๊ถ์ ๊ตฌ๋งคํด์ผ ํฉ๋๋ค. ๊ทธ๋ฆฌ๊ณ ์บ๋ฆฌ๋น์๋ฒ ์ด์ ๊ฒฝ์ฐ์๋ 1๋
๋์ ์์ ๋กญ๊ฒ ์ด์ฉํ ์ ์๋ ์ฐ๊ฐํ์๊ถ๋ ํ๋งคํ๋๋ฐ์. ์ฐ๊ฐํ์๊ถ์ ์ฑ์ธ๊ณผ ์ด๋ฆฐ์ด ๋ชจ๋ ๊ตฌ๋งค๊ฐ ๊ฐ๋ฅํฉ๋๋ค.<์ดํ ์๋ต>
</td>
</tr>
<tr>
<td><b>๋ฒ ํธ๋จ ์๊ตญ์๋</b> ํ๊ตญ์ ๊ตญ๋ฐฅ๊ณผ ๋น์ทํ ์์์
๋๋ค. ๋ฒ ํธ๋จ ์๊ตญ์์๋ ์, ๋ผ์ง๊ณ ๊ธฐ, ๊ณ๋, ์ํ, ๋ง๋, ์๊ฐ, ๊ณ ์ถ ๋ฑ์ด ๋ค์ด๊ฐ๋๋ค.\n1. ์์ ์ป์ด ๋ฌผ์ ๋ด๊ฐ ๋ก๋๋ค.\n2. ๋ผ์ง๊ณ ๊ธฐ๋ฅผ ์๊ฒ ์ฐ๊ณ , ์ํ์ ๋ง๋, ์๊ฐ, ๊ณ ์ถ๋ฅผ ๋ค์ ธ์ค๋๋ค.\n3. ํฌ์ ๊ธฐ๋ฆ์ ๋๋ฅด๊ณ ๋ผ์ง๊ณ ๊ธฐ๋ฅผ ๋ณถ๋ค๊ฐ ์ํ์ ๋ง๋, ์๊ฐ, ๊ณ ์ถ๋ฅผ ๋ฃ์ต๋๋ค.\n4. ๊ณ๋์ ํ์ด์ ๋ฃ๊ณ , ๊ฐ์ฅ์ ๋ฃ์ด ๋ณถ์์ค๋๋ค.\n5. ์์ ๋ฌผ์ ๋ถ๋ ค์ ๋ฃ๊ณ , ๋์ผ๋ฉด ์๊ธ๊ณผ ํ์ถ๋ฅผ ๋ฃ์ด์ค๋๋ค.\n6. ์๊ตญ์๋ฅผ ๋จน๊ธฐ ์ข์ ์ํ๊ฐ ๋๋ฉด ๊บผ๋ด ์ค๋๋ค.\n7. ์๊ตญ์์ ์์ ๋ผ์ง๊ณ ๊ธฐ์ ๊ณ๋์ ์น์ด ๋จน์ต๋๋ค.\nVietnamese rice noodles are similar to Korean rice porridge. Vietnamese rice noodles contain rice, pork, eggs, onions, garlic, ginger and chili peppers.<์ดํ ์๋ต>
</td>
<td><b>๋ฒ ํธ๋จ ์๊ตญ์๋</b> ์ผ๋ฐ์ ์ผ๋ก ์๊ฒ ์ฌ ์๊ฐ๋ฃจ๋ก ๋ง๋ ๋ฉด์ ์ฌ์ฉํฉ๋๋ค. ๋ฉด์ ๋จ๊ฑฐ์ด ๋ฌผ์ ์ถ์์ ์ฐฌ๋ฌผ์ ํน๊ตฌ์ด๋
๋๋ค. ๋ฉด์ด ์ถ์์ง๋ฉด ์ก์์ ์ผ์ฑ๋ฅผ ๋ฃ๊ณ ๋์
๋๋ค. ์ก์๋ฅผ ๋ง๋ค ๋๋ ๋ญ๊ณ ๊ธฐ, ์๊ณ ๊ธฐ, ๋ผ์ง๊ณ ๊ธฐ ๋ฑ ๋ค์ํ ์ฌ๋ฃ๋ฅผ ์ฌ์ฉํ ์ ์์ต๋๋ค. ์ผ์ฑ๋ก๋ ๋น๊ทผ, ์ํ, ํ ๋ฑ์ ์ฌ์ฉํ ์ ์์ต๋๋ค.<์ดํ ์๋ต>
</td>
</tr>
<tr>
<td><b>ํ๊ตญ์ ์ ํต์์์ธ</b> ํ๋ณต๊ณผ ์ผ๋ณธ์ ์ ํต์์์ธ ์๋ก์นด๋ฏธ๋ ๋ชจ๋ 5๋๋ฅ์ ๋ฌธํ๋ฅผ ์์ฉํ๊ณ , ๊ฐ๊ธฐ ๋ค๋ฅธ ์ง์ญ์ ํน์ง์ ๋ฐ์ํ ์์์ ๊ฐ์ถ๊ณ ์๋ค. ์ด๋ฌํ ์์์ ํน์ง์ ๊ฐ๊ฐ์ ๊ตญ๊ฐ์์ ๋ฐ์ ํด ์จ ์ญ์ฌ์ ๋ฌธํ์ ๊ธฐ์ดํ๋ค. ํํธ, ํ๊ตญ์ ํ๋ณต๊ณผ ์ผ๋ณธ์ ์๋ก์นด๋ฏธ๋ ์๋ก ๋น์ทํ ํํ๋ฅผ ๊ฐ์ง๊ณ ์์ง๋ง, ๊ทธ ์๋ฏธ๋ ๋ค๋ฅด๋ค. ํ๋ณต์ ํ๊ตญ์ธ์ ์ ์ฒด์ฑ์ ๋ํ๋ด๋ฉฐ, ์๋ก์นด๋ฏธ๋ ์ผ๋ณธ์ธ์ ์ ์ฒด์ฑ์ ๋ํ๋ธ๋ค. ๋ฐ๋ผ์ ์ด ๋ ๊ฐ์ง ์์์ ์๋ก ๋ค๋ฅธ ๋ฌธํ์ ๋ฐฐ๊ฒฝ์ ๊ฐ์ง ์ฌ๋๋ค์ ์ ์ฒด์ฑ ํํ์ ์ฌ์ฉ๋๋ค.\nThe traditional costumes of Korea and Japan are hanbok and yorokami respectively. Both have been influenced by the cultures of other countries and reflect the characteristics of their respective regions. The distinctive features of these costumes are based on the history and culture of each country. However, although hanbok and yorokami share similar forms, they have different meanings. Hanbok represents Korean identity while yorokami represents Japanese identity. <์ดํ ์๋ต>
</td>
<td><b>ํ๊ตญ์ ์ ํต์์์ธ</b> ํ๋ณต์ ํ๊ตญ์ ๋ฌธํ๋ฅผ ๋ํํ๋ ์์ง๋ฌผ์ด๋ค. ํ์ง๋ง ์ต๊ทผ์๋ ํ๋ณต์ ์
๋ ์ฌ๋๋ค์ด ์ ์ ์ค์ด๋ค๊ณ ์๋ค. ์ด๋ ์ฌ๋ฌ ๊ฐ์ง ์ด์ ๊ฐ ์๊ฒ ์ง๋ง, ๊ทธ ์ค ํ๋๋ ํ๋ณต์ด ๋ถํธํ๊ธฐ ๋๋ฌธ์ผ ๊ฒ์ด๋ค. ํ๋ณต์ ์ผ๋ฐ์ ์ธ ์ท๋ณด๋ค ๋ ๋ง์ ๋ถ๋ถ์ ๋ฎ์ด์ผ ํ๊ณ , ์์ง์ด๊ธฐ ์ด๋ ต๋ค. ๋ํ, ํ๋ณต์ ์ธํํ๊ธฐ๊ฐ ์ด๋ ต๊ณ , ๊ด๋ฆฌํ๊ธฐ๋ ์ฝ์ง ์๋ค.\nํ์ง๋ง ํ๋ณต์ ๋จ์ํ ๋ถํธํ๊ณ ๊ด๋ฆฌํ๊ธฐ ์ด๋ ค์ด ์ท์ด ์๋๋ค. ํ๋ณต์ ํ๊ตญ์ธ์ ์ญ์ฌ์ ๋ฌธํ๋ฅผ ๋ด๊ณ ์๋ ์์คํ ๋ฌธํ์ ์ฐ์ด๋ค. ํ๋ณต์ ํ๊ตญ์ ์ ํต๊ณผ ๋ฏธ๋ฅผ ํํํ๋ ์ค์ํ ์๋จ์ด๋ฉฐ, ํ๊ตญ์ ์ ์ฒด์ฑ์ ๋ํ๋ด๋ ์์ง๋ฌผ์ด๋ค. ๋ฐ๋ผ์ ์ฐ๋ฆฌ๋ ํ๋ณต์ ๋ณด์กดํ๊ณ ๊ณ์นํด์ผ ํ๋ค.<์ดํ ์๋ต>
</td>
</tr>
</table>
### Citation instructions
**Ko-Llama3-Luxia-8B**
```
@article{kollama3luxiamodelcard,
title={Ko Llama 3 Luxia Model Card},
author={AILabs@Saltux},
year={2024},
url={https://huggingface.co/saltlux/Ko-Llama3-Luxia-8B/blob/main/README.md}
}
```
**Original Llama-3**
```
@article{llama3modelcard,
title={Llama 3 Model Card},
author={AI@Meta},
year={2024},
url={https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md}
}
``` |