yuringu commited on
Commit
a7bd71a
ยท
verified ยท
1 Parent(s): 0b1aeb4

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +166 -1
README.md CHANGED
@@ -10,4 +10,169 @@ tags:
10
  - meta
11
  - llama-3
12
  - pytorch
13
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
10
  - meta
11
  - llama-3
12
  - pytorch
13
+ ---
14
+ # Llama-3-Luxia-Ko-8B
15
+ **Built with Meta Llama 3**<br>
16
+ Meta์—์„œ ์ถœ์‹œํ•œ Llama-3 ๋ชจ๋ธ vocab 128,256๊ฐœ์— ํ•œ๊ตญ์–ด vocab 17,536๊ฐœ๋ฅผ ์ถ”๊ฐ€ํ•˜์—ฌ ์ด 145,792๊ฐœ์˜ vocab์„ ํ™•๋ณดํ•˜์˜€์Šต๋‹ˆ๋‹ค.<br>
17
+ ์ดํ›„ ๋‹ค์–‘ํ•œ ๋„๋ฉ”์ธ์˜ ํ•œ๊ตญ์–ด ์ฝ”ํผ์Šค ์•ฝ 95GB๋ฅผ ์ถ”๊ฐ€ํ•˜์—ฌ ํ•™์Šต๋œ ํ•œ๊ตญ์–ด ํŠนํ™” ์‚ฌ์ „ํ•™์Šต ์–ธ์–ด๋ชจ๋ธ์ž…๋‹ˆ๋‹ค.
18
+
19
+ ## Model Details
20
+ - **Overview:** ์ด ๋ชจ๋ธ์€ Llama-3๋ชจ๋ธ์— ํ•œ๊ตญ์–ด vocab 17,536๊ฐœ๋ฅผ ์ถ”๊ฐ€๋กœ ํ•™์Šตํ•œ ๋’ค, ํ•œ๊ตญ์–ด ์ฝ”ํผ์Šค๋กœ ์‚ฌ์ „ํ•™์Šต๋œ ํ•œ๊ตญ์–ด ํŠนํ™” ์–ธ์–ด๋ชจ๋ธ์ž…๋‹ˆ๋‹ค.
21
+ - **Meta Llama-3:** Meta developed and released the Meta Llama 3 family of large language models (LLMs), a collection of pretrained and instruction tuned generative text models in 8 and 70B sizes. The Llama 3 instruction tuned models are optimized for dialogue use cases and outperform many of the available open source chat models on common industry benchmarks. Further, in developing these models, we took great care to optimize helpfulness and safety.
22
+
23
+ ### Model Description
24
+ - **Developed by:** Saltlux AIlabs ์–ธ์–ด๋ชจ๋ธํŒ€
25
+ - **Vatiations:** Llama-3-Luxia-Ko 8B ํŒŒ๋ผ๋ฏธํ„ฐ ์ˆ˜์ค€์˜ ์‚ฌ์ „ํ•™์Šต ๋ชจ๋ธ
26
+ - **Input:** ํ…์ŠคํŠธ๋งŒ ์ž…๋ ฅํ•ฉ๋‹ˆ๋‹ค.
27
+ - **Output:** ํ…์ŠคํŠธ์™€ ์ฝ”๋“œ๋ฅผ ์ƒ์„ฑํ•ฉ๋‹ˆ๋‹ค.
28
+ - **Model Architecture:** Llama-3-Luxia-Ko ๋ชจ๋ธ์€ Meta์—์„œ ์ถœ์‹œํ•œ Llama-3์™€ ๊ฐ™์€ auto-regressive ์–ธ์–ด๋ชจ๋ธ๋กœ ์ตœ์ ํ™”๋œ transformer ์•„ํ‚คํ…์ณ๋ฅผ ์‚ฌ์šฉํ•ฉ๋‹ˆ๋‹ค.
29
+ - **Model Release Date:** April 30, 2024.
30
+ - **Status:** ์ด ๋ชจ๋ธ์€ ์˜คํ”„๋ผ์ธ ๋ฐ์ดํ„ฐ ์„ธํŠธ์—์„œ ํ›ˆ๋ จ๋œ Staticํ•œ ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค. ์ปค๋ฎค๋‹ˆํ‹ฐ์˜ ํ”ผ๋“œ๋ฐฑ์„ ํ†ตํ•ด ๋ชจ๋ธ ์•ˆ์ •์„ฑ์„ ๊ฐœ์„ ํ•จ์— ๋”ฐ๋ผ ์กฐ์ •๋œ ๋ชจ๋ธ์˜ ํ–ฅํ›„ ๋ฒ„์ „์ด ์ถœ์‹œ๋  ์˜ˆ์ •์ž…๋‹ˆ๋‹ค.
31
+ - **License:** Llama3 License: [https://llama.meta.com/llama3/license](https://llama.meta.com/llama3/license)
32
+
33
+ ## Intended Use
34
+ - **Intended Use Cases:** Ko-Llama-3๋Š” ํ•œ๊ตญ์–ด ํŠนํ™” ์–ธ์–ด๋ชจ๋ธ๋กœ ์ƒ์—…์šฉ ๋ฐ ์—ฐ๊ตฌ์šฉ์œผ๋กœ ์ œ์ž‘๋˜์—ˆ์œผ๋ฉฐ ์‚ฌ์ „ํ•™์Šต ์–ธ์–ด๋ชจ๋ธ์ž…๋‹ˆ๋‹ค.
35
+
36
+ ### How to Use
37
+ ์ด ์ €์žฅ์†Œ์—๋Š” transformers์™€ ํ•จ๊ป˜ ์‚ฌ์šฉํ•  ์ˆ˜ ์žˆ๋Š” ์ฝ”๋“œ๋ฒ ์ด์Šค์™€ `Llama-3-Luxia-Ko-8B`๊ฐ€ ํฌํ•จ๋˜์–ด ์žˆ์Šต๋‹ˆ๋‹ค.
38
+
39
+ ```
40
+ import transformers
41
+ import torch
42
+
43
+ model_id = "Saltlux/Llama-3-Luxia-Ko-8B"
44
+
45
+ pipeline = transformers.pipeline(
46
+ "text-generation", model=model_id, model_kwargs={"torch_dtype": torch.bfloat16}, device_map="auto"
47
+ )
48
+ pipeline("<|begin_of_text|>์•ˆ๋…•ํ•˜์„ธ์š”~!")
49
+
50
+ ```
51
+
52
+ ## Training Details
53
+
54
+ ### Training Data
55
+ - **Overview:** Ko-Llama-3๋Š” ๊ณต๊ฐœ์ ์œผ๋กœ ์‚ฌ์šฉ ๊ฐ€๋Šฅํ•œ ์ฝ”ํผ์Šค์™€ ํ•จ๊ป˜ ์ž์ฒด์ ์œผ๋กœ ์ˆ˜์ง‘ํ•œ 2023๋…„ ์ตœ์‹  ๋‰ด์Šค๋ฐ์ดํ„ฐ๋ฅผ ํฌํ•จํ•˜์—ฌ ์•ฝ 95GB ์ฝ”ํผ์Šค๋กœ ์‚ฌ์ „ํ•™์Šต ๋˜์—ˆ์Šต๋‹ˆ๋‹ค.<br>
56
+ ์‚ฌ์ „ํ•™์Šต ๋ฐ์ดํ„ฐ์˜ ๋„๋ฉ”์ธ์€ ๋ฒ•๋ฅ , ํŠนํ—ˆ, ์˜๋ฃŒ, ์—ญ์‚ฌ ๋ถ„์•ผ ๋“ฑ์˜ ๋‹ค์–‘ํ•œ ๋„๋ฉ”์ธ์ด ํฌํ•จ๋˜์–ด์žˆ์Šต๋‹ˆ๋‹ค.
57
+
58
+ #### Preprocessing
59
+ ํ•œ๊ตญ์–ด ๊ณต๊ฐœ ์ฝ”ํผ์Šค ๋ฐ ์ž์ฒด ์ˆ˜์ง‘ ๋ฐ์ดํ„ฐ ์•ฝ 1TB ์ˆ˜์ค€์—์„œ Saltlux๊ฐ€ ์ž์ฒด ์ œ์ž‘ํ•œ ์ •๊ทœํ™” ํˆด์„ ํ™œ์šฉํ•˜์—ฌ ์ „์ฒ˜๋ฆฌ๋ฅผ ์ˆ˜ํ–‰ํ•ฉ๋‹ˆ๋‹ค.
60
+
61
+ [Document Delete]
62
+ - ์งง์€ ํ…์ŠคํŠธ (120 ์Œ์ ˆ ๋ฏธ๋งŒ) ํ•„ํ„ฐ๋ง
63
+ - ๊ธด ํ…์ŠคํŠธ (100,000 ์Œ์ ˆ ์ด์ƒ) ํ•„ํ„ฐ๋ง
64
+ - ํ•œ๊ตญ์–ด ๋น„์œจ์ด 25% ๋ฏธ๋งŒ์ธ ๊ฒฝ์šฐ ํ•„ํ„ฐ๋ง
65
+ - ๊ธ€๋จธ๋ฆฌ ๊ธฐํ˜ธ๊ฐ€ 90% ์ด์ƒ์ธ ๊ฒฝ์šฐ ํ•„ํ„ฐ๋ง
66
+ - ์š•์„ค์ด ์žˆ๋Š” ๊ฒฝ์šฐ ํ•„ํ„ฐ๋ง
67
+
68
+ [Document Modify]
69
+ - ์ด๋ชจ์…˜ ๋ฌธ์ž ์ •๊ทœํ™” (์ตœ๋Œ€ 2๊ฐœ๊นŒ์ง€ ํ—ˆ์šฉ)
70
+ - ๊ฐœํ–‰ ๋ฌธ์ž ์ •๊ทœํ™” (์ตœ๋Œ€ 2๊ฐœ๊นŒ์ง€ ํ—ˆ์šฉ)
71
+ - HTML ํƒœ๊ทธ ์ œ๊ฑฐ
72
+ - ๋ถˆํ•„์š”ํ•œ ๋ฌธ์ž ์ œ๊ฑฐ
73
+ - ๋น„์‹๋ณ„ํ™” ์ง„ํ–‰ (ํœด๋Œ€ํฐ ๋ฒˆํ˜ธ, ๊ณ„์ขŒ๋ฒˆํ˜ธ ๋“ฑ์˜ ๊ฐœ์ธ์ •๋ณด)
74
+ - ์ค‘๋ณต ๋ฌธ์ž์—ด ์ œ๊ฑฐ
75
+
76
+ #### Random Sampling
77
+ ์ „์ฒด ํ™•๋ณดํ•œ ์ฝ”ํผ์Šค ์ค‘ ์šฐ์„ ์ ์œผ๋กœ ๋ฐ˜๋“œ์‹œ ํ•™์Šตํ•ด์•ผํ•˜๋Š” ์ฝ”ํผ์Šค์ด๋ฉด์„œ, ๋‹ค์–‘ํ•œ ๋„๋ฉ”์ธ์—์„œ ์ƒ˜ํ”Œ๋ง ํ•˜๊ธฐ ์œ„ํ•ด ์ง„ํ–‰ํ•ฉ๋‹ˆ๋‹ค.<br>
78
+ Saltlux์˜ ์ƒ˜ํ”Œ๋ง ๋ฐฉ๋ฒ•์€ ์•„๋ž˜์™€ ๊ฐ™์Šต๋‹ˆ๋‹ค.
79
+ - ์ฝ”ํผ์Šค์˜ ์šฉ๋Ÿ‰์ด 10GB ์ด์ƒ์ธ ๋ฐ์ดํ„ฐ์— ํ•œํ•ด์„œ ๋žœ๋ค ์ƒ˜ํ”Œ๋ง ์ง„ํ–‰
80
+ - ์ƒ˜ํ”Œ๋ง ๋ฐฉ์•ˆ์€ ์ž…๋ ฅ ์ฝ”ํผ์Šค์—์„œ ๋ช…์‚ฌ/๋ณตํ•ฉ๋ช…์‚ฌ๋ฅผ ์ถ”์ถœํ•ด ๋ฌธ์„œ ๋‚ด์˜ ๋ช…์‚ฌ ์ถ”์ถœ ๋นˆ๋„ ์ˆ˜๋ฅผ ์„ธ๋ฉฐ, ์ถ”์ถœ ๋นˆ๋„์˜ ์ž„๊ณ„๊ฐ’์„ ์ •ํ•ด ๋„˜์œผ๋ฉด ํ•ด๋‹น ๋ช…์‚ฌ/๋ณตํ•ฉ๋ช…์‚ฌ๊ฐ€ ์žˆ๋Š” ๋ฌธ์„œ๋ฅผ ์ƒ˜ํ”Œ๋งํ•˜์ง€ ์•Š์Œ
81
+ - ํ•™์Šต๋ฐ์ดํ„ฐ ์ถ”์ถœ ๋ช…์‚ฌ๋นˆ๋„ ์ž„๊ณ„๊ฐ’์€ 1,000์œผ๋กœ ํ•ด์„œ ๋žœ๋ค ์ƒ˜ํ”Œ๋ง ์ง„ํ–‰ํ•˜์—ฌ ๋‹ค์–‘ํ•œ ๋„๋ฉ”์ธ, ๋ฌธ์„œ๋ฅผ ํ•™์Šต๋ฐ์ดํ„ฐ๋กœ ์„ ์ •
82
+
83
+
84
+ ### Hardware and Hyperparameters
85
+ - **Overview:** Saltlux-Ko-Llama-3 ํ•™์Šต์— ํ™œ์šฉํ•œ ์žฅ๋น„์™€ ํ•™์Šต ํŒŒ๋ผ๋ฏธํ„ฐ์ž…๋‹ˆ๋‹ค.
86
+
87
+ #### Use Device
88
+ NVIDIA H100 80GB * 8GA์„ ํ™œ์šฉํ•˜์—ฌ ๋ชจ๋ธ ์‚ฌ์ „ํ•™์Šต์„ ์ง„ํ–‰ํ•˜์˜€์Šต๋‹ˆ๋‹ค.
89
+
90
+ #### Training Hyperparameters
91
+ |Model|Params|Context length|GQA|Learning rate|Batch|Precision|Epoch|
92
+ |-------------|---|---|---|---|---|---|---|
93
+ |Saltlux-Ko-Llama-3|8B|8k|Yes|5e-6|128|bf16|1.0|
94
+
95
+ ### Tokenizer
96
+ - **Overview:** ํ•œ๊ตญ์–ด ํ† ํฐ๋“ค์„ ๋‹ค ์ปค๋ฒ„ํ•  ์ˆ˜ ์žˆ๋Š” ์ˆ˜์ค€์˜ ๊ณต๊ฐœ ๋ง๋ญ‰์น˜ ๋ฐ์ดํ„ฐ 87.85GB ๋กœ Llama-3 ํ•œ๊ตญ์–ด ํ† ํฌ๋‚˜์ด์ € ํ•™์Šต์„ ์ง„ํ–‰ํ•˜์˜€์Šต๋‹ˆ๋‹ค.
97
+
98
+ #### Tokenizer Train Dataset
99
+ ํ•œ๊ตญ์–ด ํ† ํฌ๋‚˜์ด๏ฟฝ๏ฟฝ๏ฟฝ ํ•™์Šต์— ์‚ฌ์šฉํ•œ ๋ฐ์ดํ„ฐ๋Š” ๋‰ด์Šค, ๋ธ”๋กœ๊ทธ, ํ•œ๊ตญ์–ด ์œ„ํ‚ค๋ฐฑ๊ณผ, ๋Œ€ํ™”, ์ „๋ฌธ ๋„๋ฉ”์ธ(๋ฒ•๋ฅ , ํŠนํ—ˆ ๋“ฑ) ๊ณต๊ฐœ๋œ ๋‹ค์–‘ํ•œ ํ•œ๊ตญ์–ด ์ฝ”ํผ์Šค๋ฅผ ํ™œ์šฉํ•˜์˜€์Œ.
100
+
101
+ #### Tokenizer Result
102
+ <table>
103
+ <tr>
104
+ <td><strong>์ž…๋ ฅ</strong>
105
+ </td>
106
+ <td><strong>Llama-3</strong>
107
+ </td>
108
+ <td><strong>Ko-Llama-3</strong>
109
+ </td>
110
+ </tr>
111
+ <tr>
112
+ <td>์š”์ฆ˜ ๋‚ ์”จ๊ฐ€ ๋„ˆ๋ฌด ์˜ค๋ฝ๊ฐ€๋ฝํ•ด์„œ ์•„์ง๋„ ๊ฒจ์šธ์˜ท์„ ๋ชป์น˜์› ์–ด์š”..
113
+ </td>
114
+ <td>['์š”', '์ฆ˜', ' ๋‚ ', '์”จ', '๊ฐ€', ' ๋„ˆ๋ฌด', ' ์˜ค', '๋ฝ', '๊ฐ€', '๋ฝ', 'ํ•ด์„œ', ' ์•„์ง', '๋„', ' ๊ฒจ', '์šธ', '๏ฟฝ', '๏ฟฝ', '์„', ' ๋ชป', '์น˜', '์› ', '์–ด์š”', '..']
115
+ </td>
116
+ <td>['์š”์ฆ˜', ' ๋‚ ์”จ', '๊ฐ€', ' ๋„ˆ๋ฌด', ' ์˜ค๋ฝ', '๊ฐ€๋ฝ', 'ํ•ด์„œ', ' ์•„์ง', '๋„', ' ๊ฒจ์šธ', '์˜ท', '์„', ' ๋ชป', '์น˜', '์› ', '์–ด์š”', '..']
117
+ </td>
118
+ </tr>
119
+ <tr>
120
+ <td>๋ง›์žˆ๋Š” ๋ฐฅ์„ ๋“œ์…จ์Šต๋‹ˆ๊นŒ? ๋ง›์ด ๊ถ๊ธˆํ•˜๋„ค์š”.
121
+ </td>
122
+ <td>['๋ง›', '์žˆ๋Š”', ' ๏ฟฝ', '๏ฟฝ', '์„', ' ๋“œ', '์…จ', '์Šต', '๋‹ˆ๊นŒ', '?', ' ๋ง›', '์ด', ' ๊ถ๊ธˆ', 'ํ•˜', '๋„ค์š”', '.']
123
+ </td>
124
+ <td>['๋ง›', '์žˆ๋Š”', ' ๋ฐฅ', '์„', ' ๋“œ์…จ', '์Šต', '๋‹ˆ๊นŒ', '?', ' ๋ง›', '์ด', ' ๊ถ๊ธˆ', 'ํ•˜', '๋„ค์š”', '.']
125
+ </td>
126
+ </tr>
127
+ <tr>
128
+ <td>๋Œ€๋ฒ•์›๋ถ€ํ„ฐ ํ•˜๊ธ‰์‹ฌ ํŒ๋ก€๊นŒ์ง€ ์›ํ•˜๋Š” ํŒ๋ก€๋ฅผ ์ฐพ๋Š” ๊ฐ€์žฅ ๋น ๋ฅธ ๋ฐฉ๋ฒ• - ์„œ๋ฉด ๊ฒ€์ƒ‰, ์š”์ฒญ ํŒ๋ก€, ์œ ์‚ฌ ํŒ๋ก€, AI ์ถ”์ฒœ, ํŒ๋ก€ ๋ฐ ๋ฒ•๋ น ๊ฒ€์ƒ‰.
129
+ </td>
130
+ <td>['๋Œ€', '๋ฒ•', '์›', '๋ถ€ํ„ฐ', ' ํ•˜', '๊ธ‰', '์‹ฌ', ' ํŒ', '๋ก€', '๊นŒ์ง€', ' ์›', 'ํ•˜๋Š”', ' ํŒ', '๋ก€', '๋ฅผ', ' ์ฐพ', '๋Š”', ' ๊ฐ€์žฅ', ' ๋น ', '๋ฅธ', ' ๋ฐฉ๋ฒ•', ' -', ' ์„œ', '๋ฉด', ' ๊ฒ€์ƒ‰', ',', ' ์š”์ฒญ', ' ํŒ', '๋ก€', ',', ' ์œ ', '์‚ฌ', ' ํŒ', '๋ก€', ',', ' AI', ' ์ถ”์ฒœ', ',', ' ํŒ', '๋ก€', ' ๋ฐ', ' ๋ฒ•', '๋ น', ' ๊ฒ€์ƒ‰', '.']
131
+ </td>
132
+ <td>['๋Œ€', '๋ฒ•', '์›', '๋ถ€ํ„ฐ', ' ํ•˜', '๊ธ‰', '์‹ฌ', ' ํŒ๋ก€', '๊นŒ์ง€', ' ์›', 'ํ•˜๋Š”', ' ํŒ๋ก€', '๋ฅผ', ' ์ฐพ', '๋Š”', ' ๊ฐ€์žฅ', ' ๋น ๋ฅธ', ' ๋ฐฉ๋ฒ•', ' -', ' ์„œ๋ฉด', ' ๊ฒ€์ƒ‰', ',', ' ์š”์ฒญ', ' ํŒ๋ก€', ',', ' ์œ ์‚ฌ', ' ํŒ๋ก€', ',', ' AI', ' ์ถ”์ฒœ', ',', ' ํŒ๋ก€', ' ๋ฐ', ' ๋ฒ•๋ น', ' ๊ฒ€์ƒ‰', '.']
133
+ </td>
134
+ </tr>
135
+ <tr>
136
+ <td>๋ณธ ๋ฐœ๋ช…์€ ๊ธˆ์†ํŒ์˜ ๋‹ค์ˆ˜ ๋ถ€๋ถ„์„ ์—์นญ์‹œ์ผœ ํŠน์ • ๋ฌด๋Šฌ๋ชจ์–‘์„ ํ˜•์„ฑํ•˜๋Š” ๊ฑด์ถ•์šฉ ๊ธˆ์†์žฌ ์žฅ์‹ํŒ์œผ๋กœ ์ด๋ฃจ์–ด์ง„ ๊ฒƒ์— ํŠน์ง•์ด ์žˆ๋‹ค.
137
+ </td>
138
+ <td>['๋ณธ', ' ๋ฐœ', '๋ช…', '์€', ' ๊ธˆ', '์†', 'ํŒ', '์˜', ' ๋‹ค', '์ˆ˜', ' ๋ถ€๋ถ„', '์„', ' ์—', '์นญ', '์‹œ', '์ผœ', ' ํŠน', '์ •', ' ๋ฌด', '๏ฟฝ', '๏ฟฝ', '๋ชจ', '์–‘', '์„', ' ํ˜•', '์„ฑ', 'ํ•˜๋Š”', ' ๊ฑด', '์ถ•', '์šฉ', ' ๊ธˆ', '์†', '์žฌ', ' ์žฅ', '์‹', 'ํŒ', '์œผ๋กœ', ' ์ด๋ฃจ', '์–ด์ง„', ' ๊ฒƒ', '์—', ' ํŠน', '์ง•', '์ด', ' ์žˆ๋‹ค', '.']
139
+ </td>
140
+ <td>['๋ณธ', ' ๋ฐœ๋ช…', '์€', ' ๊ธˆ์†', 'ํŒ', '์˜', ' ๋‹ค์ˆ˜', ' ๋ถ€๋ถ„', '์„', ' ์—์นญ', '์‹œ', '์ผœ', ' ํŠน์ •', ' ๋ฌด๋Šฌ', '๋ชจ', '์–‘', '์„', ' ํ˜•์„ฑ', 'ํ•˜๋Š”', ' ๊ฑด์ถ•', '์šฉ', ' ๊ธˆ์†', '์žฌ', ' ์žฅ์‹', 'ํŒ', '์œผ๋กœ', ' ์ด๋ฃจ์–ด์ง„', ' ๊ฒƒ', '์—', ' ํŠน์ง•', '์ด', ' ์žˆ๋‹ค', '.']
141
+ </td>
142
+ </tr>
143
+ <tr>
144
+ <td>๊ณจ๋‹ค๊ณต์ฆ์€ ์™œ ์ƒ๊ธฐ๋Š”๊ฑฐ์—์š”? ๊ทธ๋ฆฌ๊ณ  ์น˜๋ฃŒํ•˜๋ ค๋ฉด ์–ด๋–ป๊ฒŒํ•ด์•ผํ•˜์ฃ ?
145
+ </td>
146
+ <td>['๊ณจ', '๋‹ค', '๊ณต', '์ฆ', '์€', ' ์™œ', ' ์ƒ', '๊ธฐ๋Š”', '๊ฑฐ', '์—', '์š”', '?', ' ๊ทธ๋ฆฌ๊ณ ', ' ์น˜', '๋ฃŒ', 'ํ•˜๋ ค', '๋ฉด', ' ์–ด๋–ป๊ฒŒ', 'ํ•ด์•ผ', 'ํ•˜', '์ฃ ', '?']
147
+ </td>
148
+ <td>['๊ณจ', '๋‹ค', '๊ณต์ฆ', '์€', ' ์™œ', ' ์ƒ', '๊ธฐ๋Š”', '๊ฑฐ', '์—', '์š”', '?', ' ๊ทธ๋ฆฌ๊ณ ', ' ์น˜๋ฃŒ', 'ํ•˜๋ ค', '๋ฉด', ' ์–ด๋–ป๊ฒŒ', 'ํ•ด์•ผ', 'ํ•˜', '์ฃ ', '?']
149
+ </td>
150
+ </tr>
151
+ </table>
152
+
153
+ ## Model Card Authors
154
+ Saltlux AILabs ์–ธ์–ด๋ชจ๋ธํŒ€
155
+
156
+ ## Model Card Contact
157
+ Saltlux AILabs ์–ธ์–ด๋ชจ๋ธํŒ€
158
+
159
+ ## Citation instructions
160
+ **Saltlux-Ko-Llama-3**
161
+ ```
162
+ @article{Kollama3modelcard,
163
+ title={Satlux Ko Llama 3 Model Card},
164
+ author={AILabs@Saltux},
165
+ year={2024},
166
+ url={์ˆ˜์ •์˜ˆ์ •}
167
+ }
168
+ ```
169
+
170
+ **Original Llama-3**
171
+ ```
172
+ @article{llama3modelcard,
173
+ title={Llama 3 Model Card},
174
+ author={AI@Meta},
175
+ year={2024},
176
+ url={https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md}
177
+ }
178
+ ```