Update README_zh.md
Browse files- README_zh.md +66 -27
README_zh.md
CHANGED
@@ -2,36 +2,75 @@
|
|
2 |
language:
|
3 |
- en
|
4 |
- zh
|
|
|
|
|
|
|
|
|
5 |
---
|
6 |
|
7 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
8 |
|
9 |
<p align="center">
|
10 |
-
|
11 |
</p>
|
12 |
|
13 |
<p align="center">
|
14 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
15 |
</p>
|
16 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
17 |
## 更新
|
18 |
-
|
19 |
-
-
|
|
|
|
|
20 |
|
21 |
## 模型介绍
|
22 |
|
23 |
**Llama-3-SynE**(**Syn**thetic data **E**nhanced Llama-3)是 [Llama-3(8B)](https://github.com/meta-llama/llama3)的增强版,通过继续预训练(continual pre-training,CPT)来提升其**中文语言能力和科学推理能力**。通过精心设计的数据混合和课程策略,Llama-3-SynE 成功地在保持原始模型性能的同时增强了新能力。这个增强过程包括利用现有数据集并合成专门为目标任务设计的高质量数据集。
|
24 |
|
25 |
Llama-3-SynE 的主要特点包括:
|
|
|
26 |
- **增强的中文语言能力**:通过基于主题的数据混合和基于困惑度的数据课程实现。
|
27 |
- **改进的科学推理能力**:利用合成数据集来增强多学科的科学知识。
|
28 |
- **高效的继续预训练**:只消耗约 1000 亿个 token,成本效益高。
|
29 |
|
30 |
## 模型列表
|
31 |
|
32 |
-
| 模型
|
33 |
-
|
34 |
-
| Llama-3-SynE
|
35 |
|
36 |
## 基准测试
|
37 |
|
@@ -44,15 +83,15 @@ Llama-3-SynE 的主要特点包括:
|
|
44 |
|
45 |
### 主要基准
|
46 |
|
47 |
-
|
|
48 |
-
|
49 |
-
| Llama-3-8B
|
50 |
-
| DCLM-7B
|
51 |
-
| Mistral-7B-v0.3
|
52 |
-
| Llama-3-Chinese-8B
|
53 |
-
| MAmmoTH2-8B
|
54 |
-
| Galactica-6.7B
|
55 |
-
| **Llama-3-SynE (ours)**
|
56 |
|
57 |
> 在 **中文评估基准**(如 C-Eval 和 CMMLU)上,Llama-3-SynE 显著优于基础模型 Llama-3(8B),表明我们的方法在提升中文语言能力方面非常有效。
|
58 |
|
@@ -62,15 +101,15 @@ Llama-3-SynE 的主要特点包括:
|
|
62 |
|
63 |
“PHY”、“CHE” 和 “BIO” 分别表示对应基准的物理、化学和生物子任务。
|
64 |
|
65 |
-
| **模型**
|
66 |
-
|
67 |
-
| Llama-3-8B
|
68 |
-
| DCLM-7B
|
69 |
-
| Mistral-7B-v0.3
|
70 |
-
| Llama-3-Chinese-8B
|
71 |
-
| MAmmoTH2-8B
|
72 |
-
| Galactica-6.7B
|
73 |
-
| **Llama-3-SynE (ours)** | _53.66_
|
74 |
|
75 |
> 在 **科学评估基准**(如 SciEval、GaoKao 和 ARC)上,Llama-3-SynE 显著优于基础模型,特别是在中文科学基准上表现出显著提升(例如,高考生物子测试中提升了 25.71%)。
|
76 |
|
@@ -134,7 +173,7 @@ print(output)
|
|
134 |
|
135 |
## 许可证
|
136 |
|
137 |
-
本项目基于 Meta 的 Llama-3 模型开发,Llama-3-SynE 模型权重的使用必须遵循 Llama-3 [许可协议](https://github.com/meta-llama/llama3/blob/main/LICENSE)
|
138 |
|
139 |
## 引用
|
140 |
|
|
|
2 |
language:
|
3 |
- en
|
4 |
- zh
|
5 |
+
datasets:
|
6 |
+
- survivi/Llama-3-SynE-Dataset
|
7 |
+
library_name: transformers
|
8 |
+
pipeline_tag: text-generation
|
9 |
---
|
10 |
|
11 |
+
<!-- <p align="center">
|
12 |
+
<img src="https://github.com/RUC-GSAI/Llama-3-SynE/blob/main/assets/llama-3-syne-logo.png" width="400"/>
|
13 |
+
</p>
|
14 |
+
|
15 |
+
<p align="center">
|
16 |
+
📄 <a href="https://arxiv.org/abs/2407.18743"> 报告 </a>  |   🤗 <a href="https://huggingface.co/survivi/Llama-3-SynE">Hugging Face 上的模型</a>  |   📊 <a href="https://huggingface.co/datasets/survivi/Llama-3-SynE-Dataset">继续预训练数据集</a>
|
17 |
+
</p>
|
18 |
+
|
19 |
+
<p align="center">
|
20 |
+
🔍 <a href="https://github.com/RUC-GSAI/Llama-3-SynE/blob/main/README.md">English</a>  |  <a href="https://github.com/RUC-GSAI/Llama-3-SynE/blob/main/README_zh.md">简体中文</a>
|
21 |
+
</p> -->
|
22 |
|
23 |
<p align="center">
|
24 |
+
<img src="https://cdn-uploads.huggingface.co/production/uploads/651a29d566e78720a78317ec/I2rqZ19OY2qvW1V6nOakg.png" width="400"/>
|
25 |
</p>
|
26 |
|
27 |
<p align="center">
|
28 |
+
📄 <a href="https://arxiv.org/abs/2407.18743"> 报告 </a>  |   💻 <a href="https://github.com/RUC-GSAI/Llama-3-SynE">GitHub 仓库</a>
|
29 |
+
</p>
|
30 |
+
|
31 |
+
<p align="center">
|
32 |
+
🔍 <a href="https://huggingface.co/survivi/Llama-3-SynE/blob/main/README.md">English</a>  |  <a href="https://huggingface.co/survivi/Llama-3-SynE/blob/main/README_zh.md">简体中文</a>
|
33 |
+
</p>
|
34 |
+
|
35 |
+
> 这里是 Llama-3-SynE 模型,我们也开源了 [继续预训练数据集](https://huggingface.co/datasets/survivi/Llama-3-SynE-Dataset)。
|
36 |
+
|
37 |
+
<!-- <p align="center">
|
38 |
+
<img src="https://cdn-uploads.huggingface.co/production/uploads/651a29d566e78720a78317ec/I2rqZ19OY2qvW1V6nOakg.png" width="400"/>
|
39 |
</p>
|
40 |
|
41 |
+
<p align="center">
|
42 |
+
📄 <a href="https://arxiv.org/abs/2407.18743"> 报告 </a>  |   💻 <a href="https://github.com/RUC-GSAI/Llama-3-SynE">GitHub 仓库</a>
|
43 |
+
</p>
|
44 |
+
|
45 |
+
<p align="center">
|
46 |
+
🔍 <a href="https://huggingface.co/datasets/survivi/Llama-3-SynE-Dataset/blob/main/README.md">English</a>  |  <a href="https://huggingface.co/datasets/survivi/Llama-3-SynE-Dataset/blob/main/README_zh.md">简体中文</a>
|
47 |
+
</p>
|
48 |
+
|
49 |
+
> 这里是继续预训练数据集,我们也开源了 [Llama-3-SynE 模型](https://huggingface.co/survivi/Llama-3-SynE). -->
|
50 |
+
|
51 |
+
---
|
52 |
+
|
53 |
## 更新
|
54 |
+
|
55 |
+
- ✨✨ `2024/08/12`: 我们发布了 [继续预训练数据集](https://huggingface.co/datasets/survivi/Llama-3-SynE-Dataset)。
|
56 |
+
- ✨✨ `2024/08/10`: 我们发布了 [Llama-3-SynE 模型](https://huggingface.co/survivi/Llama-3-SynE)。
|
57 |
+
- ✨ `2024/07/26`: 我们发布了 Llama-3-SynE 的 [技术报告](https://arxiv.org/abs/2407.18743),欢迎查阅!
|
58 |
|
59 |
## 模型介绍
|
60 |
|
61 |
**Llama-3-SynE**(**Syn**thetic data **E**nhanced Llama-3)是 [Llama-3(8B)](https://github.com/meta-llama/llama3)的增强版,通过继续预训练(continual pre-training,CPT)来提升其**中文语言能力和科学推理能力**。通过精心设计的数据混合和课程策略,Llama-3-SynE 成功地在保持原始模型性能的同时增强了新能力。这个增强过程包括利用现有数据集并合成专门为目标任务设计的高质量数据集。
|
62 |
|
63 |
Llama-3-SynE 的主要特点包括:
|
64 |
+
|
65 |
- **增强的中文语言能力**:通过基于主题的数据混合和基于困惑度的数据课程实现。
|
66 |
- **改进的科学推理能力**:利用合成数据集来增强多学科的科学知识。
|
67 |
- **高效的继续预训练**:只消耗约 1000 亿个 token,成本效益高。
|
68 |
|
69 |
## 模型列表
|
70 |
|
71 |
+
| 模型 | 类型 | 序列长度 | 下载 |
|
72 |
+
| :----------- | :--- | :------- | :------------------------------------------------------------ |
|
73 |
+
| Llama-3-SynE | Base | 8K | [🤗 Huggingface](https://huggingface.co/survivi/Llama-3-SynE) |
|
74 |
|
75 |
## 基准测试
|
76 |
|
|
|
83 |
|
84 |
### 主要基准
|
85 |
|
86 |
+
| **模型** | **MMLU** | **C-Eval** | **CMMLU** | **MATH** | **GSM8K** | **ASDiv** | **MAWPS** | **SAT-Math** | **HumanEval** | **MBPP** |
|
87 |
+
| :---------------------- | :-------- | :--------- | :-------- | :-------- | :-------- | :-------- | :-------- | :----------- | :------------ | :-------- |
|
88 |
+
| Llama-3-8B | **66.60** | 49.43 | 51.03 | 16.20 | 54.40 | 72.10 | 89.30 | 38.64 | _36.59_ | **47.00** |
|
89 |
+
| DCLM-7B | 64.01 | 41.24 | 40.89 | 14.10 | 39.20 | 67.10 | 83.40 | _41.36_ | 21.95 | 32.60 |
|
90 |
+
| Mistral-7B-v0.3 | 63.54 | 42.74 | 43.72 | 12.30 | 40.50 | 67.50 | 87.50 | 40.45 | 25.61 | 36.00 |
|
91 |
+
| Llama-3-Chinese-8B | 64.10 | _50.14_ | _51.20_ | 3.60 | 0.80 | 1.90 | 0.60 | 36.82 | 9.76 | 14.80 |
|
92 |
+
| MAmmoTH2-8B | 64.89 | 46.56 | 45.90 | **34.10** | **61.70** | **82.80** | _91.50_ | _41.36_ | 17.68 | 38.80 |
|
93 |
+
| Galactica-6.7B | 37.13 | 26.72 | 25.53 | 5.30 | 9.60 | 40.90 | 51.70 | 23.18 | 7.31 | 2.00 |
|
94 |
+
| **Llama-3-SynE (ours)** | _65.19_ | **58.24** | **57.34** | _28.20_ | _60.80_ | _81.00_ | **94.10** | **43.64** | **42.07** | _45.60_ |
|
95 |
|
96 |
> 在 **中文评估基准**(如 C-Eval 和 CMMLU)上,Llama-3-SynE 显著优于基础模型 Llama-3(8B),表明我们的方法在提升中文语言能力方面非常有效。
|
97 |
|
|
|
101 |
|
102 |
“PHY”、“CHE” 和 “BIO” 分别表示对应基准的物理、化学和生物子任务。
|
103 |
|
104 |
+
| **模型** | **SciEval PHY** | **SciEval CHE** | **SciEval BIO** | **SciEval Avg.** | **SciQ** | **GaoKao MathQA** | **GaoKao CHE** | **GaoKao BIO** | **ARC Easy** | **ARC Challenge** | **ARC Avg.** | **AQUA-RAT** |
|
105 |
+
| :---------------------- | :-------------- | :-------------- | :-------------- | :--------------- | :-------- | :---------------- | :------------- | :------------- | :----------- | :---------------- | :----------- | :----------- |
|
106 |
+
| Llama-3-8B | 46.95 | 63.45 | 74.53 | 65.47 | 90.90 | 27.92 | 32.85 | 43.81 | 91.37 | 77.73 | 84.51 | _27.95_ |
|
107 |
+
| DCLM-7B | **56.71** | 64.39 | 72.03 | 66.25 | **92.50** | 29.06 | 31.40 | 37.14 | 89.52 | 76.37 | 82.94 | 20.08 |
|
108 |
+
| Mistral-7B-v0.3 | 48.17 | 59.41 | 68.89 | 61.51 | 89.40 | 30.48 | 30.92 | 41.43 | 87.33 | 74.74 | 81.04 | 23.23 |
|
109 |
+
| Llama-3-Chinese-8B | 48.17 | 67.34 | 73.90 | _67.34_ | 89.20 | 27.64 | 30.43 | 38.57 | 88.22 | 70.48 | 79.35 | 27.56 |
|
110 |
+
| MAmmoTH2-8B | 49.39 | **69.36** | _76.83_ | **69.60** | 90.20 | **32.19** | _36.23_ | _49.05_ | **92.85** | **84.30** | **88.57** | 27.17 |
|
111 |
+
| Galactica-6.7B | 34.76 | 43.39 | 54.07 | 46.27 | 71.50 | 23.65 | 27.05 | 24.76 | 65.91 | 46.76 | 56.33 | 20.87 |
|
112 |
+
| **Llama-3-SynE (ours)** | _53.66_ | _67.81_ | **77.45** | **69.60** | _91.20_ | _31.05_ | **51.21** | **69.52** | _91.58_ | _80.97_ | _86.28_ | **28.74** |
|
113 |
|
114 |
> 在 **科学评估基准**(如 SciEval、GaoKao 和 ARC)上,Llama-3-SynE 显著优于基础模型,特别是在中文科学基准上表现出显著提升(例如,高考生物子测试中提升了 25.71%)。
|
115 |
|
|
|
173 |
|
174 |
## 许可证
|
175 |
|
176 |
+
本项目基于 Meta 的 Llama-3 模型开发,Llama-3-SynE 模型权重的使用必须遵循 Llama-3 [许可协议](https://github.com/meta-llama/llama3/blob/main/LICENSE)。此开源代码库中的代码遵循 [Apache 2.0](LICENSE) 许可证。
|
177 |
|
178 |
## 引用
|
179 |
|