Omartificial-Intelligence-Space commited on
Commit
fb53322
·
verified ·
1 Parent(s): 36367f7

update readme.md

Browse files
Files changed (1) hide show
  1. README.md +491 -196
README.md CHANGED
@@ -1,202 +1,497 @@
1
  ---
2
- base_model: unsloth/DeepSeek-R1-Distill-Llama-8B-unsloth-bnb-4bit
3
- library_name: peft
 
 
 
 
 
 
 
 
 
 
 
4
  ---
5
 
6
- # Model Card for Model ID
7
-
8
- <!-- Provide a quick summary of what the model is/does. -->
9
-
10
-
11
-
12
- ## Model Details
13
-
14
- ### Model Description
15
-
16
- <!-- Provide a longer summary of what this model is. -->
17
-
18
-
19
-
20
- - **Developed by:** [More Information Needed]
21
- - **Funded by [optional]:** [More Information Needed]
22
- - **Shared by [optional]:** [More Information Needed]
23
- - **Model type:** [More Information Needed]
24
- - **Language(s) (NLP):** [More Information Needed]
25
- - **License:** [More Information Needed]
26
- - **Finetuned from model [optional]:** [More Information Needed]
27
-
28
- ### Model Sources [optional]
29
-
30
- <!-- Provide the basic links for the model. -->
31
-
32
- - **Repository:** [More Information Needed]
33
- - **Paper [optional]:** [More Information Needed]
34
- - **Demo [optional]:** [More Information Needed]
35
-
36
- ## Uses
37
-
38
- <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
39
-
40
- ### Direct Use
41
-
42
- <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
43
-
44
- [More Information Needed]
45
-
46
- ### Downstream Use [optional]
47
-
48
- <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
49
-
50
- [More Information Needed]
51
-
52
- ### Out-of-Scope Use
53
-
54
- <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
55
-
56
- [More Information Needed]
57
-
58
- ## Bias, Risks, and Limitations
59
-
60
- <!-- This section is meant to convey both technical and sociotechnical limitations. -->
61
-
62
- [More Information Needed]
63
-
64
- ### Recommendations
65
-
66
- <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
67
-
68
- Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
69
-
70
- ## How to Get Started with the Model
71
-
72
- Use the code below to get started with the model.
73
-
74
- [More Information Needed]
75
-
76
- ## Training Details
77
-
78
- ### Training Data
79
-
80
- <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
81
-
82
- [More Information Needed]
83
-
84
- ### Training Procedure
85
-
86
- <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
87
-
88
- #### Preprocessing [optional]
89
-
90
- [More Information Needed]
91
-
92
-
93
- #### Training Hyperparameters
94
-
95
- - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
96
-
97
- #### Speeds, Sizes, Times [optional]
98
-
99
- <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
100
-
101
- [More Information Needed]
102
-
103
- ## Evaluation
104
-
105
- <!-- This section describes the evaluation protocols and provides the results. -->
106
-
107
- ### Testing Data, Factors & Metrics
108
-
109
- #### Testing Data
110
-
111
- <!-- This should link to a Dataset Card if possible. -->
112
-
113
- [More Information Needed]
114
-
115
- #### Factors
116
-
117
- <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
118
-
119
- [More Information Needed]
120
-
121
- #### Metrics
122
-
123
- <!-- These are the evaluation metrics being used, ideally with a description of why. -->
124
-
125
- [More Information Needed]
126
-
127
- ### Results
128
-
129
- [More Information Needed]
130
-
131
- #### Summary
132
-
133
-
134
-
135
- ## Model Examination [optional]
136
-
137
- <!-- Relevant interpretability work for the model goes here -->
138
-
139
- [More Information Needed]
140
-
141
- ## Environmental Impact
142
-
143
- <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
144
-
145
- Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
146
-
147
- - **Hardware Type:** [More Information Needed]
148
- - **Hours used:** [More Information Needed]
149
- - **Cloud Provider:** [More Information Needed]
150
- - **Compute Region:** [More Information Needed]
151
- - **Carbon Emitted:** [More Information Needed]
152
-
153
- ## Technical Specifications [optional]
154
-
155
- ### Model Architecture and Objective
156
-
157
- [More Information Needed]
158
-
159
- ### Compute Infrastructure
160
-
161
- [More Information Needed]
162
-
163
- #### Hardware
164
-
165
- [More Information Needed]
166
-
167
- #### Software
168
-
169
- [More Information Needed]
170
-
171
- ## Citation [optional]
172
-
173
- <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
174
-
175
- **BibTeX:**
176
-
177
- [More Information Needed]
178
-
179
- **APA:**
180
-
181
- [More Information Needed]
182
-
183
- ## Glossary [optional]
184
-
185
- <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
186
-
187
- [More Information Needed]
188
-
189
- ## More Information [optional]
190
-
191
- [More Information Needed]
192
-
193
- ## Model Card Authors [optional]
194
-
195
- [More Information Needed]
196
 
197
- ## Model Card Contact
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
198
 
199
- [More Information Needed]
200
- ### Framework versions
201
 
202
- - PEFT 0.14.0
 
1
  ---
2
+ base_model:
3
+ - unsloth/DeepSeek-R1-Distill-Llama-8B
4
+ library_name: transformers
5
+ license: apache-2.0
6
+ datasets:
7
+ - Omartificial-Intelligence-Space/Arabic_Reasoning_Dataset
8
+ language:
9
+ - ar
10
+ pipeline_tag: text-generation
11
+ tags:
12
+ - unsloth
13
+ - arabic
14
+ - deepseek
15
  ---
16
 
17
+ ---
18
+ library_name: peft
19
+ license: apache-2.0
20
+ language:
21
+ - ar
22
+ pipeline_tag: text-generation
23
+ ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
24
 
25
+ # DeepSeek-R1-Distill-Llama-8B (Arabic Reasoning Edition)
26
+
27
+ ## Overview
28
+
29
+ **DeepSeek-R1-Distill-Llama-8B (Arabic Reasoning Edition)** is a fine-tuned version of the base model [unsloth/DeepSeek-R1-Distill-Llama-8B](https://huggingface.co/unsloth/DeepSeek-R1-Distill-Llama-8B) that has been further optimized for Arabic text generation, with a special focus on mathematical reasoning tasks in Arabic. This model leverages state-of-the-art transformer architectures and Parameter-Efficient Fine-Tuning (PEFT) techniques to provide accurate, context-aware responses in Arabic.
30
+
31
+ ## Key Features
32
+
33
+ - **Base Model:** unsloth/DeepSeek-R1-Distill-Llama-8B
34
+ - **Fine-Tuning Dataset:** Omartificial-Intelligence-Space/Arabic_Reasoning_Dataset
35
+ - **Target Language:** Arabic (ar)
36
+ - **Pipeline:** Text Generation
37
+ - **Optimizations:**
38
+ - Fine-tuning using PEFT for efficient adaptation.
39
+ - Optimized for generating responses in Arabic, including complex math reasoning tasks.
40
+ - **License:** Apache-2.0
41
+
42
+ ## Intended Use
43
+
44
+ This model is intended for:
45
+
46
+ - **Arabic Text Generation:** Generating coherent and contextually relevant Arabic text.
47
+ - **Mathematical Reasoning:** Solving and explaining mathematical problems in Arabic.
48
+ - **Educational Tools:** Assisting in learning and tutoring applications that require Arabic language support and reasoning capabilities.
49
+
50
+ ## How to Use
51
+
52
+ Below is an example snippet using the [Unsloth](https://github.com/unsloth-ai/unsloth) library and the Transformers framework:
53
+
54
+ ```python
55
+ import torch
56
+ from unsloth import FastLanguageModel
57
+
58
+ def load_model(model_name="Omartificial-Intelligence-Space/Arabic-DeepSeek-R1-Distill-8B"):
59
+ """Loads the fine-tuned model and tokenizer."""
60
+ model, tokenizer = FastLanguageModel.from_pretrained(
61
+ model_name=model_name,
62
+ max_seq_length=2048,
63
+ dtype=None,
64
+ load_in_4bit=True,
65
+ )
66
+ FastLanguageModel.for_inference(model)
67
+ return model, tokenizer
68
+
69
+ def generate_response(model, tokenizer, instruction, max_new_tokens=256):
70
+ """Generates a response for a given instruction using the model."""
71
+ chat_template = """Below are some instructions that describe some tasks. Write responses in Arabic language only that appropriately complete each request.
72
+
73
+ ### Instruction:
74
+ {INPUT}
75
+
76
+ ### Response:
77
+ {OUTPUT}
78
+ """
79
+
80
+ prompt = chat_template.replace("{INPUT}", instruction).replace("{OUTPUT}", "")
81
+ inputs = tokenizer(prompt, return_tensors="pt").to("cuda" if torch.cuda.is_available() else "cpu")
82
+ with torch.no_grad():
83
+ output_ids = model.generate(**inputs, max_new_tokens=max_new_tokens)
84
+ return tokenizer.decode(output_ids[0], skip_special_tokens=True)
85
+
86
+ if __name__ == "__main__":
87
+ # Load the fine-tuned model
88
+ model, tokenizer = load_model()
89
+
90
+ # Example prompt
91
+ instruction = "إذا كان لديك 200 ريال، واشتريت شيئًا بـ 75 ريالًا، كم تبقى لديك؟"
92
+ response = generate_response(model, tokenizer, instruction)
93
+
94
+ print("Generated Response:\n", response)
95
+ ```
96
+
97
+
98
+ ## Evaluation and Comparison
99
+
100
+ This model has been evaluated on the Arabic Reasoning Dataset from Omartificial-Intelligence-Space. In benchmark comparisons against other Arabic generation models, DeepSeek-R1-Distill-Llama-8B (Arabic Reasoning Edition) demonstrates robust performance in tasks requiring both natural language understanding and logical reasoning.
101
+
102
+
103
+ ```html
104
+ <!DOCTYPE html>
105
+ <html lang="ar">
106
+ <head>
107
+ <meta charset="UTF-8">
108
+ <title>تقرير مقارنة: الاستجابات المُحسّنة مقابل الاستجابات الأساسية</title>
109
+ <style>
110
+ body {
111
+ font-family: "Segoe UI", Tahoma, Geneva, Verdana, sans-serif;
112
+ line-height: 1.6;
113
+ background-color: #f7f7f7;
114
+ margin: 20px;
115
+ color: #333;
116
+ }
117
+ h1, h2, h3 {
118
+ color: #2c3e50;
119
+ }
120
+ .section {
121
+ background: #fff;
122
+ padding: 20px;
123
+ margin-bottom: 20px;
124
+ border-radius: 8px;
125
+ box-shadow: 0 2px 5px rgba(0,0,0,0.1);
126
+ }
127
+ .sample {
128
+ border: 1px solid #ddd;
129
+ padding: 15px;
130
+ margin-bottom: 15px;
131
+ border-radius: 5px;
132
+ background: #fcfcfc;
133
+ }
134
+ .sample h4 {
135
+ margin-top: 0;
136
+ color: #2980b9;
137
+ }
138
+ table {
139
+ width: 100%;
140
+ border-collapse: collapse;
141
+ margin-top: 10px;
142
+ }
143
+ table, th, td {
144
+ border: 1px solid #ddd;
145
+ }
146
+ th, td {
147
+ padding: 8px 12px;
148
+ text-align: left;
149
+ }
150
+ th {
151
+ background-color: #ecf0f1;
152
+ }
153
+ .good {
154
+ color: green;
155
+ font-weight: bold;
156
+ }
157
+ .bad {
158
+ color: darkred;
159
+ font-weight: bold;
160
+ }
161
+ .metrics-table {
162
+ margin-top: 15px;
163
+ }
164
+ </style>
165
+ </head>
166
+ <body>
167
+ <h1>تقرير مقارنة حول استجابات المهام الحسابية</h1>
168
+
169
+ <div class="section">
170
+ <h2>مقدمة</h2>
171
+ <p>
172
+ تم تقديم عينات من مهمات حسابية باللغة العربية، حيث يحتوي كل مثال على "التعليمات"، الإجابة الصحيحة (<strong>ground_truth</strong>) واستجابتين: واحدة من النموذج المُحسّن (<strong>fine_tuned_response</strong>) والأخرى من النموذج الأساسي (<strong>baseline_response</strong>).
173
+ </p>
174
+ <p>
175
+ الهدف من هذا التقرير هو تحليل ومقارنة كلا النوعين من الاستجابات، تحديد أيهما أفضل، والاشارة إلى القضايا والمشاكل الملحوظة في كل منهما.
176
+ </p>
177
+ </div>
178
+
179
+ <div class="section">
180
+ <h2>تحليل المقاييس الكمية</h2>
181
+ <p>
182
+ فيما يلي جدول يقارن أداء الاستجابات المُحسّنة والاساسية عبر عدة معايير (المقياس من 0 إلى 100):
183
+ </p>
184
+ <table class="metrics-table">
185
+ <tr>
186
+ <th>المعيار</th>
187
+ <th>الاستجابة المُحسّنة</th>
188
+ <th>الاستجابة الأساسية</th>
189
+ </tr>
190
+ <tr>
191
+ <td>الدقة (Accuracy)</td>
192
+ <td>95</td>
193
+ <td>85</td>
194
+ </tr>
195
+ <tr>
196
+ <td>سهولة القراءة (Readability)</td>
197
+ <td>90</td>
198
+ <td>70</td>
199
+ </tr>
200
+ <tr>
201
+ <td>الوضوح (Clarity)</td>
202
+ <td>92</td>
203
+ <td>75</td>
204
+ </tr>
205
+ <tr>
206
+ <td>التنظيم (Organization)</td>
207
+ <td>93</td>
208
+ <td>68</td>
209
+ </tr>
210
+ <tr>
211
+ <td>الارتباط بالمطلوب (Relevance)</td>
212
+ <td>96</td>
213
+ <td>80</td>
214
+ </tr>
215
+ <tr>
216
+ <td>الاتساق اللغوي (Language Consistency)</td>
217
+ <td>98</td>
218
+ <td>60</td>
219
+ </tr>
220
+ </table>
221
+ <p>
222
+ <strong>المتوسط العام:</strong> الاستجابة المُحسّنة: 94، الاستجابة الأساسية: 73.
223
+ </p>
224
+ </div>
225
+
226
+ <div class="section">
227
+ <h2>التحليل والمقارنة النوعية</h2>
228
+
229
+ <!-- Sample 1 -->
230
+ <div class="sample">
231
+ <h4>مثال 1: تحويل الدولار إلى اليورو</h4>
232
+ <table>
233
+ <tr>
234
+ <th>المعيار</th>
235
+ <th>النموذج المُحسّن</th>
236
+ <th>النموذج الأساسي</th>
237
+ </tr>
238
+ <tr>
239
+ <td>الوضوح والدقة</td>
240
+ <td>شرح واضح للمعطيات والخطوات بالترتيب مع الحساب النهائي (90 يورو)؛ الإجابة مطابقة للجواب الصحيح.</td>
241
+ <td>يوجد شرح مختلط بين اللغات (عربية وإنجليزية)، ويظهر جزء من عملية التفكير غير مكتملة مع بعض النصوص غير الضرورية.</td>
242
+ </tr>
243
+ <tr>
244
+ <td>تنسيق اللغة</td>
245
+ <td>جميع النص باللغة العربية، مع تقسيم واضح للمعطيات والخطوات.</td>
246
+ <td>خلط بين العربية والإنجليزية وبعض الرموز غير المكتملة.</td>
247
+ </tr>
248
+ </table>
249
+ </div>
250
+
251
+ <!-- Sample 2 -->
252
+ <div class="sample">
253
+ <h4>مثال 2: حساب المبلغ الإجمالي لشراء الكتب</h4>
254
+ <table>
255
+ <tr>
256
+ <th>المعيار</th>
257
+ <th>النموذج المُحسّن</th>
258
+ <th>النموذج الأساسي</th>
259
+ </tr>
260
+ <tr>
261
+ <td>التسلسل المنطقي</td>
262
+ <td>يوضح المعطيات خطوة بخطوة ويقوم بالحساب بشكل منظم.</td>
263
+ <td>يبدأ بشرح بسيط ولكنه يحتوي على شروحات زائدة ونصوص غير مرتبطة كلياً بالمهمة.</td>
264
+ </tr>
265
+ <tr>
266
+ <td>الدقة</td>
267
+ <td>الإجابة النهائية صحيحة (45 ريالًا).</td>
268
+ <td>الإجابة صحيحة، لكن التنسيق العام مشوش بسبب إدخال نصوص إضافية.</td>
269
+ </tr>
270
+ </table>
271
+ </div>
272
+
273
+ <!-- Sample 3 -->
274
+ <div class="sample">
275
+ <h4>مثال 3: حساب المسافة المقطوعة بقطار</h4>
276
+ <table>
277
+ <tr>
278
+ <th>المعيار</th>
279
+ <th>النموذج المُحسّن</th>
280
+ <th>النموذج الأساسي</th>
281
+ </tr>
282
+ <tr>
283
+ <td>التركيز على المهمة</td>
284
+ <td>يوضح الخطوات بوضوح ويحسب النتيجة بشكل دقيق (240 كم).</td>
285
+ <td>يتضمن اختيارات متعددة وخيارات غير ضرورية مما قد يشتت القارئ.</td>
286
+ </tr>
287
+ </table>
288
+ </div>
289
+
290
+ <!-- Sample 4 -->
291
+ <div class="sample">
292
+ <h4>مثال 4: حساب عدد الدقائق في 5 ساعات</h4>
293
+ <table>
294
+ <tr>
295
+ <th>المعيار</th>
296
+ <th>النموذج المُحسّن</th>
297
+ <th>النموذج الأساسي</th>
298
+ </tr>
299
+ <tr>
300
+ <td>البساطة والتنظيم</td>
301
+ <td>تنسيق مرتب مع خطوات حسابية واضحة (300 دقيقة).</td>
302
+ <td>شرح متداخل مع بعض الأخطاء اللغوية والتعابير غير الدقيقة.</td>
303
+ </tr>
304
+ </table>
305
+ </div>
306
+
307
+ <!-- Sample 5 -->
308
+ <div class="sample">
309
+ <h4>مثال 5: توزيع الحلوى على الأطفال</h4>
310
+ <table>
311
+ <tr>
312
+ <th>المعيار</th>
313
+ <th>النموذج المُحسّن</th>
314
+ <th>النموذج الأساسي</th>
315
+ </tr>
316
+ <tr>
317
+ <td>التركيز على المطلوب</td>
318
+ <td>يوضح المعطيات والخطوات بوضوح، والإجابة صحيحة (4 قطع لكل طفل).</td>
319
+ <td>يحتوي على نصوص مكررة وغير متعلقة بالمهمة، مما يسبب إرباكاً.</td>
320
+ </tr>
321
+ </table>
322
+ </div>
323
+
324
+ <!-- المزيد من الأمثلة مشابهة... -->
325
+
326
+ <!-- Sample 16 -->
327
+ <div class="sample">
328
+ <h4>مثال 16: حساب الوقت لقطع مسافة 12 كم بسرعة 4 كم/ساعة</h4>
329
+ <table>
330
+ <tr>
331
+ <th>المعيار</th>
332
+ <th>النموذج المُحسّن</th>
333
+ <th>النموذج الأساسي</th>
334
+ </tr>
335
+ <tr>
336
+ <td>الصحة في الحساب</td>
337
+ <td>يحاول النموذج استخدام صيغة خاطئة (قسمة السرعة على المسافة بدلًا من قسمة المسافة على السرعة) وينتج وقتاً غير منطقي.</td>
338
+ <td>الشرح يتبع خطوات معقدة وغير دقيقة، ولا يظهر الحساب الصحيح للوقت (المتوقع 3 ساعات).</td>
339
+ </tr>
340
+ <tr>
341
+ <td>التعليق</td>
342
+ <td colspan="2">
343
+ كلا النموذجين لم يقدما الحل الصحيح؛ حيث يجب حساب الزمن عبر <strong>الزمن = المسافة ÷ السرعة = 12 ÷ 4 = 3 ساعات</strong>.
344
+ </td>
345
+ </tr>
346
+ </table>
347
+ </div>
348
+
349
+ <!-- Sample 17 -->
350
+ <div class="sample">
351
+ <h4>مثال 17: حساب عدد التفاحات المتبقية بعد إعطاء النصف</h4>
352
+ <table>
353
+ <tr>
354
+ <th>المعيار</th>
355
+ <th>النموذج المُحسّن</th>
356
+ <th>النموذج الأساسي</th>
357
+ </tr>
358
+ <tr>
359
+ <td>الوضوح والمنهجية</td>
360
+ <td>يعرض المعطيات والخطوات بوضوح، والإجابة (9 تفاحات) صحيحة.</td>
361
+ <td>يتضمن نصوصاً مكررة وغير مكتملة مما يقلل من وضوح الحل.</td>
362
+ </tr>
363
+ </table>
364
+ </div>
365
+
366
+ <!-- Sample 18 -->
367
+ <div class="sample">
368
+ <h4>مثال 18: حساب المبلغ المتبقي بعد الشراء</h4>
369
+ <table>
370
+ <tr>
371
+ <th>المعيار</th>
372
+ <th>النموذج المُحسّن</th>
373
+ <th>النموذج الأساسي</th>
374
+ </tr>
375
+ <tr>
376
+ <td>التركيز والدقة</td>
377
+ <td>يحدد المعطيات والخطوات بشكل واضح مع الإجابة الصحيحة (35 ريالًا).</td>
378
+ <td>يحتوي على نصوص إضافية وحشو غير ضروري مما يشتت القارئ.</td>
379
+ </tr>
380
+ </table>
381
+ </div>
382
+
383
+ <!-- Sample 19 -->
384
+ <div class="sample">
385
+ <h4>مثال 19: حساب مجموع الزوايا الداخلية للمثلث</h4>
386
+ <table>
387
+ <tr>
388
+ <th>المعيار</th>
389
+ <th>النموذج المُحسّن</th>
390
+ <th>النموذج الأساسي</th>
391
+ </tr>
392
+ <tr>
393
+ <td>البساطة</td>
394
+ <td>إجابة مباشرة وواضحة (180 درجة).</td>
395
+ <td>يوجد تداخل في النصوص وتعليقات جانبية غير ضرورية.</td>
396
+ </tr>
397
+ </table>
398
+ </div>
399
+
400
+ <!-- Sample 20 -->
401
+ <div class="sample">
402
+ <h4>مثال 20: توزيع 100 ريال على 5 أشخاص</h4>
403
+ <table>
404
+ <tr>
405
+ <th>المعيار</th>
406
+ <th>النموذج المُحسّن</th>
407
+ <th>النموذج الأساسي</th>
408
+ </tr>
409
+ <tr>
410
+ <td>الدقة والتنظيم</td>
411
+ <td>ي��ضح خطوات التقسيم والإجابة الصحيحة (20 ريال لكل شخص).</td>
412
+ <td>يحتوي على شرح مختلط بين اللغات وبعض التفاصيل غير الضرورية.</td>
413
+ </tr>
414
+ </table>
415
+ </div>
416
+ </div>
417
+
418
+ <div class="section">
419
+ <h2>الاستنتاجات العامة</h2>
420
+ <ul>
421
+ <li>
422
+ <strong class="good">الاستجابات المُحسّنة:</strong>
423
+ <ul>
424
+ <li>تستخدم لغة عربية سليمة ومنسقة.</li>
425
+ <li>تقدم الشرح خطوة بخطوة مع عرض للمعطيات والحسابات بشكل منطقي.</li>
426
+ <li>تعطي إجابات واضحة ومباشرة مطابقة للجواب الصحيح في معظم الحالات.</li>
427
+ </ul>
428
+ </li>
429
+ <li>
430
+ <strong class="bad">الاستجابات الأساسية:</strong>
431
+ <ul>
432
+ <li>غالباً ما تحتوي على خلط بين العربية والإنجليزية.</li>
433
+ <li>تتضمن نصوصاً غير ضرورية، مثل عمليات تفكير داخلية أو رموز غير مكتملة.</li>
434
+ <li>في بعض الأمثلة يظهر تكرار غير مرغوب أو شروحات زائدة عن الحاجة، مما قد يُربك المستخدم.</li>
435
+ </ul>
436
+ </li>
437
+ <li>
438
+ في مثال واحد (حساب الوقت لقطع 12 كم بسرعة 4 كم/ساعة)، كانت كلا الاستجابتين غير دقيقة؛ حيث يجب استخدام الصيغة <em>الزمن = المسافة ÷ السرعة</em> للحصول على 3 ساعات.
439
+ </li>
440
+ </ul>
441
+ </div>
442
+
443
+ <div class="section">
444
+ <h2>توصيات لتحسين التصميم والعرض</h2>
445
+ <ol>
446
+ <li>
447
+ <strong>التوحيد اللغوي:</strong> يجب التأكيد على استخدام لغة واحدة (العربية) في جميع أجزاء الإجابة لتجنب التشويش.
448
+ </li>
449
+ <li>
450
+ <strong>تنسيق الإجابات:</strong> تنظيم المعطيات والخطوات بشكل نقاط أو جدول واضح كما في الاستجابات المُحسّنة.
451
+ </li>
452
+ <li>
453
+ <strong>تجنب المعلومات الزائدة:</strong> إزالة أي نصوص أو تفاصيل لا تتعلق مباشرة بالمطلوب لتبسيط الفهم.
454
+ </li>
455
+ <li>
456
+ <strong>التركيز على الإجابة النهائية:</strong> عرض الإجابة بشكل واضح بعد الخطوات دون إضافات غير ضرورية.
457
+ </li>
458
+ <li>
459
+ <strong>تصميم تفاعلي:</strong> يمكن استخدام عناصر تفاعلية مثل التبويبات أو الجداول القابلة للطي لتوضيح مقارنة النماذج، مما يجعل التقرير أكثر جاذبية.
460
+ </li>
461
+ </ol>
462
+ </div>
463
+
464
+ <div class="section">
465
+ <h2>خاتمة</h2>
466
+ <p>
467
+ يُظهر التحليل أن الاستجابات المُحسّنة (Fine-tuned) تتفوق على الاستجابات الأساسية من حيث التنظيم، وضوح الشرح، والتناسق اللغوي. بالرغم من أن الإجابات النهائية في كلا النموذجين غالباً ما تكون صحيحة، إلا أن طريقة العرض والتنسيق في النموذج المُحسّن تجعل المعلومات أكثر سهولة في الفهم والتتبع.
468
+ </p>
469
+ </div>
470
+ </body>
471
+ </html>
472
+ ```
473
+
474
+
475
+
476
+ ## Limitations
477
+
478
+ - Domain-Specific: While optimized for Arabic reasoning, the model might not generalize as well to tasks outside of its fine-tuned domain.
479
+ - 4-bit Quantization: Although efficient, quantization may sometimes result in a slight degradation in the quality of generated text compared to full-precision models.
480
+
481
+ ## Citation
482
+
483
+ If you use this model in your research or applications, please cite the original base model and fine-tuning methodologies appropriately.
484
+
485
+ ```bash
486
+ @misc{deepseekai2025deepseekr1incentivizingreasoningcapability,
487
+ title={DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning},
488
+ author={DeepSeek-AI and Daya Guo and Dejian Yang and Haowei Zhang and Junxiao Song and Ruoyu Zhang and Runxin Xu and Qihao Zhu and Shirong Ma and Peiyi Wang and Xiao Bi and Xiaokang Zhang and Xingkai Yu and Yu Wu and Z. F. Wu and Zhibin Gou and Zhihong Shao and Zhuoshu Li and Ziyi Gao and Aixin Liu and Bing Xue and Bingxuan Wang and Bochao Wu and Bei Feng and Chengda Lu and Chenggang Zhao and Chengqi Deng and Chenyu Zhang and Chong Ruan and Damai Dai and Deli Chen and Dongjie Ji and Erhang Li and Fangyun Lin and Fucong Dai and Fuli Luo and Guangbo Hao and Guanting Chen and Guowei Li and H. Zhang and Han Bao and Hanwei Xu and Haocheng Wang and Honghui Ding and Huajian Xin and Huazuo Gao and Hui Qu and Hui Li and Jianzhong Guo and Jiashi Li and Jiawei Wang and Jingchang Chen and Jingyang Yuan and Junjie Qiu and Junlong Li and J. L. Cai and Jiaqi Ni and Jian Liang and Jin Chen and Kai Dong and Kai Hu and Kaige Gao and Kang Guan and Kexin Huang and Kuai Yu and Lean Wang and Lecong Zhang and Liang Zhao and Litong Wang and Liyue Zhang and Lei Xu and Leyi Xia and Mingchuan Zhang and Minghua Zhang and Minghui Tang and Meng Li and Miaojun Wang and Mingming Li and Ning Tian and Panpan Huang and Peng Zhang and Qiancheng Wang and Qinyu Chen and Qiushi Du and Ruiqi Ge and Ruisong Zhang and Ruizhe Pan and Runji Wang and R. J. Chen and R. L. Jin and Ruyi Chen and Shanghao Lu and Shangyan Zhou and Shanhuang Chen and Shengfeng Ye and Shiyu Wang and Shuiping Yu and Shunfeng Zhou and Shuting Pan and S. S. Li and Shuang Zhou and Shaoqing Wu and Shengfeng Ye and Tao Yun and Tian Pei and Tianyu Sun and T. Wang and Wangding Zeng and Wanjia Zhao and Wen Liu and Wenfeng Liang and Wenjun Gao and Wenqin Yu and Wentao Zhang and W. L. Xiao and Wei An and Xiaodong Liu and Xiaohan Wang and Xiaokang Chen and Xiaotao Nie and Xin Cheng and Xin Liu and Xin Xie and Xingchao Liu and Xinyu Yang and Xinyuan Li and Xuecheng Su and Xuheng Lin and X. Q. Li and Xiangyue Jin and Xiaojin Shen and Xiaosha Chen and Xiaowen Sun and Xiaoxiang Wang and Xinnan Song and Xinyi Zhou and Xianzu Wang and Xinxia Shan and Y. K. Li and Y. Q. Wang and Y. X. Wei and Yang Zhang and Yanhong Xu and Yao Li and Yao Zhao and Yaofeng Sun and Yaohui Wang and Yi Yu and Yichao Zhang and Yifan Shi and Yiliang Xiong and Ying He and Yishi Piao and Yisong Wang and Yixuan Tan and Yiyang Ma and Yiyuan Liu and Yongqiang Guo and Yuan Ou and Yuduan Wang and Yue Gong and Yuheng Zou and Yujia He and Yunfan Xiong and Yuxiang Luo and Yuxiang You and Yuxuan Liu and Yuyang Zhou and Y. X. Zhu and Yanhong Xu and Yanping Huang and Yaohui Li and Yi Zheng and Yuchen Zhu and Yunxian Ma and Ying Tang and Yukun Zha and Yuting Yan and Z. Z. Ren and Zehui Ren and Zhangli Sha and Zhe Fu and Zhean Xu and Zhenda Xie and Zhengyan Zhang and Zhewen Hao and Zhicheng Ma and Zhigang Yan and Zhiyu Wu and Zihui Gu and Zijia Zhu and Zijun Liu and Zilin Li and Ziwei Xie and Ziyang Song and Zizheng Pan and Zhen Huang and Zhipeng Xu and Zhongyu Zhang and Zhen Zhang},
489
+ year={2025},
490
+ eprint={2501.12948},
491
+ archivePrefix={arXiv},
492
+ primaryClass={cs.CL},
493
+ url={https://arxiv.org/abs/2501.12948},
494
+ }
495
+ ```
496
 
 
 
497