Update README.md
Browse files
README.md
CHANGED
@@ -1,455 +1,374 @@
|
|
1 |
-
---
|
2 |
-
language: []
|
3 |
-
library_name: sentence-transformers
|
4 |
-
tags:
|
5 |
-
- sentence-transformers
|
6 |
-
- sentence-similarity
|
7 |
-
- feature-extraction
|
8 |
-
- generated_from_trainer
|
9 |
-
- dataset_size:96546
|
10 |
-
- loss:SoftmaxLoss
|
11 |
-
base_model: HooshvareLab/bert-base-parsbert-uncased
|
12 |
-
datasets: []
|
13 |
-
widget:
|
14 |
-
- source_sentence: '
|
15 |
-
|
16 |
-
|
17 |
-
|
18 |
-
|
19 |
-
|
20 |
-
|
21 |
-
|
22 |
-
|
23 |
-
|
24 |
-
|
25 |
-
|
26 |
-
|
27 |
-
|
28 |
-
|
29 |
-
|
30 |
-
|
31 |
-
|
32 |
-
|
33 |
-
|
34 |
-
|
35 |
-
|
36 |
-
|
37 |
-
|
38 |
-
|
39 |
-
|
40 |
-
|
41 |
-
|
42 |
-
|
43 |
-
|
44 |
-
|
45 |
-
|
46 |
-
|
47 |
-
|
48 |
-
|
49 |
-
|
50 |
-
|
51 |
-
|
52 |
-
|
53 |
-
|
54 |
-
|
55 |
-
|
56 |
-
|
57 |
-
|
58 |
-
|
59 |
-
|
60 |
-
|
61 |
-
|
62 |
-
|
63 |
-
|
64 |
-
|
65 |
-
|
66 |
-
|
67 |
-
|
68 |
-
|
69 |
-
|
70 |
-
|
71 |
-
|
72 |
-
|
73 |
-
|
74 |
-
|
75 |
-
|
76 |
-
|
77 |
-
|
78 |
-
|
79 |
-
|
80 |
-
|
81 |
-
|
82 |
-
|
83 |
-
|
84 |
-
|
85 |
-
|
86 |
-
|
87 |
-
|
88 |
-
|
89 |
-
|
90 |
-
|
91 |
-
|
92 |
-
|
93 |
-
|
94 |
-
|
95 |
-
|
96 |
-
|
97 |
-
|
98 |
-
|
99 |
-
|
100 |
-
|
101 |
-
|
102 |
-
|
103 |
-
|
104 |
-
|
105 |
-
|
106 |
-
|
107 |
-
|
108 |
-
|
109 |
-
|
110 |
-
|
111 |
-
|
112 |
-
|
113 |
-
|
114 |
-
|
115 |
-
<!--
|
116 |
-
|
117 |
-
|
118 |
-
|
119 |
-
|
120 |
-
|
121 |
-
|
122 |
-
|
123 |
-
|
124 |
-
|
125 |
-
|
126 |
-
|
127 |
-
|
128 |
-
|
129 |
-
|
130 |
-
|
131 |
-
|
132 |
-
|
133 |
-
|
134 |
-
|
135 |
-
|
136 |
-
|
137 |
-
|
138 |
-
|
139 |
-
|
140 |
-
|
141 |
-
|
142 |
-
|
143 |
-
|
144 |
-
|
145 |
-
|
146 |
-
|
147 |
-
|
148 |
-
|
149 |
-
|
150 |
-
|
151 |
-
|
152 |
-
|
153 |
-
|
154 |
-
|
155 |
-
|
156 |
-
|
157 |
-
|
158 |
-
|
159 |
-
|
160 |
-
|
161 |
-
|
162 |
-
|
163 |
-
|
164 |
-
|
165 |
-
|
166 |
-
|
167 |
-
|
168 |
-
|
169 |
-
|
170 |
-
|
171 |
-
|
172 |
-
|
173 |
-
|
174 |
-
|
175 |
-
|
176 |
-
|
177 |
-
|
178 |
-
|
179 |
-
|
180 |
-
|
181 |
-
|
182 |
-
|
183 |
-
|
184 |
-
|
185 |
-
|
186 |
-
|
187 |
-
|
188 |
-
|
189 |
-
|
190 |
-
|
191 |
-
|
192 |
-
|
193 |
-
|
194 |
-
|
195 |
-
|
196 |
-
|
197 |
-
|
198 |
-
|
199 |
-
|
200 |
-
|
201 |
-
|
202 |
-
|
203 |
-
|
204 |
-
|
205 |
-
|
206 |
-
|
207 |
-
|
208 |
-
|
209 |
-
|
210 |
-
|
211 |
-
|
212 |
-
|
213 |
-
|
214 |
-
|
215 |
-
|
216 |
-
|
217 |
-
|
218 |
-
|
219 |
-
|
220 |
-
|
221 |
-
|
222 |
-
|
223 |
-
|
224 |
-
|
225 |
-
|
226 |
-
|
227 |
-
|
228 |
-
|
229 |
-
|
230 |
-
|
231 |
-
|
232 |
-
|
233 |
-
|
234 |
-
|
235 |
-
|
236 |
-
|
237 |
-
|
238 |
-
|
239 |
-
|
240 |
-
|
241 |
-
|
242 |
-
|
243 |
-
|
244 |
-
|
245 |
-
|
246 |
-
|
247 |
-
- `
|
248 |
-
- `
|
249 |
-
- `
|
250 |
-
- `
|
251 |
-
- `
|
252 |
-
- `
|
253 |
-
- `
|
254 |
-
- `
|
255 |
-
- `
|
256 |
-
- `
|
257 |
-
|
258 |
-
|
259 |
-
|
260 |
-
|
261 |
-
- `
|
262 |
-
- `
|
263 |
-
- `
|
264 |
-
- `
|
265 |
-
- `
|
266 |
-
- `
|
267 |
-
- `
|
268 |
-
- `
|
269 |
-
- `
|
270 |
-
- `
|
271 |
-
- `
|
272 |
-
- `
|
273 |
-
- `
|
274 |
-
- `
|
275 |
-
- `
|
276 |
-
- `
|
277 |
-
- `
|
278 |
-
- `
|
279 |
-
- `
|
280 |
-
- `
|
281 |
-
- `
|
282 |
-
- `
|
283 |
-
- `
|
284 |
-
|
285 |
-
|
286 |
-
|
287 |
-
|
288 |
-
|
289 |
-
|
290 |
-
|
291 |
-
|
292 |
-
|
293 |
-
|
294 |
-
|
295 |
-
|
296 |
-
|
297 |
-
|
298 |
-
|
299 |
-
|
300 |
-
|
301 |
-
|
302 |
-
|
303 |
-
|
304 |
-
|
305 |
-
|
306 |
-
|
307 |
-
|
308 |
-
|
309 |
-
|
310 |
-
|
311 |
-
|
312 |
-
|
313 |
-
|
314 |
-
|
315 |
-
|
316 |
-
|
317 |
-
|
318 |
-
|
319 |
-
|
320 |
-
|
321 |
-
|
322 |
-
|
323 |
-
|
324 |
-
|
325 |
-
|
326 |
-
|
327 |
-
|
328 |
-
|
329 |
-
|
330 |
-
|
331 |
-
|
332 |
-
|
333 |
-
-
|
334 |
-
-
|
335 |
-
-
|
336 |
-
-
|
337 |
-
-
|
338 |
-
-
|
339 |
-
-
|
340 |
-
|
341 |
-
|
342 |
-
|
343 |
-
|
344 |
-
|
345 |
-
|
346 |
-
|
347 |
-
-
|
348 |
-
-
|
349 |
-
|
350 |
-
|
351 |
-
|
352 |
-
|
353 |
-
|
354 |
-
|
355 |
-
|
356 |
-
|
357 |
-
|
358 |
-
|
359 |
-
|
360 |
-
|
361 |
-
|
362 |
-
|
363 |
-
|
364 |
-
|
365 |
-
|
366 |
-
|
367 |
-
|
368 |
-
|
369 |
-
|
370 |
-
|
371 |
-
|
372 |
-
|
373 |
-
|
374 |
-
| 0.1060 | 40 | 0.4591 | - |
|
375 |
-
| 0.1591 | 60 | 0.3316 | - |
|
376 |
-
| 0.2121 | 80 | 0.2856 | - |
|
377 |
-
| 0.2651 | 100 | 0.2599 | - |
|
378 |
-
| 0.3181 | 120 | 0.2478 | - |
|
379 |
-
| 0.3712 | 140 | 0.214 | - |
|
380 |
-
| 0.4242 | 160 | 0.1996 | - |
|
381 |
-
| 0.4772 | 180 | 0.1929 | - |
|
382 |
-
| 0.5302 | 200 | 0.193 | 0.1766 |
|
383 |
-
| 0.5833 | 220 | 0.1798 | - |
|
384 |
-
| 0.6363 | 240 | 0.1794 | - |
|
385 |
-
| 0.6893 | 260 | 0.1735 | - |
|
386 |
-
| 0.7423 | 280 | 0.1713 | - |
|
387 |
-
| 0.7954 | 300 | 0.1547 | - |
|
388 |
-
| 0.8484 | 320 | 0.1545 | - |
|
389 |
-
| 0.9014 | 340 | 0.1577 | - |
|
390 |
-
| 0.9544 | 360 | 0.1575 | - |
|
391 |
-
| 1.0075 | 380 | 0.1431 | - |
|
392 |
-
| 1.0605 | 400 | 0.1498 | 0.1489 |
|
393 |
-
| 1.1135 | 420 | 0.1327 | - |
|
394 |
-
| 1.1665 | 440 | 0.1223 | - |
|
395 |
-
| 1.2196 | 460 | 0.1154 | - |
|
396 |
-
| 1.2726 | 480 | 0.1059 | - |
|
397 |
-
| 1.3256 | 500 | 0.1068 | - |
|
398 |
-
| 1.3786 | 520 | 0.0959 | - |
|
399 |
-
| 1.4316 | 540 | 0.0884 | - |
|
400 |
-
| 1.4847 | 560 | 0.0896 | - |
|
401 |
-
| 1.5377 | 580 | 0.0899 | - |
|
402 |
-
| **1.5907** | **600** | **0.0814** | **0.1445** |
|
403 |
-
| 1.6437 | 620 | 0.0877 | - |
|
404 |
-
| 1.6968 | 640 | 0.0816 | - |
|
405 |
-
| 1.7498 | 660 | 0.0846 | - |
|
406 |
-
| 1.8028 | 680 | 0.0783 | - |
|
407 |
-
| 1.8558 | 700 | 0.0787 | - |
|
408 |
-
| 1.9089 | 720 | 0.0874 | - |
|
409 |
-
| 1.9619 | 740 | 0.0883 | - |
|
410 |
-
|
411 |
-
* The bold row denotes the saved checkpoint.
|
412 |
-
|
413 |
-
### Framework Versions
|
414 |
-
- Python: 3.10.13
|
415 |
-
- Sentence Transformers: 3.0.1
|
416 |
-
- Transformers: 4.39.3
|
417 |
-
- PyTorch: 2.1.1+cu121
|
418 |
-
- Accelerate: 0.26.1
|
419 |
-
- Datasets: 2.19.2
|
420 |
-
- Tokenizers: 0.15.2
|
421 |
-
|
422 |
-
## Citation
|
423 |
-
|
424 |
-
### BibTeX
|
425 |
-
|
426 |
-
#### Sentence Transformers and SoftmaxLoss
|
427 |
-
```bibtex
|
428 |
-
@inproceedings{reimers-2019-sentence-bert,
|
429 |
-
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
430 |
-
author = "Reimers, Nils and Gurevych, Iryna",
|
431 |
-
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
432 |
-
month = "11",
|
433 |
-
year = "2019",
|
434 |
-
publisher = "Association for Computational Linguistics",
|
435 |
-
url = "https://arxiv.org/abs/1908.10084",
|
436 |
-
}
|
437 |
-
```
|
438 |
-
|
439 |
-
<!--
|
440 |
-
## Glossary
|
441 |
-
|
442 |
-
*Clearly define terms in order to be accessible across audiences.*
|
443 |
-
-->
|
444 |
-
|
445 |
-
<!--
|
446 |
-
## Model Card Authors
|
447 |
-
|
448 |
-
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
449 |
-
-->
|
450 |
-
|
451 |
-
<!--
|
452 |
-
## Model Card Contact
|
453 |
-
|
454 |
-
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
455 |
-->
|
|
|
1 |
+
---
|
2 |
+
language: []
|
3 |
+
library_name: sentence-transformers
|
4 |
+
tags:
|
5 |
+
- sentence-transformers
|
6 |
+
- sentence-similarity
|
7 |
+
- feature-extraction
|
8 |
+
- generated_from_trainer
|
9 |
+
- dataset_size:96546
|
10 |
+
- loss:SoftmaxLoss
|
11 |
+
base_model: HooshvareLab/bert-base-parsbert-uncased
|
12 |
+
datasets: []
|
13 |
+
widget:
|
14 |
+
- source_sentence: 'اسبهای سنگین با اندامی عضلانی را چه مینامند؟'
|
15 |
+
sentences:
|
16 |
+
- خرطوم فیلها حاصل اتصال بینی و لب بالایی است. این عضو، استخوان ندارد و دارای مقدار کمی چربی و حدود ۱۵۰۰۰۰ دسته ماهیچهای است. یک یا دو لب انگشت در نوک آن وجود دارد. خرطوم این پستاندار تقریباً ۱٫۸ متر رشد میکند و وزنی حدود ۱۴۰ کیلوگرم دارد. این جانوران از خرطوم دراز خود به عنوان دست استفاده میکنند و با آن غذا و آب را در دهان خود میگذارند. فیلها با استفاده از خرطوم خود میتوانند حداکثر تا ۳۵۰کیلوگرم بار را برداشته و جابجا کنند. از دیگر کاربردهای خرطوم فیلها احساس بویایی و همچنین تولید صدا است.
|
17 |
+
- اسبهای سنگین با اندامی عضلانی را به عنوان «اسبهای خونسرد» میشناسند. آنها را به دلیل توان ماهیچهای و خوی آرام و صبورشان پرورش میدهند. مردم با کمک آنها بارهای سنگین را جابجا میکردند. گاهی به این اسبهای «غولهای نجیب» هم گفته میشود. از جمله اسبهای باری میتوان به نژاد بلژیکی و کلایدزدیل اشاره کرد. برخی از این اسبها مانند پرچرون سبکتر و چابک ترند و درکشیدن بار یا شخم زدن زمین در اقلیم خشک به کار میآیند. دیگران مانند شایر آرامتر و نیرومندترند و برای شخم زدن خاکهای رسی کاربرد دارند. برخی اسبچهها هم در دستهٔ خونسردها جای میگیرند.
|
18 |
+
- بدنهٔ اسکلتی یا خرپا (Truss) در هواپیماهای اولیه تا جنگ جهانی اول بسیار استفاده میشد. هماکنون در هواپیماهای دستساز و نیز هواپیماهای مدل از این نوع بدنه استفاده زیادی میشود چرا که ساده، سبک و مقاوم بوده و با تیرکهای چوبی قابل ساخت هستند. در این نوع بدنه اغلب نیروها و تنشهای وارده توسط سازه اصلی تحمل شده و از پوسته برای ایجاد شکل آیرودینامیکی به سازه استفاده میشود. سازهٔ اصلی از تیرکهای طولی، تیرکهای مورب، قابهای عرضی و کابلهای نگهدارنده تشکیل شدهاست. برادران رایت که اولین هواپیماهای قابل کنترل را ساختند از این حالت در ساختار بدنهٔ هواپیماهایشان استفاده میکردند.
|
19 |
+
pipeline_tag: sentence-similarity
|
20 |
+
---
|
21 |
+
|
22 |
+
# SentenceTransformer based on HooshvareLab/bert-base-parsbert-uncased
|
23 |
+
|
24 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [HooshvareLab/bert-base-parsbert-uncased](https://huggingface.co/HooshvareLab/bert-base-parsbert-uncased). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
25 |
+
|
26 |
+
## Model Details
|
27 |
+
|
28 |
+
### Model Description
|
29 |
+
- **Model Type:** Sentence Transformer
|
30 |
+
- **Base model:** [HooshvareLab/bert-base-parsbert-uncased](https://huggingface.co/HooshvareLab/bert-base-parsbert-uncased) <!-- at revision d73a0e2c7492c33bd5819bcdb23eba207404dd19 -->
|
31 |
+
- **Maximum Sequence Length:** 512 tokens
|
32 |
+
- **Output Dimensionality:** 768 tokens
|
33 |
+
- **Similarity Function:** Cosine Similarity
|
34 |
+
<!-- - **Training Dataset:** Unknown -->
|
35 |
+
<!-- - **Language:** Unknown -->
|
36 |
+
<!-- - **License:** Unknown -->
|
37 |
+
|
38 |
+
### Model Sources
|
39 |
+
|
40 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
41 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
42 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
43 |
+
|
44 |
+
### Full Model Architecture
|
45 |
+
|
46 |
+
```
|
47 |
+
SentenceTransformer(
|
48 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
|
49 |
+
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
50 |
+
)
|
51 |
+
```
|
52 |
+
|
53 |
+
## Usage
|
54 |
+
|
55 |
+
### Direct Usage (Sentence Transformers)
|
56 |
+
|
57 |
+
First install the Sentence Transformers library:
|
58 |
+
|
59 |
+
```bash
|
60 |
+
pip install -U sentence-transformers
|
61 |
+
```
|
62 |
+
|
63 |
+
Then you can load this model and run inference.
|
64 |
+
```python
|
65 |
+
from sentence_transformers import SentenceTransformer
|
66 |
+
|
67 |
+
# Download from the 🤗 Hub
|
68 |
+
model = SentenceTransformer("myrkur/sentence-transformer-parsbert-fa")
|
69 |
+
# Run inference
|
70 |
+
sentences = [
|
71 |
+
'پرتغالی، در وطن اصلی خود، پرتغال، تقریباً توسط ۱۰ میلیون نفر جمعیت صحبت می\u200cشود. پرتغالی همچنین به عنوان زبان رسمی برزیل، بیش از ۲۰۰ میلیون نفر در آن کشور و همچنین کشورهای همسایه، در شرق پاراگوئه و در شمال اروگوئه، سخنگو دارد، که کمی بیش از نیمی از جمعیت آمریکای جنوبی را تشکیل می\u200cدهند؛ بنابراین پرتغالی پرسخنگوترین زبان رسمی رومی در یک کشور واحد است. این زبان در شش کشور آفریقایی زبان رسمی است (آنگولا، دماغه سبز، گینه بیسائو، موزامبیک، گینه استوایی و سائوتومه و پرنسیپ) و توسط ۳۰ میلیون نفر از ساکنان آن قاره به عنوان زبان نخست گویش می\u200cشود. در آسیا، پرتغالی با سایر زبان\u200cها در تیمور شرقی و ماکائو رسمی است، در حالی که بیشتر پرتغالی\u200cزبانان در آسیا - حدود ۴۰۰٫۰۰۰ نفر - به دلیل بازگشت مهاجرت ژاپنی\u200cهای برزیل ساکن ژاپن هستند. در آمریکای شمالی ۱٫۰۰۰٫۰۰۰ نفر به پرتغالی به عنوان زبان نخست خود صحبت می\u200cکنند. پرتغالی در اقیانوسیه به دلیل شمار سخنگویانش در تیمور شرقی، پس از فرانسوی، دومین زبان رومی است که بیش از همه گویش می\u200cشود. نزدیکترین خویشاوند آن، گالیسی، دارای وضعیت رسمی در جامعه خودمختار گالیسیا در اسپانیا، همراه با اسپانیایی است.',
|
72 |
+
'در حدود اواخر کدام قرن پیش از میلاد سکاهای کوچ\u200cنشین در مرزهای شرقی اشکانیان پیشروی کردند؟',
|
73 |
+
'عباس جدیدی که بود؟',
|
74 |
+
]
|
75 |
+
embeddings = model.encode(sentences)
|
76 |
+
print(embeddings.shape)
|
77 |
+
# [3, 768]
|
78 |
+
|
79 |
+
# Get the similarity scores for the embeddings
|
80 |
+
similarities = model.similarity(embeddings, embeddings)
|
81 |
+
print(similarities.shape)
|
82 |
+
# [3, 3]
|
83 |
+
```
|
84 |
+
|
85 |
+
<!--
|
86 |
+
### Direct Usage (Transformers)
|
87 |
+
|
88 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
89 |
+
|
90 |
+
</details>
|
91 |
+
-->
|
92 |
+
|
93 |
+
<!--
|
94 |
+
### Downstream Usage (Sentence Transformers)
|
95 |
+
|
96 |
+
You can finetune this model on your own dataset.
|
97 |
+
|
98 |
+
<details><summary>Click to expand</summary>
|
99 |
+
|
100 |
+
</details>
|
101 |
+
-->
|
102 |
+
|
103 |
+
<!--
|
104 |
+
### Out-of-Scope Use
|
105 |
+
|
106 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
107 |
+
-->
|
108 |
+
|
109 |
+
<!--
|
110 |
+
## Bias, Risks and Limitations
|
111 |
+
|
112 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
113 |
+
-->
|
114 |
+
|
115 |
+
<!--
|
116 |
+
### Recommendations
|
117 |
+
|
118 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
119 |
+
-->
|
120 |
+
|
121 |
+
## Training Details
|
122 |
+
|
123 |
+
### Training Dataset
|
124 |
+
|
125 |
+
#### Unnamed Dataset
|
126 |
+
|
127 |
+
|
128 |
+
* Size: 96,546 training samples
|
129 |
+
* Columns: <code>anchor</code>, <code>positive</code>, and <code>label</code>
|
130 |
+
* Approximate statistics based on the first 1000 samples:
|
131 |
+
| | anchor | positive | label |
|
132 |
+
|:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:------------------------------------------------|
|
133 |
+
| type | string | string | int |
|
134 |
+
| details | <ul><li>min: 14 tokens</li><li>mean: 151.98 tokens</li><li>max: 283 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 15.24 tokens</li><li>max: 90 tokens</li></ul> | <ul><li>0: ~50.50%</li><li>1: ~49.50%</li></ul> |
|
135 |
+
* Samples:
|
136 |
+
| anchor | positive | label |
|
137 |
+
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------|:---------------|
|
138 |
+
| <code>پاستل یک محیط نقاشی به شکل چوب است که از رنگدانههای پودری خالص و چسب تشکیل شدهاست. رنگدانههای مورد استفاده در پاستل همانهایی هستند که برای تولید همه محیطهای هنری رنگی از جمله رنگ روغن استفاده میشود. چسب دارای رنگ خنثی و اشباع کم است. اثر رنگی پاستیل بیش از هر فرایند به رنگدانههای خشک طبیعی نزدیکتر است. از آنجا که سطح یک نقاشی پاستلی شکننده است و به راحتی لکه دار میشود، حفظ آن نیاز به اقدامات محافظتی مانند قاببندی زیر شیشه دارد. همچنین ممکن است با ماده ثابت کننده اسپری شود. با این وجود، وقتی با رنگدانههای دائمی ساخته میشود و از آنها به درستی مراقبت میشود، ممکن است نقاشی پاستلی قرنها بدون تغییر باقی بماند. پاستلها، همانطور که نقاشیهای ساخته شده با یک محیط مایع، در ب��ابر ترک خوردگی و تغییر رنگ که در اثر تغییر در رنگ، تیرگی یا ابعاد محیط خشک میشود، حساس نیستند.</code> | <code>پاستل از چه چیزهایی تشکیل شده است؟</code> | <code>1</code> |
|
139 |
+
| <code>یک روش تغذیه و زندگی است که هدف آن حذف هر نوع محصول حیوانی چه در غذا و چه در مواد مصرفی است. مهمترین دلایل گرایش به وگانیسم افراد، مسائل اخلاقی یا رعایت حقوق حیوانات، حفاظت محیط زیست، حفظ سلامتی، مسائل معنوی یا مذهبی است. بسیاری از افراد وگان با پرورش صنعتی حیوانات و آزمایش روی حیوانات مخالف هستند. از مهمترین محصولات حیوانی که پاک گیاهخواران یا وگانها از مصرف آنها خودداری میکنند میتوان به انواع گوشت (گوشت قرمز، مرغ، آبزیان، ماکیان و...)، لبنیات، تخممرغ، عسل، ابریشم، چرم، خز، و... و نیز محصولاتی که در آنها از فراوردههای حیوانی (مانند ژله که از ژلاتین بهدست میآید) استفاده شدهاست اشاره کرد.</code> | <code>گیاهخواری چه روشی است؟</code> | <code>1</code> |
|
140 |
+
| <code>اسبهای سنگین با اندامی عضلانی را به عنوان «اسبهای خونسرد» میشناسند. آنها را به دلیل توان ماهیچهای و خوی آرام و صبورشان پرورش میدهند. مردم با کمک آنها بارهای سنگین را جابجا میکردند. گاهی به این اسبهای «غولهای نجیب» هم گفته میشود. از جمله اسبهای باری میتوان به نژاد بلژیکی و کلایدزدیل اشاره کرد. برخی از این اسبها مانند پرچرون سبکتر و چابک ترند و درکشیدن بار یا شخم زدن زمین در اقلیم خشک به کار میآیند. دیگران مانند شایر آرامتر و نیرومندترند و برای شخم زدن خاکهای رسی کاربرد دارند. برخی اسبچهها هم در دستهٔ خونسردها جای میگیرند.</code> | <code>اسبهای سنگین با اندامی عضلانی را چه مینامند؟</code> | <code>1</code> |
|
141 |
+
* Loss: [<code>SoftmaxLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#softmaxloss)
|
142 |
+
|
143 |
+
### Evaluation Dataset
|
144 |
+
|
145 |
+
#### Unnamed Dataset
|
146 |
+
|
147 |
+
|
148 |
+
* Size: 11,990 evaluation samples
|
149 |
+
* Columns: <code>anchor</code>, <code>positive</code>, and <code>label</code>
|
150 |
+
* Approximate statistics based on the first 1000 samples:
|
151 |
+
| | anchor | positive | label |
|
152 |
+
|:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:------------------------------------------------|
|
153 |
+
| type | string | string | int |
|
154 |
+
| details | <ul><li>min: 41 tokens</li><li>mean: 146.59 tokens</li><li>max: 297 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 15.28 tokens</li><li>max: 48 tokens</li></ul> | <ul><li>0: ~47.90%</li><li>1: ~52.10%</li></ul> |
|
155 |
+
* Samples:
|
156 |
+
| anchor | positive | label |
|
157 |
+
|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------|:---------------|
|
158 |
+
| <code>بدنهٔ اسکلتی یا خرپا (Truss) در هواپیماهای اولیه تا جنگ جهانی اول بسیار استفاده میشد. هماکنون در هواپیماهای دستساز و نیز هواپیماهای مدل از این نوع بدنه استفاده زیادی میشود چرا که ساده، سبک و مقاوم بوده و با تیرکهای چوبی قابل ساخت هستند. در این نوع بدنه اغلب نیروها و تنشهای وارده توسط سازه اصلی تحمل شده و از پوسته برای ایجاد شکل آیرودینامیکی به سازه استفاده میشود. سازهٔ اصلی از تیرکهای طولی، تیرکهای مورب، قابهای عرضی و کابلهای نگهدارنده تشکیل شدهاست. برادران رایت که اولین هواپیماهای قابل کنترل را ساختند از این حالت در ساختار بدنهٔ هواپیماهایشان استفاده میکردند.</code> | <code>در چه انتخاباتی یک نامزد نیاز به بیست درصد آرا دارد تا انتخابشدن وی تضمین شود؟</code> | <code>0</code> |
|
159 |
+
| <code>شاید بتوان گفت این موضوع بر میگردد به ریشه زبان بلوچی که برگرفته از زبان پهلوی اشکانی و ساسانی میباشد. از آنجا که زبان پهلوی با دگرگونیهایی به زبان فارسی نو (امروزی) تبدیل شدهاست ویکی از این دگرگونیها حذف (گ) از برخی کلمات میباشد میتوان اینگونه بیان کرد که حرف گ و برخی حروف غیر عربی در زبان بلوچی خالص باقی مانده اما در زبان فارسی امروز گ از برخی کلمات حذف شده و دگرگون شدهاست؛ یعنی زبان بلوچی، "گ " اوستا را که در پازند و فارسی به "های " غیر ملفوظ تبدیل شده، مانند زبان پهلوی به صور ت "گ " و گاهی همان "ک " نگهداشته است. مثالهای دیگر از دگرگونی حروف زبان باستان در فارسی نو اما ثابت ماندن آنها در کلمات بلوچی در زیر آمدهاست:</code> | <code>در چه سالی هگل برای ادامهٔ تحصیل به دبیرستان ایلوستره رفت؟</code> | <code>0</code> |
|
160 |
+
| <code>خرطوم فیلها حاصل اتصال بینی و لب بالایی است. این عضو، استخوان ندارد و دارای مقدار کمی چربی و حدود ۱۵۰۰۰۰ دسته ماهیچهای است. یک یا دو لب انگشت در نوک آن وجود دارد. خرطوم این پستاندار تقریباً ۱٫۸ متر رشد میکند و وزنی حدود ۱۴۰ کیلوگرم دارد. این جانوران از خرطوم دراز خود به عنوان دست استفاده میکنند و با آن غذا و آب را در دهان خود میگذارند. فیلها با استفاده از خرطوم خود میتوانند حداکثر تا ۳۵۰کیلوگرم بار را برداشته و جابجا کنند. از دیگر کاربردهای خرطوم فیلها احساس بویایی و همچنین تولید صدا است.</code> | <code>فیلها از خرطوم دراز خود به عنوان چه چیزی استفاده میکنند؟</code> | <code>1</code> |
|
161 |
+
* Loss: [<code>SoftmaxLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#softmaxloss)
|
162 |
+
|
163 |
+
### Training Hyperparameters
|
164 |
+
#### Non-Default Hyperparameters
|
165 |
+
|
166 |
+
- `per_device_train_batch_size`: 16
|
167 |
+
- `per_device_eval_batch_size`: 16
|
168 |
+
- `gradient_accumulation_steps`: 16
|
169 |
+
- `num_train_epochs`: 2
|
170 |
+
- `lr_scheduler_type`: cosine
|
171 |
+
- `warmup_ratio`: 0.1
|
172 |
+
- `bf16`: True
|
173 |
+
- `load_best_model_at_end`: True
|
174 |
+
- `deepspeed`: False
|
175 |
+
- `batch_sampler`: no_duplicates
|
176 |
+
|
177 |
+
#### All Hyperparameters
|
178 |
+
<details><summary>Click to expand</summary>
|
179 |
+
|
180 |
+
- `overwrite_output_dir`: False
|
181 |
+
- `do_predict`: False
|
182 |
+
- `prediction_loss_only`: True
|
183 |
+
- `per_device_train_batch_size`: 16
|
184 |
+
- `per_device_eval_batch_size`: 16
|
185 |
+
- `per_gpu_train_batch_size`: None
|
186 |
+
- `per_gpu_eval_batch_size`: None
|
187 |
+
- `gradient_accumulation_steps`: 16
|
188 |
+
- `eval_accumulation_steps`: None
|
189 |
+
- `learning_rate`: 5e-05
|
190 |
+
- `weight_decay`: 0.0
|
191 |
+
- `adam_beta1`: 0.9
|
192 |
+
- `adam_beta2`: 0.999
|
193 |
+
- `adam_epsilon`: 1e-08
|
194 |
+
- `max_grad_norm`: 1.0
|
195 |
+
- `num_train_epochs`: 2
|
196 |
+
- `max_steps`: -1
|
197 |
+
- `lr_scheduler_type`: cosine
|
198 |
+
- `lr_scheduler_kwargs`: {}
|
199 |
+
- `warmup_ratio`: 0.1
|
200 |
+
- `warmup_steps`: 0
|
201 |
+
- `log_level`: passive
|
202 |
+
- `log_level_replica`: warning
|
203 |
+
- `log_on_each_node`: True
|
204 |
+
- `logging_nan_inf_filter`: True
|
205 |
+
- `save_safetensors`: True
|
206 |
+
- `save_on_each_node`: False
|
207 |
+
- `save_only_model`: False
|
208 |
+
- `no_cuda`: False
|
209 |
+
- `use_cpu`: False
|
210 |
+
- `use_mps_device`: False
|
211 |
+
- `seed`: 42
|
212 |
+
- `data_seed`: None
|
213 |
+
- `jit_mode_eval`: False
|
214 |
+
- `use_ipex`: False
|
215 |
+
- `bf16`: True
|
216 |
+
- `fp16`: False
|
217 |
+
- `fp16_opt_level`: O1
|
218 |
+
- `half_precision_backend`: auto
|
219 |
+
- `bf16_full_eval`: False
|
220 |
+
- `fp16_full_eval`: False
|
221 |
+
- `tf32`: None
|
222 |
+
- `local_rank`: 0
|
223 |
+
- `ddp_backend`: None
|
224 |
+
- `tpu_num_cores`: None
|
225 |
+
- `tpu_metrics_debug`: False
|
226 |
+
- `debug`: []
|
227 |
+
- `dataloader_drop_last`: False
|
228 |
+
- `dataloader_num_workers`: 0
|
229 |
+
- `dataloader_prefetch_factor`: None
|
230 |
+
- `past_index`: -1
|
231 |
+
- `disable_tqdm`: False
|
232 |
+
- `remove_unused_columns`: True
|
233 |
+
- `label_names`: None
|
234 |
+
- `load_best_model_at_end`: True
|
235 |
+
- `ignore_data_skip`: False
|
236 |
+
- `fsdp`: []
|
237 |
+
- `fsdp_min_num_params`: 0
|
238 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
239 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
240 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True}
|
241 |
+
- `deepspeed`: False
|
242 |
+
- `label_smoothing_factor`: 0.0
|
243 |
+
- `optim`: adamw_torch
|
244 |
+
- `optim_args`: None
|
245 |
+
- `adafactor`: False
|
246 |
+
- `group_by_length`: False
|
247 |
+
- `length_column_name`: length
|
248 |
+
- `ddp_find_unused_parameters`: None
|
249 |
+
- `ddp_bucket_cap_mb`: None
|
250 |
+
- `ddp_broadcast_buffers`: False
|
251 |
+
- `dataloader_pin_memory`: True
|
252 |
+
- `dataloader_persistent_workers`: False
|
253 |
+
- `skip_memory_metrics`: True
|
254 |
+
- `use_legacy_prediction_loop`: False
|
255 |
+
- `push_to_hub`: False
|
256 |
+
- `resume_from_checkpoint`: None
|
257 |
+
- `hub_model_id`: None
|
258 |
+
- `hub_strategy`: every_save
|
259 |
+
- `hub_private_repo`: False
|
260 |
+
- `hub_always_push`: False
|
261 |
+
- `gradient_checkpointing`: False
|
262 |
+
- `gradient_checkpointing_kwargs`: None
|
263 |
+
- `include_inputs_for_metrics`: False
|
264 |
+
- `fp16_backend`: auto
|
265 |
+
- `push_to_hub_model_id`: None
|
266 |
+
- `push_to_hub_organization`: None
|
267 |
+
- `mp_parameters`:
|
268 |
+
- `auto_find_batch_size`: False
|
269 |
+
- `full_determinism`: False
|
270 |
+
- `torchdynamo`: None
|
271 |
+
- `ray_scope`: last
|
272 |
+
- `ddp_timeout`: 1800
|
273 |
+
- `torch_compile`: False
|
274 |
+
- `torch_compile_backend`: None
|
275 |
+
- `torch_compile_mode`: None
|
276 |
+
- `dispatch_batches`: None
|
277 |
+
- `split_batches`: None
|
278 |
+
- `include_tokens_per_second`: False
|
279 |
+
- `include_num_input_tokens_seen`: False
|
280 |
+
- `neftune_noise_alpha`: None
|
281 |
+
- `optim_target_modules`: None
|
282 |
+
- `batch_sampler`: no_duplicates
|
283 |
+
- `multi_dataset_batch_sampler`: proportional
|
284 |
+
|
285 |
+
</details>
|
286 |
+
|
287 |
+
### Training Logs
|
288 |
+
| Epoch | Step | Training Loss | loss |
|
289 |
+
|:----------:|:-------:|:-------------:|:----------:|
|
290 |
+
| 0.0265 | 20 | 0.7506 | - |
|
291 |
+
| 0.0530 | 40 | 0.6701 | - |
|
292 |
+
| 0.0530 | 20 | 0.5843 | - |
|
293 |
+
| 0.1060 | 40 | 0.4591 | - |
|
294 |
+
| 0.1591 | 60 | 0.3316 | - |
|
295 |
+
| 0.2121 | 80 | 0.2856 | - |
|
296 |
+
| 0.2651 | 100 | 0.2599 | - |
|
297 |
+
| 0.3181 | 120 | 0.2478 | - |
|
298 |
+
| 0.3712 | 140 | 0.214 | - |
|
299 |
+
| 0.4242 | 160 | 0.1996 | - |
|
300 |
+
| 0.4772 | 180 | 0.1929 | - |
|
301 |
+
| 0.5302 | 200 | 0.193 | 0.1766 |
|
302 |
+
| 0.5833 | 220 | 0.1798 | - |
|
303 |
+
| 0.6363 | 240 | 0.1794 | - |
|
304 |
+
| 0.6893 | 260 | 0.1735 | - |
|
305 |
+
| 0.7423 | 280 | 0.1713 | - |
|
306 |
+
| 0.7954 | 300 | 0.1547 | - |
|
307 |
+
| 0.8484 | 320 | 0.1545 | - |
|
308 |
+
| 0.9014 | 340 | 0.1577 | - |
|
309 |
+
| 0.9544 | 360 | 0.1575 | - |
|
310 |
+
| 1.0075 | 380 | 0.1431 | - |
|
311 |
+
| 1.0605 | 400 | 0.1498 | 0.1489 |
|
312 |
+
| 1.1135 | 420 | 0.1327 | - |
|
313 |
+
| 1.1665 | 440 | 0.1223 | - |
|
314 |
+
| 1.2196 | 460 | 0.1154 | - |
|
315 |
+
| 1.2726 | 480 | 0.1059 | - |
|
316 |
+
| 1.3256 | 500 | 0.1068 | - |
|
317 |
+
| 1.3786 | 520 | 0.0959 | - |
|
318 |
+
| 1.4316 | 540 | 0.0884 | - |
|
319 |
+
| 1.4847 | 560 | 0.0896 | - |
|
320 |
+
| 1.5377 | 580 | 0.0899 | - |
|
321 |
+
| **1.5907** | **600** | **0.0814** | **0.1445** |
|
322 |
+
| 1.6437 | 620 | 0.0877 | - |
|
323 |
+
| 1.6968 | 640 | 0.0816 | - |
|
324 |
+
| 1.7498 | 660 | 0.0846 | - |
|
325 |
+
| 1.8028 | 680 | 0.0783 | - |
|
326 |
+
| 1.8558 | 700 | 0.0787 | - |
|
327 |
+
| 1.9089 | 720 | 0.0874 | - |
|
328 |
+
| 1.9619 | 740 | 0.0883 | - |
|
329 |
+
|
330 |
+
* The bold row denotes the saved checkpoint.
|
331 |
+
|
332 |
+
### Framework Versions
|
333 |
+
- Python: 3.10.13
|
334 |
+
- Sentence Transformers: 3.0.1
|
335 |
+
- Transformers: 4.39.3
|
336 |
+
- PyTorch: 2.1.1+cu121
|
337 |
+
- Accelerate: 0.26.1
|
338 |
+
- Datasets: 2.19.2
|
339 |
+
- Tokenizers: 0.15.2
|
340 |
+
|
341 |
+
## Citation
|
342 |
+
|
343 |
+
### BibTeX
|
344 |
+
|
345 |
+
#### Sentence Transformers and SoftmaxLoss
|
346 |
+
```bibtex
|
347 |
+
@inproceedings{reimers-2019-sentence-bert,
|
348 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
349 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
350 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
351 |
+
month = "11",
|
352 |
+
year = "2019",
|
353 |
+
publisher = "Association for Computational Linguistics",
|
354 |
+
url = "https://arxiv.org/abs/1908.10084",
|
355 |
+
}
|
356 |
+
```
|
357 |
+
|
358 |
+
<!--
|
359 |
+
## Glossary
|
360 |
+
|
361 |
+
*Clearly define terms in order to be accessible across audiences.*
|
362 |
+
-->
|
363 |
+
|
364 |
+
<!--
|
365 |
+
## Model Card Authors
|
366 |
+
|
367 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
368 |
+
-->
|
369 |
+
|
370 |
+
<!--
|
371 |
+
## Model Card Contact
|
372 |
+
|
373 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
374 |
-->
|