RamsesDIIP commited on
Commit
29afbcc
1 Parent(s): 67121b1

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,669 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: intfloat/multilingual-e5-large
3
+ language:
4
+ - multilingual
5
+ library_name: sentence-transformers
6
+ license: apache-2.0
7
+ metrics:
8
+ - cosine_accuracy
9
+ - dot_accuracy
10
+ - manhattan_accuracy
11
+ - euclidean_accuracy
12
+ - max_accuracy
13
+ pipeline_tag: sentence-similarity
14
+ tags:
15
+ - sentence-transformers
16
+ - sentence-similarity
17
+ - feature-extraction
18
+ - generated_from_trainer
19
+ - dataset_size:10590
20
+ - loss:Matryoshka2dLoss
21
+ - loss:MatryoshkaLoss
22
+ - loss:MultipleNegativesRankingLoss
23
+ widget:
24
+ - source_sentence: 'query: Terraplenada i piconatge per a fonament de terraplè amb
25
+ material seleccionat de la pròpia excavació, en tongades de fins a 25 cm, amb
26
+ una compactació del 95% del PM, en entorn urbà amb dificultat de mobilitat, en
27
+ voreres > 3 i <= 5 m d''amplària o calçada/plataforma única > 7 i <= 12 m d''amplària,
28
+ amb afectació per serveis o elements de mobiliari urbà, en actuacions de més de
29
+ 2 m3'
30
+ sentences:
31
+ - 'passage: Terraplenada i piconatge per a fonament de terraplè amb material no
32
+ seleccionat de la pròpia excavació, en tongades de fins a 30 cm, amb una compactació
33
+ del 90% del PM, en entorn rural amb facilitat de mobilitat, en voreres > 2 i <=
34
+ 4 m d''amplària o calçada/plataforma única > 5 i <= 10 m d''amplària, sense afectació
35
+ per serveis o elements de mobiliari urbà, en actuacions de menys de 3 m3.'
36
+ - 'passage: Colocación de losas de cimentación utilizando hormigón armado, incorporando
37
+ un 20% de áridos reciclados, con aditivo hidrófugo HRA - 30 / B / 10 / XC4 + XS1,
38
+ y una dosificación de cemento de 400 kg/m3 y relación agua-cemento ≤ 0.5, vertido
39
+ mediante cubilote.'
40
+ - 'passage: Terraplenat i col·locació de grava per a fonament de terraplè utilitzant
41
+ material seleccionat de l''excavació, en capes de fins a 25 cm, amb una compactació
42
+ del 95% del pes màxim, en un entorn urbà amb dificultats de trànsit, en voreres
43
+ d''amplada entre 3 i 5 m o calçades/plataformes d''amplada entre 7 i 12 m, amb
44
+ afectacions a serveis o elements de mobiliari urbà, en projectes de més de 2 m3.'
45
+ - source_sentence: 'query: Vidrio aislante de luna de baja emisividad de 8+8 mm de
46
+ espesor con 1 butiral transparente clase 2 (B) 2 según UNE-EN 12600, cámara de
47
+ aire de 8 mm y luna de 5+5 mm de espesor con 1 butiral traslúcido de luna incoloro,
48
+ clase 2 (B) 2 según UNE-EN 12600, colocado con perfiles conformados de neopreno
49
+ sobre aluminio o PVC'
50
+ sentences:
51
+ - 'passage: Vidrio de baja emisividad de 8+8 mm de grosor con una capa de butiral
52
+ transparente clase 2 (B) 2 conforme a UNE-EN 12600, con una cámara de aire de
53
+ 8 mm y un vidrio de 5+5 mm de grosor con butiral translúcido incoloro, clase 2
54
+ (B) 2 según UNE-EN 12600, instalado con marcos de neopreno sobre aluminio o PVC.'
55
+ - 'passage: Vidrio de seguridad templado de 10+10 mm de espesor con 1 butiral opaco
56
+ clase 1 (A) 1 según UNE-EN 12600, cámara de aire de 10 mm y luna de 6+6 mm de
57
+ espesor con 1 butiral colorido, clase 1 (A) 1 según UNE-EN 12600, instalado con
58
+ marcos de acero inoxidable.'
59
+ - 'passage: Formigonament per a sostre nervat reticular amb formigó HA-25/F / 10
60
+ / I de consistència líquida, amb una mida màxima del granulat de 10 mm, que conté
61
+ >= 250 kg/m3 de ciment, adequat per a classe d''exposició I, abocat mitjançant
62
+ cubilot.'
63
+ - source_sentence: 'query: Hormigonado de dinteles con hormigón para armar HA - 35
64
+ / F / 10 / XC4 + XS1 con una cantidad de cemento de 325 kg/m3 i relación agua
65
+ cemento =< 0.5 y vertido con bomba'
66
+ sentences:
67
+ - 'passage: Formigonament per a fonaments a una profunditat màxima de 6 m utilitzant
68
+ formigó armat amb additiu impermeabilitzant HA - 35 / B / 20 / XC1, amb una dosi
69
+ de ciment de 300 kg/m3 i una relació aigua-ciment <= 0.6, abocat directament des
70
+ de camió.'
71
+ - 'passage: Colocación de dinteles utilizando hormigón HA - 35 / F / 10 / XC4 +
72
+ XS1, con una dosificación de cemento de 325 kg/m3 y una relación agua-cemento
73
+ menor o igual a 0.5, vertido mediante bomba.'
74
+ - 'passage: Hormigonado de vigas con mortero para armar HA - 30 / F / 15 / XC3 +
75
+ XS2 con una cantidad de cemento de 300 kg/m3 i relación agua cemento =< 0.6 y
76
+ vertido manualmente.'
77
+ - source_sentence: 'query: Reducción concéntrica, de polietileno, diámetro nominal
78
+ DN 63 - DN 50, presión nominal PN 16, con 2 uniones por soldadura socket (enchufe),
79
+ para canalización de polietileno para conducción de agua a presión, de acuerdo
80
+ con la norma UNE-EN 12201-3 y colocado en el fondo de la zanja en entorno urbano
81
+ sin dificultad de movilidad, sin afectación por presencia de servicios en la zanja,
82
+ sin presencia de entibación'
83
+ sentences:
84
+ - 'passage: Rigola de 40 cm d''amplada de peça de doble capa de formigó de color
85
+ blanc, dimensions 20x20x8 cm, destinada a rigoles, instal·lades amb morter i rejuntades
86
+ amb ciment, en àrees urbanes amb dificultats de mobilitat, en voreres de més de
87
+ 5 m d''amplada o calçades/plataformes úniques de més de 12 m d''amplada, sense
88
+ interferències amb serveis o mobiliari urbà, en projectes de 10 a 100 m.'
89
+ - 'passage: Reducción excéntrica, de polipropileno, diámetro nominal DN 75 - DN
90
+ 40, presión nominal PN 10, con 3 uniones por soldadura a tope, para canalización
91
+ de polipropileno para conducción de gas, de acuerdo con la norma UNE-EN 1555-3
92
+ y colocado en la parte superior de la zanja en entorno rural con dificultad de
93
+ movilidad, con afectación por presencia de servicios en la zanja, con necesidad
94
+ de entibación.'
95
+ - 'passage: Reducción excéntrica, de polietileno, diámetro nominal DN 63 - DN 50,
96
+ presión nominal PN 16, con 2 uniones por soldadura socket (enchufe), para tuberías
97
+ de polietileno destinadas a la conducción de agua a presión, conforme a la norma
98
+ UNE-EN 12201-3 y ubicada en el fondo de la zanja en un entorno urbano, sin obstáculos
99
+ para la movilidad, sin interferencias por servicios en la zanja, y sin necesidad
100
+ de entibación.'
101
+ - source_sentence: 'query: Aïllament amb planxa de poliestirè expandit (EPS), de 70
102
+ mm de gruix, de 100 kPa de tensió a la compressió, de 2 m2·K/W de resistència
103
+ tèrmica, amb una cara llisa i cantell preparat amb encaix, col·locades amb adhesiu
104
+ de formulació específica'
105
+ sentences:
106
+ - 'passage: Construcción de un forjado aligerado con un espesor total de 35 cm,
107
+ compuesto por una semiplaca de hormigón pretensado de 10 cm, bovedilla de poliestireno
108
+ de 19 cm y una capa de compresión de 6 cm, diseñado para soportar momentos flectores
109
+ de 98 a 197 kN·m y una sobrecarga de 4 a 5 kN/m2, utilizando armadura de acero
110
+ AP500 S y AP500 T, y hormigón HA - 30 con una dosificación de cemento de 300 kg/m3.'
111
+ - 'passage: Aïllament amb panell de poliuretà rígid, de 50 mm de gruix, de 150 kPa
112
+ de tensió a la compressió, de 3 m2·K/W de resistència tèrmica, amb una cara rugosa
113
+ i cantell recte, instal·lades amb un sistema de fixació mecànica.'
114
+ - 'passage: Aïllament amb panells de poliestirè extruït (XPS), de 80 mm de gruix,
115
+ amb una resistència a la compressió de 150 kPa, de 2,5 m2·K/W de resistència tèrmica,
116
+ amb una superfície llisa i vores dissenyades per encaixar, instal·lades amb un
117
+ adhesiu especialitzat.'
118
+ model-index:
119
+ - name: Multilingual E5 Large trained with triplet loss
120
+ results:
121
+ - task:
122
+ type: triplet
123
+ name: Triplet
124
+ dataset:
125
+ name: validation set
126
+ type: validation-set
127
+ metrics:
128
+ - type: cosine_accuracy
129
+ value: 1.0
130
+ name: Cosine Accuracy
131
+ - type: dot_accuracy
132
+ value: 0.0
133
+ name: Dot Accuracy
134
+ - type: manhattan_accuracy
135
+ value: 1.0
136
+ name: Manhattan Accuracy
137
+ - type: euclidean_accuracy
138
+ value: 1.0
139
+ name: Euclidean Accuracy
140
+ - type: max_accuracy
141
+ value: 1.0
142
+ name: Max Accuracy
143
+ - task:
144
+ type: triplet
145
+ name: Triplet
146
+ dataset:
147
+ name: test set
148
+ type: test-set
149
+ metrics:
150
+ - type: cosine_accuracy
151
+ value: 1.0
152
+ name: Cosine Accuracy
153
+ - type: dot_accuracy
154
+ value: 0.0
155
+ name: Dot Accuracy
156
+ - type: manhattan_accuracy
157
+ value: 1.0
158
+ name: Manhattan Accuracy
159
+ - type: euclidean_accuracy
160
+ value: 1.0
161
+ name: Euclidean Accuracy
162
+ - type: max_accuracy
163
+ value: 1.0
164
+ name: Max Accuracy
165
+ ---
166
+
167
+ # Multilingual E5 Large trained with triplet loss
168
+
169
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large) on the csv dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
170
+
171
+ ## Model Details
172
+
173
+ ### Model Description
174
+ - **Model Type:** Sentence Transformer
175
+ - **Base model:** [intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large) <!-- at revision ab10c1a7f42e74530fe7ae5be82e6d4f11a719eb -->
176
+ - **Maximum Sequence Length:** 512 tokens
177
+ - **Output Dimensionality:** 1024 tokens
178
+ - **Similarity Function:** Cosine Similarity
179
+ - **Training Dataset:**
180
+ - csv
181
+ - **Language:** multilingual
182
+ - **License:** apache-2.0
183
+
184
+ ### Model Sources
185
+
186
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
187
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
188
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
189
+
190
+ ### Full Model Architecture
191
+
192
+ ```
193
+ SentenceTransformer(
194
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
195
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
196
+ (2): Normalize()
197
+ )
198
+ ```
199
+
200
+ ## Usage
201
+
202
+ ### Direct Usage (Sentence Transformers)
203
+
204
+ First install the Sentence Transformers library:
205
+
206
+ ```bash
207
+ pip install -U sentence-transformers
208
+ ```
209
+
210
+ Then you can load this model and run inference.
211
+ ```python
212
+ from sentence_transformers import SentenceTransformer
213
+
214
+ # Download from the 🤗 Hub
215
+ model = SentenceTransformer("RamsesDIIP/me5-large-construction-esp-cat")
216
+ # Run inference
217
+ sentences = [
218
+ 'query: Aïllament amb planxa de poliestirè expandit (EPS), de 70 mm de gruix, de 100 kPa de tensió a la compressió, de 2 m2·K/W de resistència tèrmica, amb una cara llisa i cantell preparat amb encaix, col·locades amb adhesiu de formulació específica',
219
+ 'passage: Aïllament amb panells de poliestirè extruït (XPS), de 80 mm de gruix, amb una resistència a la compressió de 150 kPa, de 2,5 m2·K/W de resistència tèrmica, amb una superfície llisa i vores dissenyades per encaixar, instal·lades amb un adhesiu especialitzat.',
220
+ 'passage: Aïllament amb panell de poliuretà rígid, de 50 mm de gruix, de 150 kPa de tensió a la compressió, de 3 m2·K/W de resistència tèrmica, amb una cara rugosa i cantell recte, instal·lades amb un sistema de fixació mecànica.',
221
+ ]
222
+ embeddings = model.encode(sentences)
223
+ print(embeddings.shape)
224
+ # [3, 1024]
225
+
226
+ # Get the similarity scores for the embeddings
227
+ similarities = model.similarity(embeddings, embeddings)
228
+ print(similarities.shape)
229
+ # [3, 3]
230
+ ```
231
+
232
+ <!--
233
+ ### Direct Usage (Transformers)
234
+
235
+ <details><summary>Click to see the direct usage in Transformers</summary>
236
+
237
+ </details>
238
+ -->
239
+
240
+ <!--
241
+ ### Downstream Usage (Sentence Transformers)
242
+
243
+ You can finetune this model on your own dataset.
244
+
245
+ <details><summary>Click to expand</summary>
246
+
247
+ </details>
248
+ -->
249
+
250
+ <!--
251
+ ### Out-of-Scope Use
252
+
253
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
254
+ -->
255
+
256
+ ## Evaluation
257
+
258
+ ### Metrics
259
+
260
+ #### Triplet
261
+ * Dataset: `validation-set`
262
+ * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
263
+
264
+ | Metric | Value |
265
+ |:-------------------|:--------|
266
+ | cosine_accuracy | 1.0 |
267
+ | dot_accuracy | 0.0 |
268
+ | manhattan_accuracy | 1.0 |
269
+ | euclidean_accuracy | 1.0 |
270
+ | **max_accuracy** | **1.0** |
271
+
272
+ #### Triplet
273
+ * Dataset: `test-set`
274
+ * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
275
+
276
+ | Metric | Value |
277
+ |:-------------------|:--------|
278
+ | cosine_accuracy | 1.0 |
279
+ | dot_accuracy | 0.0 |
280
+ | manhattan_accuracy | 1.0 |
281
+ | euclidean_accuracy | 1.0 |
282
+ | **max_accuracy** | **1.0** |
283
+
284
+ <!--
285
+ ## Bias, Risks and Limitations
286
+
287
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
288
+ -->
289
+
290
+ <!--
291
+ ### Recommendations
292
+
293
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
294
+ -->
295
+
296
+ ## Training Details
297
+
298
+ ### Training Dataset
299
+
300
+ #### csv
301
+
302
+ * Dataset: csv
303
+ * Size: 10,590 training samples
304
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
305
+ * Approximate statistics based on the first 1000 samples:
306
+ | | anchor | positive | negative |
307
+ |:--------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
308
+ | type | string | string | string |
309
+ | details | <ul><li>min: 18 tokens</li><li>mean: 112.13 tokens</li><li>max: 315 tokens</li></ul> | <ul><li>min: 20 tokens</li><li>mean: 109.24 tokens</li><li>max: 314 tokens</li></ul> | <ul><li>min: 17 tokens</li><li>mean: 102.06 tokens</li><li>max: 298 tokens</li></ul> |
310
+ * Samples:
311
+ | anchor | positive | negative |
312
+ |:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
313
+ | <code>query: Pieza recta de hormigón para bordillos, doble capa, con sección normalizada peatonal A1 20x14 cm, según UNE 127340, de clase climática B, clase resistente a la abrasión H y clase resistente a flexión T (R-5 MPa) según UNE-EN 1340, colocado sobre base de hormigón no estructural HNE-15/P/40 de 20 a 25 cm de altura, y rejuntado con mortero para albañilería</code> | <code>passage: Elemento recto de concreto para bordillos, de doble capa, con dimensiones estandarizadas peatonales A1 20x14 cm, conforme a UNE 127340, de clase climática B, resistencia a la abrasión H y resistencia a flexión T (R-5 MPa) según UNE-EN 1340, instalado sobre una base de concreto no estructural HNE-15/P/40 de 20 a 25 cm de altura, y sellado con mortero para mampostería.</code> | <code>passage: Pieza curvada de hormigón para muros, capa simple, con sección no normalizada vehicular B2 30x20 cm, según UNE 127341, de clase climática A, clase resistente a la abrasión M y clase resistente a flexión S (R-10 MPa) según UNE-EN 1341, colocado sobre base de hormigón estructural HNE-20/P/50 de 15 a 20 cm de altura, y sellado con cemento para construcción.</code> |
314
+ | <code>query: Porta block de fulles batents de fusta per a interior, doble batent, de 35 mm de gruix, amb una llum de pas de 70 + 40 cm d'amplària i 200 cm d'alçària, per a un gruix de bastiment de 10 cm, com a màxim, acabat tropical envernissada, amb fulla cares llises de tauler aglomerat hidròfug xapat, galzes i tapajunts de MDF xapat, ribet de goma, ferramenta de penjar, pany de cop, amb joc de manetes, d'alumini anoditzat, amb placa petita, de preu mitjà</code> | <code>passage: Porta de fusta interior amb fulles batents, doble batent, gruix de 35 mm, amplada de 70 + 40 cm i alçada de 200 cm, dissenyada per a un gruix de bastiment de 10 cm com a màxim, acabat envernissat tropical, amb cares llises de tauler aglomerat resistent a la humitat, galzes i tapajunts de MDF, ribet de goma, incloent ferramenta de penjar, pany de cop, i joc de manetes d'alumini anoditzat amb placa petita, de gamma mitjana.</code> | <code>passage: Porta de fulles corredisses de metall per a exterior, amb un sistema de tancament automàtic, de 45 mm de gruix, amb una llum de pas de 80 + 50 cm d'amplària i 210 cm d'alçària, per a un gruix de bastiment de 12 cm, acabat galvanitzat, amb fulla de vidre temperitzat, marcs de ferro, segellat de silicona, mecanisme de bloqueig electrònic, amb manetes de plàstic reforçat, amb placa gran, de preu alt.</code> |
315
+ | <code>query: Formigonament de murs de contenció (CE, EHE), de 3 m d'alçària com a màxim, amb formigó en massa HM - 30 / B / 10 / XA2 amb una quantitat de ciment de 350 kg/m3 i relació aigua ciment =< 0.5 i abocat des de camió</code> | <code>passage: Construcció de murs de contenció (CE, EHE) amb una alçada màxima de 3 m, utilitzant formigó massiu HM - 30 / B / 10 / XA2, amb una dosi de ciment de 350 kg/m3 i una relació aigua-ciment ≤ 0.5, abocat directament des d'un camió.</code> | <code>passage: Formigonament de murs de suport (CE, EHE), de 4 m d'alçària com a mínim, amb formigó estructural C25/30 amb una quantitat de ciment de 400 kg/m3 i relació aigua ciment =< 0.45 i abocat manualment.</code> |
316
+ * Loss: [<code>Matryoshka2dLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshka2dloss) with these parameters:
317
+ ```json
318
+ {
319
+ "loss": "MultipleNegativesRankingLoss",
320
+ "n_layers_per_step": 1,
321
+ "last_layer_weight": 1.0,
322
+ "prior_layers_weight": 1.0,
323
+ "kl_div_weight": 1.0,
324
+ "kl_temperature": 0.3,
325
+ "matryoshka_dims": [
326
+ 1024,
327
+ 768,
328
+ 512,
329
+ 256
330
+ ],
331
+ "matryoshka_weights": [
332
+ 1,
333
+ 1,
334
+ 1,
335
+ 1
336
+ ],
337
+ "n_dims_per_step": 1
338
+ }
339
+ ```
340
+
341
+ ### Evaluation Dataset
342
+
343
+ #### csv
344
+
345
+ * Dataset: csv
346
+ * Size: 10,590 evaluation samples
347
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
348
+ * Approximate statistics based on the first 1000 samples:
349
+ | | anchor | positive | negative |
350
+ |:--------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
351
+ | type | string | string | string |
352
+ | details | <ul><li>min: 23 tokens</li><li>mean: 112.95 tokens</li><li>max: 320 tokens</li></ul> | <ul><li>min: 26 tokens</li><li>mean: 109.87 tokens</li><li>max: 302 tokens</li></ul> | <ul><li>min: 23 tokens</li><li>mean: 103.28 tokens</li><li>max: 309 tokens</li></ul> |
353
+ * Samples:
354
+ | anchor | positive | negative |
355
+ |:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
356
+ | <code>query: Aïllament tèrmic amb placa rígida d'escuma de poliisocianurat, de 35 kg/m3 de densitat, de 80 mm de gruix i 0,023 W/(m·K) de conductivitat tèrmica, amb recobriment de multicapa alumini, per a cobertes, amb fixacions mecàniques</code> | <code>passage: Aïllament tèrmic amb panells rígids d'escuma de poliuretà, de 35 kg/m3 de densitat, de 80 mm de gruix i 0,022 W/(m·K) de conductivitat tèrmica, amb recobriment d'alumini multicapa, per a teulades, amb sistemes de fixació mecànica.</code> | <code>passage: Aïllament acústic amb panells flexibles de fibra de vidre, de 50 kg/m3 de densitat, de 100 mm de gruix i 0,045 W/(m·K) de conductivitat acústica, amb recobriment de plàstic, per a parets interiors, amb adhesius especials.</code> |
357
+ | <code>query: Hormigonado para encepados, con hormigón para armar con aditivo hidrófugo HA - 35 / B / 20 / XC4 + XF1 + XA1 con una cantidad de cemento de 325 kg/m3 i relación agua cemento =< 0.5, colocado con cubilote en obras de ingeniería civil</code> | <code>passage: Mezcla de hormigón para cimentaciones, utilizando hormigón armado con aditivo impermeabilizante HA - 35 / B / 20 / XC4 + XF1 + XA1, con una dosificación de cemento de 325 kg/m3 y una relación agua-cemento menor o igual a 0.5, aplicado con cubilote en proyectos de infraestructura civil.</code> | <code>passage: Hormigonado para fundaciones, con hormigón para estructuras con aditivo retardante HA - 35 / B / 20 / XC4 + XF1 + XA1 con una cantidad de cemento de 350 kg/m3 y relación agua cemento =< 0.6, colocado con bomba en proyectos de edificación.</code> |
358
+ | <code>query: Formigonament per a sostre nervat reticular amb formigó HA-25/F / 10 / I de consistència fluïda, grandària màxima del granulat 10 mm, amb >= 250 kg/m3 de ciment, apte per a classe d'exposició I, abocat amb cubilot</code> | <code>passage: Formigonament per a sostre nervat reticular amb formigó HA-25/F / 10 / I de consistència líquida, amb una mida màxima del granulat de 10 mm, que conté >= 250 kg/m3 de ciment, adequat per a classe d'exposició I, abocat mitjançant cubilot.</code> | <code>passage: Formigonament per a sostre pla amb formigó HA-30/F / 12 / I de consistència espessa, grandària màxima del granulat 20 mm, amb >= 300 kg/m3 de ciment, apte per a classe d'exposició II, abocat amb bomba de formigó.</code> |
359
+ * Loss: [<code>Matryoshka2dLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshka2dloss) with these parameters:
360
+ ```json
361
+ {
362
+ "loss": "MultipleNegativesRankingLoss",
363
+ "n_layers_per_step": 1,
364
+ "last_layer_weight": 1.0,
365
+ "prior_layers_weight": 1.0,
366
+ "kl_div_weight": 1.0,
367
+ "kl_temperature": 0.3,
368
+ "matryoshka_dims": [
369
+ 1024,
370
+ 768,
371
+ 512,
372
+ 256
373
+ ],
374
+ "matryoshka_weights": [
375
+ 1,
376
+ 1,
377
+ 1,
378
+ 1
379
+ ],
380
+ "n_dims_per_step": 1
381
+ }
382
+ ```
383
+
384
+ ### Training Hyperparameters
385
+ #### Non-Default Hyperparameters
386
+
387
+ - `eval_strategy`: steps
388
+ - `per_device_train_batch_size`: 6
389
+ - `per_device_eval_batch_size`: 6
390
+ - `learning_rate`: 4e-05
391
+ - `num_train_epochs`: 10
392
+ - `warmup_ratio`: 0.1
393
+ - `fp16`: True
394
+ - `optim`: rmsprop
395
+ - `batch_sampler`: no_duplicates
396
+
397
+ #### All Hyperparameters
398
+ <details><summary>Click to expand</summary>
399
+
400
+ - `overwrite_output_dir`: False
401
+ - `do_predict`: False
402
+ - `eval_strategy`: steps
403
+ - `prediction_loss_only`: True
404
+ - `per_device_train_batch_size`: 6
405
+ - `per_device_eval_batch_size`: 6
406
+ - `per_gpu_train_batch_size`: None
407
+ - `per_gpu_eval_batch_size`: None
408
+ - `gradient_accumulation_steps`: 1
409
+ - `eval_accumulation_steps`: None
410
+ - `torch_empty_cache_steps`: None
411
+ - `learning_rate`: 4e-05
412
+ - `weight_decay`: 0.0
413
+ - `adam_beta1`: 0.9
414
+ - `adam_beta2`: 0.999
415
+ - `adam_epsilon`: 1e-08
416
+ - `max_grad_norm`: 1.0
417
+ - `num_train_epochs`: 10
418
+ - `max_steps`: -1
419
+ - `lr_scheduler_type`: linear
420
+ - `lr_scheduler_kwargs`: {}
421
+ - `warmup_ratio`: 0.1
422
+ - `warmup_steps`: 0
423
+ - `log_level`: passive
424
+ - `log_level_replica`: warning
425
+ - `log_on_each_node`: True
426
+ - `logging_nan_inf_filter`: True
427
+ - `save_safetensors`: True
428
+ - `save_on_each_node`: False
429
+ - `save_only_model`: False
430
+ - `restore_callback_states_from_checkpoint`: False
431
+ - `no_cuda`: False
432
+ - `use_cpu`: False
433
+ - `use_mps_device`: False
434
+ - `seed`: 42
435
+ - `data_seed`: None
436
+ - `jit_mode_eval`: False
437
+ - `use_ipex`: False
438
+ - `bf16`: False
439
+ - `fp16`: True
440
+ - `fp16_opt_level`: O1
441
+ - `half_precision_backend`: auto
442
+ - `bf16_full_eval`: False
443
+ - `fp16_full_eval`: False
444
+ - `tf32`: None
445
+ - `local_rank`: 0
446
+ - `ddp_backend`: None
447
+ - `tpu_num_cores`: None
448
+ - `tpu_metrics_debug`: False
449
+ - `debug`: []
450
+ - `dataloader_drop_last`: False
451
+ - `dataloader_num_workers`: 0
452
+ - `dataloader_prefetch_factor`: None
453
+ - `past_index`: -1
454
+ - `disable_tqdm`: False
455
+ - `remove_unused_columns`: True
456
+ - `label_names`: None
457
+ - `load_best_model_at_end`: False
458
+ - `ignore_data_skip`: False
459
+ - `fsdp`: []
460
+ - `fsdp_min_num_params`: 0
461
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
462
+ - `fsdp_transformer_layer_cls_to_wrap`: None
463
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
464
+ - `deepspeed`: None
465
+ - `label_smoothing_factor`: 0.0
466
+ - `optim`: rmsprop
467
+ - `optim_args`: None
468
+ - `adafactor`: False
469
+ - `group_by_length`: False
470
+ - `length_column_name`: length
471
+ - `ddp_find_unused_parameters`: None
472
+ - `ddp_bucket_cap_mb`: None
473
+ - `ddp_broadcast_buffers`: False
474
+ - `dataloader_pin_memory`: True
475
+ - `dataloader_persistent_workers`: False
476
+ - `skip_memory_metrics`: True
477
+ - `use_legacy_prediction_loop`: False
478
+ - `push_to_hub`: False
479
+ - `resume_from_checkpoint`: None
480
+ - `hub_model_id`: None
481
+ - `hub_strategy`: every_save
482
+ - `hub_private_repo`: False
483
+ - `hub_always_push`: False
484
+ - `gradient_checkpointing`: False
485
+ - `gradient_checkpointing_kwargs`: None
486
+ - `include_inputs_for_metrics`: False
487
+ - `eval_do_concat_batches`: True
488
+ - `fp16_backend`: auto
489
+ - `push_to_hub_model_id`: None
490
+ - `push_to_hub_organization`: None
491
+ - `mp_parameters`:
492
+ - `auto_find_batch_size`: False
493
+ - `full_determinism`: False
494
+ - `torchdynamo`: None
495
+ - `ray_scope`: last
496
+ - `ddp_timeout`: 1800
497
+ - `torch_compile`: False
498
+ - `torch_compile_backend`: None
499
+ - `torch_compile_mode`: None
500
+ - `dispatch_batches`: None
501
+ - `split_batches`: None
502
+ - `include_tokens_per_second`: False
503
+ - `include_num_input_tokens_seen`: False
504
+ - `neftune_noise_alpha`: None
505
+ - `optim_target_modules`: None
506
+ - `batch_eval_metrics`: False
507
+ - `eval_on_start`: False
508
+ - `eval_use_gather_object`: False
509
+ - `batch_sampler`: no_duplicates
510
+ - `multi_dataset_batch_sampler`: proportional
511
+
512
+ </details>
513
+
514
+ ### Training Logs
515
+ | Epoch | Step | Training Loss | Validation Loss | validation-set_max_accuracy | test-set_max_accuracy |
516
+ |:------:|:-----:|:-------------:|:---------------:|:---------------------------:|:---------------------:|
517
+ | 0 | 0 | - | - | 0.8942 | - |
518
+ | 0.1416 | 200 | 0.5207 | 0.2853 | 0.9981 | - |
519
+ | 0.2833 | 400 | 0.2732 | 0.2365 | 0.9981 | - |
520
+ | 0.4249 | 600 | 0.2023 | 0.2480 | 0.9906 | - |
521
+ | 0.5666 | 800 | 0.1991 | 0.4594 | 0.9839 | - |
522
+ | 0.7082 | 1000 | 0.6376 | 0.1210 | 0.9953 | - |
523
+ | 0.8499 | 1200 | 0.217 | 0.0956 | 0.9981 | - |
524
+ | 0.9915 | 1400 | 0.1205 | 0.0848 | 0.9962 | - |
525
+ | 1.1324 | 1600 | 0.0678 | 0.2559 | 0.9896 | - |
526
+ | 1.2741 | 1800 | 0.0528 | 0.0454 | 0.9972 | - |
527
+ | 1.4157 | 2000 | 0.0494 | 0.0388 | 0.9981 | - |
528
+ | 1.5574 | 2200 | 0.7363 | 2.5659 | 0.5571 | - |
529
+ | 1.6990 | 2400 | 1.0851 | 0.0527 | 0.9972 | - |
530
+ | 1.8407 | 2600 | 0.1037 | 0.0476 | 0.9981 | - |
531
+ | 1.9823 | 2800 | 0.0865 | 0.0369 | 1.0 | - |
532
+ | 2.1232 | 3000 | 0.1278 | 0.0177 | 0.9991 | - |
533
+ | 2.2649 | 3200 | 0.0381 | 0.0211 | 0.9991 | - |
534
+ | 2.4065 | 3400 | 0.0217 | 0.0301 | 0.9953 | - |
535
+ | 2.5482 | 3600 | 0.019 | 0.0414 | 0.9962 | - |
536
+ | 2.6898 | 3800 | 0.0228 | 0.0194 | 0.9991 | - |
537
+ | 2.8314 | 4000 | 0.0167 | 0.0177 | 0.9991 | - |
538
+ | 2.9731 | 4200 | 0.0126 | 0.0166 | 1.0 | - |
539
+ | 3.1140 | 4400 | 0.0232 | 0.0183 | 0.9991 | - |
540
+ | 3.2557 | 4600 | 0.0197 | 0.0460 | 0.9981 | - |
541
+ | 3.3973 | 4800 | 0.0139 | 0.0154 | 1.0 | - |
542
+ | 3.5390 | 5000 | 0.0092 | 0.0287 | 0.9991 | - |
543
+ | 3.6806 | 5200 | 0.0107 | 0.0142 | 0.9991 | - |
544
+ | 3.8222 | 5400 | 0.007 | 0.0146 | 1.0 | - |
545
+ | 3.9639 | 5600 | 0.0103 | 0.0169 | 1.0 | - |
546
+ | 4.1048 | 5800 | 0.0082 | 0.0211 | 1.0 | - |
547
+ | 4.2465 | 6000 | 0.0074 | 0.0093 | 1.0 | - |
548
+ | 4.3881 | 6200 | 0.004 | 0.0099 | 0.9991 | - |
549
+ | 4.5297 | 6400 | 0.0071 | 0.0091 | 1.0 | - |
550
+ | 4.6714 | 6600 | 0.007 | 0.0053 | 1.0 | - |
551
+ | 4.8130 | 6800 | 0.0064 | 0.0052 | 1.0 | - |
552
+ | 4.9547 | 7000 | 0.0046 | 0.0077 | 1.0 | - |
553
+ | 5.0956 | 7200 | 0.0064 | 0.0081 | 1.0 | - |
554
+ | 5.2373 | 7400 | 0.0053 | 0.0096 | 0.9991 | - |
555
+ | 5.3789 | 7600 | 0.003 | 0.0123 | 1.0 | - |
556
+ | 5.5205 | 7800 | 0.0042 | 0.0033 | 1.0 | - |
557
+ | 5.6622 | 8000 | 0.0034 | 0.0045 | 1.0 | - |
558
+ | 5.8038 | 8200 | 0.0041 | 0.0063 | 0.9991 | - |
559
+ | 5.9455 | 8400 | 0.0032 | 0.0082 | 0.9991 | - |
560
+ | 6.0864 | 8600 | 0.0051 | 0.0037 | 1.0 | - |
561
+ | 6.2280 | 8800 | 0.0041 | 0.0073 | 1.0 | - |
562
+ | 6.3697 | 9000 | 0.003 | 0.0057 | 1.0 | - |
563
+ | 6.5113 | 9200 | 0.0027 | 0.0064 | 1.0 | - |
564
+ | 6.6530 | 9400 | 0.0034 | 0.0059 | 1.0 | - |
565
+ | 6.7946 | 9600 | 0.0035 | 0.0043 | 1.0 | - |
566
+ | 6.9363 | 9800 | 0.0054 | 0.0042 | 1.0 | - |
567
+ | 7.0772 | 10000 | 0.002 | 0.0074 | 1.0 | - |
568
+ | 7.2188 | 10200 | 0.0029 | 0.0058 | 1.0 | - |
569
+ | 7.3605 | 10400 | 0.0018 | 0.0049 | 1.0 | - |
570
+ | 7.5021 | 10600 | 0.0032 | 0.0041 | 1.0 | - |
571
+ | 7.6438 | 10800 | 0.0024 | 0.0077 | 1.0 | - |
572
+ | 7.7854 | 11000 | 0.0015 | 0.0070 | 1.0 | - |
573
+ | 7.9271 | 11200 | 0.005 | 0.0032 | 1.0 | - |
574
+ | 8.0680 | 11400 | 0.0015 | 0.0036 | 1.0 | - |
575
+ | 8.2096 | 11600 | 0.0054 | 0.0078 | 1.0 | - |
576
+ | 8.3513 | 11800 | 0.0023 | 0.0058 | 1.0 | - |
577
+ | 8.4929 | 12000 | 0.0018 | 0.0072 | 1.0 | - |
578
+ | 8.6346 | 12200 | 0.0018 | 0.0038 | 1.0 | - |
579
+ | 8.7762 | 12400 | 0.0022 | 0.0043 | 1.0 | - |
580
+ | 8.9178 | 12600 | 0.0029 | 0.0046 | 1.0 | - |
581
+ | 9.0588 | 12800 | 0.0014 | 0.0053 | 1.0 | - |
582
+ | 9.2004 | 13000 | 0.0011 | 0.0054 | 1.0 | - |
583
+ | 9.3421 | 13200 | 0.0042 | 0.0050 | 1.0 | - |
584
+ | 9.4837 | 13400 | 0.0014 | 0.0052 | 1.0 | - |
585
+ | 9.6254 | 13600 | 0.0018 | 0.0084 | 1.0 | - |
586
+ | 9.7670 | 13800 | 0.0016 | 0.0057 | 1.0 | - |
587
+ | 9.9086 | 14000 | 0.0012 | 0.0066 | 1.0 | - |
588
+ | 9.9936 | 14120 | - | - | 1.0 | 1.0 |
589
+
590
+
591
+ ### Framework Versions
592
+ - Python: 3.10.12
593
+ - Sentence Transformers: 3.2.0
594
+ - Transformers: 4.44.2
595
+ - PyTorch: 2.4.1+cu121
596
+ - Accelerate: 0.34.2
597
+ - Datasets: 3.0.1
598
+ - Tokenizers: 0.19.1
599
+
600
+ ## Citation
601
+
602
+ ### BibTeX
603
+
604
+ #### Sentence Transformers
605
+ ```bibtex
606
+ @inproceedings{reimers-2019-sentence-bert,
607
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
608
+ author = "Reimers, Nils and Gurevych, Iryna",
609
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
610
+ month = "11",
611
+ year = "2019",
612
+ publisher = "Association for Computational Linguistics",
613
+ url = "https://arxiv.org/abs/1908.10084",
614
+ }
615
+ ```
616
+
617
+ #### Matryoshka2dLoss
618
+ ```bibtex
619
+ @misc{li20242d,
620
+ title={2D Matryoshka Sentence Embeddings},
621
+ author={Xianming Li and Zongxi Li and Jing Li and Haoran Xie and Qing Li},
622
+ year={2024},
623
+ eprint={2402.14776},
624
+ archivePrefix={arXiv},
625
+ primaryClass={cs.CL}
626
+ }
627
+ ```
628
+
629
+ #### MatryoshkaLoss
630
+ ```bibtex
631
+ @misc{kusupati2024matryoshka,
632
+ title={Matryoshka Representation Learning},
633
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
634
+ year={2024},
635
+ eprint={2205.13147},
636
+ archivePrefix={arXiv},
637
+ primaryClass={cs.LG}
638
+ }
639
+ ```
640
+
641
+ #### MultipleNegativesRankingLoss
642
+ ```bibtex
643
+ @misc{henderson2017efficient,
644
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
645
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
646
+ year={2017},
647
+ eprint={1705.00652},
648
+ archivePrefix={arXiv},
649
+ primaryClass={cs.CL}
650
+ }
651
+ ```
652
+
653
+ <!--
654
+ ## Glossary
655
+
656
+ *Clearly define terms in order to be accessible across audiences.*
657
+ -->
658
+
659
+ <!--
660
+ ## Model Card Authors
661
+
662
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
663
+ -->
664
+
665
+ <!--
666
+ ## Model Card Contact
667
+
668
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
669
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "intfloat/multilingual-e5-large",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 4096,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 514,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 16,
19
+ "num_hidden_layers": 24,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.44.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 250002
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.2.0",
4
+ "transformers": "4.44.2",
5
+ "pytorch": "2.4.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:22510518b12f80f82eb947500496010a9d3fb64aec27e97bd22c4b86eb9cf9ca
3
+ size 2239607176
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 512,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "XLMRobertaTokenizer",
53
+ "unk_token": "<unk>"
54
+ }