SentenceTransformer based on intfloat/multilingual-e5-large
This is a sentence-transformers model finetuned from intfloat/multilingual-e5-large. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: intfloat/multilingual-e5-large
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 1024 tokens
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("RamsesDIIP/me5_triplet_finetuned")
# Run inference
sentences = [
'Instalaciones de energía solar fotovoltaica aislada de 1800 W de potencia con 1.33333 unidades de conjunto de 6 módulos fotovoltáicos de tipo policristalino para instalación aislada/conexión a red, de 230 Wp de potencia de pico cada uno, con una eficiencia mínima 14,1%, con marco de aluminio anodizado, protección con vidrio templado, caja de conexión, precableado con conectores especiales, con estructura de soporte para 6 módulos fotovoltaicos en posición vertical, de perfiles de aluminio extruido, con inclinación de 30 o 40º, para colocar sobre suelo o cubierta plana, montados y conectados, con equipo multifunción para instalación fotovoltaica con funciones de inversor, cargador y regulador, de 1500 VA de potencia, monofásico de 230 V de onda sinusoidal pura, rendimiento mínimo 94 % y kit bateria estacionaria para instalació fotovoltaica de 12 V, con 6 módulos de bateria estacionariaa para instalació fotovoltaica tipo OPzV, con electrólito de gel, de 2 V de tensión nominal y 750 A·h C100, hermética y libre de mantenimiento, electrodo positivo tubular, cuerpo ABS, alta estabilidad a los ciclos de carga y descarga, instaladas y con conectores entre baterías',
'Sistema de energía solar fotovoltaica independiente de 1800 W, compuesto por 6 módulos policristalinos de 230 Wp cada uno, con una eficiencia mínima del 14,1%, montados en una estructura de soporte de aluminio extruido con inclinación de 30 a 40 grados, incluyendo un inversor multifuncional de 1500 VA y un kit de baterías estacionarias de 12 V, todo preinstalado y listo para su conexión.',
'Instalaciones de energía eólica de 1800 W de potencia con 1.33333 unidades de aerogeneradores de tipo horizontal, cada uno con una capacidad de 230 W, diseñados para conexión a red, con un rendimiento mínimo del 14,1%, equipados con palas de fibra de vidrio, sistema de control de carga, y estructura de soporte para 6 aerogeneradores en posición vertical, con inclinación de 30 o 40º, para colocar sobre suelo o cubierta plana, montados y conectados, con equipo multifunción para instalación eólica que incluye inversor, cargador y regulador, de 1500 VA de potencia, monofásico de 230 V de onda sinusoidal pura, rendimiento mínimo del 94% y kit de baterías estacionarias para instalación eólica de 12 V, con 6 módulos de batería estacionaria tipo OPzV, con electrólito de gel, de 2 V de tensión nominal y 750 A·h C100, hermética y libre de mantenimiento, electrodo positivo tubular, cuerpo ABS, alta estabilidad a los ciclos de carga y descarga, instaladas y con conectores entre baterías.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Training Details
Training Dataset
Unnamed Dataset
- Size: 46 training samples
- Columns:
sentence_0
,sentence_1
, andsentence_2
- Approximate statistics based on the first 46 samples:
sentence_0 sentence_1 sentence_2 type string string string details - min: 36 tokens
- mean: 103.61 tokens
- max: 300 tokens
- min: 34 tokens
- mean: 97.41 tokens
- max: 205 tokens
- min: 32 tokens
- mean: 83.22 tokens
- max: 245 tokens
- Samples:
sentence_0 sentence_1 sentence_2 Montaje y desmontaje de encofrado con molde circular de tubo metálico para pilares de sección circular de 30 cm de diámetro, para dejar el hormigón visto, de altura hasta 3 m
Instalación y remoción de encofrado con forma circular de tubo metálico para columnas de 30 cm de diámetro, permitiendo que el hormigón quede expuesto, con una altura máxima de 3 metros.
Instalación y remoción de encofrado con molde cuadrado de madera para vigas de sección rectangular de 20 cm de ancho, para cubrir el hormigón, de altura hasta 5 m.
Losa de cimentación de hormigón armado con hormigonado de losa de cimentación con hormigón para armar HA - 30 / B / 20 / XC4 + XS1 con una cantidad de cemento de 300 kg/m3 i relación agua cemento =< 0.5, vertido con bomba, armado con 70 kg/m3 de armadura para losas de cimientos AP500 SD de acero en barras corrugadas B500SD de límite elástico >= 500 N/mm2 y encofrado no visto con una cuantía de 0,1 m2/m3
Losa de cimentación de concreto reforzado, vertida con bomba, utilizando hormigón HA - 30 / B / 20 / XC4 + XS1, con una dosificación de cemento de 300 kg/m3 y una relación agua-cemento menor o igual a 0.5, y con una armadura de 70 kg/m3 de acero corrugado B500SD, encofrado oculto con una cuantía de 0,1 m2/m3.
Losa de cubierta de madera tratada con un sistema de impermeabilización de membrana asfáltica para techos con una cantidad de resina de 200 kg/m3 y relación de mezcla =< 0.4, instalada manualmente, reforzada con 50 kg/m3 de soporte de vigas de madera de pino con un límite de carga >= 300 N/mm2 y encofrado visible con una cuantía de 0,2 m2/m3.
Pavimento de hormigón de 15 cm de espesor acabado con 3 kg/m2 de polvo de cuarzo color, con hormigón para armar HA - 30 / F / 20 / XC2 con una cantidad de cemento de 275 kg/m3 i relación agua cemento =< 0.6, colocado con cubilote, extendido y vibrado manual y fratasado mecánico
Pavimento de concreto de 15 cm de grosor, terminado con 3 kg/m2 de polvo de cuarzo de color, utilizando hormigón armado HA - 30 / F / 20 / XC2, con una dosificación de cemento de 275 kg/m3 y una relación agua-cemento menor o igual a 0.6, aplicado con cubilote, extendido y vibrado manualmente, y acabado con fratasadora mecánica.
Pavimento de asfalto de 10 cm de espesor tratado con 5 kg/m2 de aditivo colorante, utilizando mezcla bituminosa tipo B con una proporción de betún de 300 kg/m3 y relación betún-agregado =< 0.5, aplicado con fresadora, extendido y compactado manualmente y acabado con rodillo mecánico.
- Loss:
TripletLoss
with these parameters:{ "distance_metric": "TripletDistanceMetric.EUCLIDEAN", "triplet_margin": 5 }
Training Hyperparameters
Non-Default Hyperparameters
per_device_train_batch_size
: 4per_device_eval_batch_size
: 4multi_dataset_batch_sampler
: round_robin
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: noprediction_loss_only
: Trueper_device_train_batch_size
: 4per_device_eval_batch_size
: 4per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 5e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1num_train_epochs
: 3max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.0warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseeval_use_gather_object
: Falsebatch_sampler
: batch_samplermulti_dataset_batch_sampler
: round_robin
Framework Versions
- Python: 3.10.12
- Sentence Transformers: 3.2.0
- Transformers: 4.44.2
- PyTorch: 2.4.1+cu121
- Accelerate: 0.34.2
- Datasets: 3.0.1
- Tokenizers: 0.19.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
TripletLoss
@misc{hermans2017defense,
title={In Defense of the Triplet Loss for Person Re-Identification},
author={Alexander Hermans and Lucas Beyer and Bastian Leibe},
year={2017},
eprint={1703.07737},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
- Downloads last month
- 4
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for RamsesDIIP/me5_triplet_finetuned
Base model
intfloat/multilingual-e5-large