Edit model card

SentenceTransformer based on intfloat/multilingual-e5-large

This is a sentence-transformers model finetuned from intfloat/multilingual-e5-large. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: intfloat/multilingual-e5-large
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 1024 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("RamsesDIIP/me5_triplet_finetuned")
# Run inference
sentences = [
    'Instalaciones de energía solar fotovoltaica aislada de 1800 W de potencia con 1.33333 unidades de conjunto de 6 módulos fotovoltáicos de tipo policristalino para instalación aislada/conexión a red, de 230 Wp de potencia de pico cada uno, con una eficiencia mínima 14,1%, con marco de aluminio anodizado, protección con vidrio templado, caja de conexión, precableado con conectores especiales, con estructura de soporte para 6 módulos fotovoltaicos en posición vertical, de perfiles de aluminio extruido, con inclinación de 30 o 40º, para colocar sobre suelo o cubierta plana, montados y conectados, con equipo multifunción para instalación fotovoltaica con funciones de inversor, cargador y regulador, de 1500 VA de potencia, monofásico de 230 V de onda sinusoidal pura, rendimiento mínimo 94 % y kit bateria estacionaria para instalació fotovoltaica de 12 V, con 6 módulos de bateria estacionariaa para instalació fotovoltaica tipo OPzV, con electrólito de gel, de 2 V de tensión nominal y 750 A·h C100, hermética y libre de mantenimiento, electrodo positivo tubular, cuerpo ABS, alta estabilidad a los ciclos de carga y descarga, instaladas y con conectores entre baterías',
    'Sistema de energía solar fotovoltaica independiente de 1800 W, compuesto por 6 módulos policristalinos de 230 Wp cada uno, con una eficiencia mínima del 14,1%, montados en una estructura de soporte de aluminio extruido con inclinación de 30 a 40 grados, incluyendo un inversor multifuncional de 1500 VA y un kit de baterías estacionarias de 12 V, todo preinstalado y listo para su conexión.',
    'Instalaciones de energía eólica de 1800 W de potencia con 1.33333 unidades de aerogeneradores de tipo horizontal, cada uno con una capacidad de 230 W, diseñados para conexión a red, con un rendimiento mínimo del 14,1%, equipados con palas de fibra de vidrio, sistema de control de carga, y estructura de soporte para 6 aerogeneradores en posición vertical, con inclinación de 30 o 40º, para colocar sobre suelo o cubierta plana, montados y conectados, con equipo multifunción para instalación eólica que incluye inversor, cargador y regulador, de 1500 VA de potencia, monofásico de 230 V de onda sinusoidal pura, rendimiento mínimo del 94% y kit de baterías estacionarias para instalación eólica de 12 V, con 6 módulos de batería estacionaria tipo OPzV, con electrólito de gel, de 2 V de tensión nominal y 750 A·h C100, hermética y libre de mantenimiento, electrodo positivo tubular, cuerpo ABS, alta estabilidad a los ciclos de carga y descarga, instaladas y con conectores entre baterías.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

Unnamed Dataset

  • Size: 46 training samples
  • Columns: sentence_0, sentence_1, and sentence_2
  • Approximate statistics based on the first 46 samples:
    sentence_0 sentence_1 sentence_2
    type string string string
    details
    • min: 36 tokens
    • mean: 103.61 tokens
    • max: 300 tokens
    • min: 34 tokens
    • mean: 97.41 tokens
    • max: 205 tokens
    • min: 32 tokens
    • mean: 83.22 tokens
    • max: 245 tokens
  • Samples:
    sentence_0 sentence_1 sentence_2
    Montaje y desmontaje de encofrado con molde circular de tubo metálico para pilares de sección circular de 30 cm de diámetro, para dejar el hormigón visto, de altura hasta 3 m Instalación y remoción de encofrado con forma circular de tubo metálico para columnas de 30 cm de diámetro, permitiendo que el hormigón quede expuesto, con una altura máxima de 3 metros. Instalación y remoción de encofrado con molde cuadrado de madera para vigas de sección rectangular de 20 cm de ancho, para cubrir el hormigón, de altura hasta 5 m.
    Losa de cimentación de hormigón armado con hormigonado de losa de cimentación con hormigón para armar HA - 30 / B / 20 / XC4 + XS1 con una cantidad de cemento de 300 kg/m3 i relación agua cemento =< 0.5, vertido con bomba, armado con 70 kg/m3 de armadura para losas de cimientos AP500 SD de acero en barras corrugadas B500SD de límite elástico >= 500 N/mm2 y encofrado no visto con una cuantía de 0,1 m2/m3 Losa de cimentación de concreto reforzado, vertida con bomba, utilizando hormigón HA - 30 / B / 20 / XC4 + XS1, con una dosificación de cemento de 300 kg/m3 y una relación agua-cemento menor o igual a 0.5, y con una armadura de 70 kg/m3 de acero corrugado B500SD, encofrado oculto con una cuantía de 0,1 m2/m3. Losa de cubierta de madera tratada con un sistema de impermeabilización de membrana asfáltica para techos con una cantidad de resina de 200 kg/m3 y relación de mezcla =< 0.4, instalada manualmente, reforzada con 50 kg/m3 de soporte de vigas de madera de pino con un límite de carga >= 300 N/mm2 y encofrado visible con una cuantía de 0,2 m2/m3.
    Pavimento de hormigón de 15 cm de espesor acabado con 3 kg/m2 de polvo de cuarzo color, con hormigón para armar HA - 30 / F / 20 / XC2 con una cantidad de cemento de 275 kg/m3 i relación agua cemento =< 0.6, colocado con cubilote, extendido y vibrado manual y fratasado mecánico Pavimento de concreto de 15 cm de grosor, terminado con 3 kg/m2 de polvo de cuarzo de color, utilizando hormigón armado HA - 30 / F / 20 / XC2, con una dosificación de cemento de 275 kg/m3 y una relación agua-cemento menor o igual a 0.6, aplicado con cubilote, extendido y vibrado manualmente, y acabado con fratasadora mecánica. Pavimento de asfalto de 10 cm de espesor tratado con 5 kg/m2 de aditivo colorante, utilizando mezcla bituminosa tipo B con una proporción de betún de 300 kg/m3 y relación betún-agregado =< 0.5, aplicado con fresadora, extendido y compactado manualmente y acabado con rodillo mecánico.
  • Loss: TripletLoss with these parameters:
    {
        "distance_metric": "TripletDistanceMetric.EUCLIDEAN",
        "triplet_margin": 5
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 4
  • per_device_eval_batch_size: 4
  • multi_dataset_batch_sampler: round_robin

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 4
  • per_device_eval_batch_size: 4
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1
  • num_train_epochs: 3
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • eval_use_gather_object: False
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: round_robin

Framework Versions

  • Python: 3.10.12
  • Sentence Transformers: 3.2.0
  • Transformers: 4.44.2
  • PyTorch: 2.4.1+cu121
  • Accelerate: 0.34.2
  • Datasets: 3.0.1
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

TripletLoss

@misc{hermans2017defense,
    title={In Defense of the Triplet Loss for Person Re-Identification},
    author={Alexander Hermans and Lucas Beyer and Bastian Leibe},
    year={2017},
    eprint={1703.07737},
    archivePrefix={arXiv},
    primaryClass={cs.CV}
}
Downloads last month
2
Safetensors
Model size
560M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for RamsesDIIP/me5_triplet_finetuned

Finetuned
(71)
this model