Edit model card

Flash-IT-HA-Classifier-Cossim

This is a sentence-transformers model finetuned from nickprock/sentence-bert-base-italian-xxl-uncased. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("mrinaldi/flash-it-ha-classifier-cossim")
# Run inference
sentences = [
    "[Rappresentazione schematica del LISA Technology Package, il cuore dell'esperimento, dove sono ospitate le due masse di test. Crediti: ESA/ATG medialab](<https://www.media.inaf.it/wp-content/uploads/2016/02/ESA_LISA-Pathfinder_LTP_core_assembly_orig_2k.jpg>)\n>>>> \n>>>> Rappresentazione schematica del LISA Technology Package, il cuore dell'esperimento, dove sono ospitate le due masse di test. Crediti: ESA/ATG medialab\n>>>> \n>>>> Non ancora in balia delle onde gravitazionali, ma poco ci manca. Ubbidendo all’equivalente spaziale del celebre “Smithers, libera i cani” di simpsoniana memoria, LISA Pathfinder ha aperto le sue due mani meccaniche, “otto dita” per ciascuna, liberando – _quasi_ – [i due cubetti d’oro-platino](<https://www.media.inaf.it/2011/11/14/sensori-onde-gravitazionali/>) (4.6 cm di lato per 1.96 kg a testa) che costituiscono il cuore dell’esperimento destinato ad aprire la strada alla ricerca delle elusive onde predette da Einstein.\n>>>> \n>>>> _Quasi_ , appunto, perché le due masse di test non sono ancora completamente libere di galleggiare nel vuoto. Ma per LISA Pathfinder, il dimostratore per [eLISA](<https://en.wikipedia.org/wiki/Evolved_Laser_Interferometer_Space_Antenna>) lanciato lo scorso dicembre e giunto a destinazione – nel primo punto lagrangiano, L1 – il 22 gennaio, dopo un viaggio nello spazio durato sei settimane, si tratta comunque d’una tappa cruciale, che ha tenuto il team dei progettisti con il fiato sospeso fino all’ultimo istante.\n>>>> \n>>>> «Ora c'è grande eccitazione per il rilascio finale delle massa di prova, perché le impercettibili forze e velocità coinvolte», dice **Hans Rozemeijer** , _payload engineer_ del satellite, «non potevano essere collaudate a terra: in presenza della gravità, non era fisicamente possibile».\n>>>> \n>>>> [In questa foto, unoa delle due masse di test di LISA Pathfinder. Ogni massa è un cubo d'oro-platino di 4.6 cm di lato pesante circa 1.96 kg. Crediti: CGS SpA](<https://www.media.inaf.it/wp-content/uploads/2016/02/LPF_test_mass_IMG_9829.jpg>)\n>>>> \n>>>> In questa foto, una delle due masse di test di LISA Pathfinder. Ogni massa è un cubo d'oro-platino di 4.6 cm di lato pesante circa 1.96 kg. Crediti: CGS SpA\n>>>> \n>>>> Una procedura talmente delicata, questa del rilascio delle due masse, da essere stata suddivisa in due fasi. Contestualmente all’apertura della mano meccanica avvenuta oggi, il sistema di bordo ha iniziato a pompare verso lo spazio esterno le molecole di gas residue. Un’operazione, questa tesa a ricreare il vuoto spinto attorno alle masse di test, che richiederà un paio di settimane. Una volta completata, l’ultimo dei meccanismi di ancoraggio ancora attivi, il GPRM ( _Grabbing, Positioning and Release Mechanism_ ) lascerà anch’esso la presa: il 15 febbraio per uno dei due cubi, il giorno successivo per l’altro.\n>>>> \n>>>> Uscito di scena anche il GPRM, le due masse di test, non più in contatto meccanico con la sonda, saranno libere di fluttuare al centro esatto (errore massimo consentito: 200 micrometri) del loro alloggio iper-tecnologico. Dove un interferometro laser – già attivo dal 13 gennaio scorso – ne rileverà il benché minimo spostamento. A quel punto, siamo al 23 febbraio, si entrerà nel cosiddetto _operating mode_ , con l’intera navicella spaziale intenta a muoversi attorno a uno dei due cubi in caduta libera per _mantenere le distanze_ (4 mm…). L’inizio delle attività scientifiche è in calendario per il primo di marzo.\n  *[55 minuti fa]: Lunedì 19 gennaio 2015 alle ore 10.28\n  *[1 h]: Lunedì 19 gennaio 2015 alle ore 10.05\n  *[33 minuti fa]: 10.50\n  *[attr]: attribute\n  *[HTML]: HyperText Markup Language\n  *[P:]: Phone\n",
    'LISA Pathfinder molla la presa',
    'Lisa si può fare. L’Esa promuove il triangolo spaziale',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Triplet

Metric Value
cosine_accuracy 0.854
dot_accuracy 0.135
manhattan_accuracy 0.8586
euclidean_accuracy 0.8584
max_accuracy 0.8586

Triplet

Metric Value
cosine_accuracy 0.8575
dot_accuracy 0.1322
manhattan_accuracy 0.8622
euclidean_accuracy 0.8623
max_accuracy 0.8623

Training Details

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 64
  • per_device_eval_batch_size: 16
  • learning_rate: 2e-05
  • warmup_ratio: 0.1
  • fp16: True

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 64
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 3
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Epoch Step Training Loss Validation Loss ha-test_max_accuracy
0 0 - - 0.6874
0.6234 1000 2.63 1.9310 0.8470
1.2469 2000 1.8681 1.8004 0.8535
1.8703 3000 1.5687 1.7071 0.8607
2.4938 4000 1.3045 1.6955 0.8586
3.0 4812 - - 0.8623

Framework Versions

  • Python: 3.12.2
  • Sentence Transformers: 3.2.1
  • Transformers: 4.45.2
  • PyTorch: 2.4.1+cu121
  • Accelerate: 1.0.1
  • Datasets: 3.0.1
  • Tokenizers: 0.20.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

TripletLoss

@misc{hermans2017defense,
    title={In Defense of the Triplet Loss for Person Re-Identification},
    author={Alexander Hermans and Lucas Beyer and Bastian Leibe},
    year={2017},
    eprint={1703.07737},
    archivePrefix={arXiv},
    primaryClass={cs.CV}
}
Downloads last month
23
Safetensors
Model size
111M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for mrinaldi/gattina-ha-classifier-cossim

Finetuned
(2)
this model

Evaluation results