---
base_model: BAAI/bge-m3
library_name: sentence-transformers
metrics:
- negative_mse
- src2trg_accuracy
- trg2src_accuracy
- mean_accuracy
pipeline_tag: sentence-similarity
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:1630390
- loss:MSELoss
widget:
- source_sentence: After that, it is possible to analyze the charts, price, key numbers
of the cryptocurrency. We recommend using technical analysis to determine the
best buying or selling price in the chart. Furthermore, most brokers offer you
analysis tools and indicators for free.
sentences:
- Bereket Emeklilik ve Hayat A.Ş. 1 Temmuz 2011 tarihinde kurulmuştur. 2012 yılının
Mayıs ayında faiz gelirine duyarlı müşterilerine hizmet verebilmek adına Türkiyenin
ilk faizsiz emeklilik şirketi olarak yola çıkan Bereket Emeklilik, 26 Kasım 2016
tarihinde açık ihale olarak imzalanan satış ve hisse devir sözleşmesi ile TMSFden
devralınmış ve 154 yıllık köklü bir geçmişe dayanan, 17 bölge birliği, 1619 kooperatifi
yaklaşık 1 milyon çiftçi ortağı olan Türkiye Tarım Kredi Kooperatiflerine devredilmiştir.
- Bundan sonra, kripto para biriminin grafiklerini, fiyatını, anahtar numaralarını
analiz etmek mümkündür. Grafikteki en iyi alış veya satış fiyatını belirlemek
için teknik analiz kullanmanızı öneririz. Ayrıca, çoğu broker size analiz araçlarını
ve göstergelerini ücretsiz olarak sunar.
- 'METRO İLE Aynı zamanda Cevahir Alış Veriş Merkezi, Zorlu Center, Kanyon Alış
Veriş Merkezine direk bağlantısı bulunmaktadır. İstinye Park Alış Veriş Merkezi
ise İstinye durağından yürüyüş mesafesindedir. Tercihinizi Taksim Meydanı ya da
İstiklal Caddesinden yana kullanmak isterseniz ve Molton Suites Nişantaşından
yürüyüş yerine tercihiniz yine Metro olacaksa sadece bir durak sonra Taksim meydanına
ulaşacaksınız. Taksim bölgesinin vazgeçilmezlerini sıralayacak olursak: İstiklal
Caddesi, Çiçek Pasajı, Pera Müzesi, Tünel, Atatürk Kültür Merkezi, Eşsiz Haliç,
Sinemalar ve yüzlerce Restaurant, Bar seçeneği bunlardan sadece bazılarıdır.'
- source_sentence: 'Contributor tools: Decrease the manual overhead of maintenance
work for teams through better tooling. Scope/Timeline: Varied, and pending additional
testing.'
sentences:
- 'Ekipmanlarımızın güvenilirliği söz konusu olduğunda, bu projenin sonuçları kendini
kanıtlıyor: Önlem olarak müşteri, proje sırasında maksimum çalışma süresini garanti
etmek için bir adet yedek azot üreten membran kiraladı, diyor Simon. Ancak bu
yedek ünite gerekli değildi; ekipmanlarımız beklediğimiz gibi mükemmel bir performans
sergiledi.'
- Daimi mükemmellik Massey Ferguson RB 3130F Protec (Protection baler & Professional
Technology), sabit odalı balya makinesinin tüm avantajlarını entegre paketleme
ünitesiyle bir araya getirerek, hareket halindeyken balyalama ve paketleme işlemi
yapılabilmesini sağlar. Balyalar değişken hava koşullarına karşı anında korunup
silaj kalitesi muhafaza edilerek, operatöre balya dizme veya taşıma ya da başka
bir tarlada hasada başlama imkanı sağlanır.
- 'İş birliği yapan araçlar: Daha iyi araçlar ile ekiplerin el ile yaptığı bakım
çalışmalarının yükünü azaltın. Kapsam/Zaman Çizelgesi: Değişken ve ek denemelerin
yapılması bekleniyor.'
- source_sentence: In addition, free Wi-Fi was provided. Thank you! Thank you for
taking the time to share your experience.
sentences:
- Bir arkadaş, akraba veya iş arkadaşı için doğru hediyeyi bulmak gerçek bir kâbus
olabilir. Bir zincir mağazada kitlesel olarak üretilmiş bir hediye satın almak
yerine, Online Star Registerda bir yıldıza isim vererek, asla unutmayacakları
bir hediye verin.
- Shareazanın Kütüphanesinde dosyalarınızı zekice düzenleme kapasitesine sahip olun.
- Teşekkürler! Deneyiminizi paylaşmak için zaman ayırdığınız için teşekkür ederiz.
Yorumunuz kısa süre içinde yayınlanacaktır.
- source_sentence: When considering what storage hardware to use in your device, dont
look only at the hardwares storage capacity. Often, the speed of the storage is
more important than its size. Devices with slow storage hardware, such as those
labeled HDD are typically slower to use than those using faster storage hardware,
such as those labeled SSD or eMMC.
sentences:
- Politika analizine giriş; temel politika yapım süreçleri modellerı; farklı politika
alanlarından seçilmiş problemlerin yapılandırılması, analizi, ve yeni politika
önerilerinin geliştirilmesi.
- Cihazınızda kullanılacak depolama donanımını düşünürken yalnızca donanımın depolama
kapasitesine bakmayın. Genellikle depolamanın hızı, boyutundan daha önemlidir.
HDD etiketli olanlar gibi yavaş depolama donanımına sahip cihazlar genellikle
SSD veya eMMC etiketli olanlar gibi daha hızlı depolama donanımı kullananlara
göre daha yavaştır.
- NETAŞ, müşterilerine geniş bant erişimi, tümleşik iletişim, ağ, siber güvenlik,
sanallaştırma, bulut bilişim, optik ve taşıyıcı Ethernet, BT entegrasyon hizmetleri,
stratejik dış kaynak kullanımı ve özel tasarlanmış yazılım geliştirme çözümleri
sağlamaktadır.
- source_sentence: Nippon Paint Garden Furniture Maintenance Oil is a high quality
maintenance oil produced with a mixture of specially selected natural oils, specially
developed for the care of hard woods such as teak, and can be applied to other
wood types.
sentences:
- HGCD kodlu Çelik bıçaklı değirmenlerimizin, HGCD 20 kodlu olanı 1993 senesinden
günümüze üretimi devam eden, Türk kahvesine ve Espresso ve Filitre öğütümüne uygun
masa üstü bir kompak, seri makinesidir. Yakın zamanda imalatına başladığımız HGCD/New-20
kodlu değirmeniz Türk kahvesi, filtre kahve ve espresso imalat ya da kullanımı
olan tüm işletmeler için uygundur. Espresso ve Filtre öğütmede kullanmak amaçlı,
yüksek kapasitede HGCD 30 kodlu ürünümüzde daha yüksek kapasitelere yöneliktir.
- Stover Gönüllü Faaliyet Ödülüne layık görülenlerin her biri, kâr amacı gütmeyen
kendi seçtiği bir kuruluşa ödenmek üzere verilen 5000 Amerikan doları değerinde
bir çeki içeren bir hatıra ödülünün yanı sıra, resmi bir törende genel başkan
ve CEO tarafından verilen özel bir takdirnameye hak kazanacaktır.
- Nippon Paint Bahçe Mobilyası Bakım Yağı, özel olarak seçilen doğal yağların karışımı
ile üretilen, özellikle teak gibi sert ahşapların bakımı için özel olarak geliştirilmiş,
diğer ahşap türlerine de uygulanabilen üstün nitelikli bakım yağıdır.
model-index:
- name: SentenceTransformer based on BAAI/bge-m3
results:
- task:
type: knowledge-distillation
name: Knowledge Distillation
dataset:
name: eval
type: eval
metrics:
- type: negative_mse
value: -0.03902269236277789
name: Negative Mse
- task:
type: translation
name: Translation
dataset:
name: eval
type: eval
metrics:
- type: src2trg_accuracy
value: 0.89505
name: Src2Trg Accuracy
- type: trg2src_accuracy
value: 0.8837
name: Trg2Src Accuracy
- type: mean_accuracy
value: 0.889375
name: Mean Accuracy
---
# SentenceTransformer based on BAAI/bge-m3
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [BAAI/bge-m3](https://huggingface.co/BAAI/bge-m3). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [BAAI/bge-m3](https://huggingface.co/BAAI/bge-m3)
- **Maximum Sequence Length:** 128 tokens
- **Output Dimensionality:** 1024 tokens
- **Similarity Function:** Cosine Similarity
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("alperctnkaya/bge-m3-distilled-en-tr")
# Run inference
sentences = [
'Nippon Paint Garden Furniture Maintenance Oil is a high quality maintenance oil produced with a mixture of specially selected natural oils, specially developed for the care of hard woods such as teak, and can be applied to other wood types.',
'Nippon Paint Bahçe Mobilyası Bakım Yağı, özel olarak seçilen doğal yağların karışımı ile üretilen, özellikle teak gibi sert ahşapların bakımı için özel olarak geliştirilmiş, diğer ahşap türlerine de uygulanabilen üstün nitelikli bakım yağıdır.',
'Stover Gönüllü Faaliyet Ödülüne layık görülenlerin her biri, kâr amacı gütmeyen kendi seçtiği bir kuruluşa ödenmek üzere verilen 5000 Amerikan doları değerinde bir çeki içeren bir hatıra ödülünün yanı sıra, resmi bir törende genel başkan ve CEO tarafından verilen özel bir takdirnameye hak kazanacaktır.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
## Evaluation
### Metrics
#### Knowledge Distillation
* Dataset: `eval`
* Evaluated with [MSEEvaluator
](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.MSEEvaluator)
| Metric | Value |
|:-----------------|:-----------|
| **negative_mse** | **-0.039** |
#### Translation
* Dataset: `eval`
* Evaluated with [TranslationEvaluator
](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TranslationEvaluator)
| Metric | Value |
|:------------------|:-----------|
| src2trg_accuracy | 0.8951 |
| trg2src_accuracy | 0.8837 |
| **mean_accuracy** | **0.8894** |
## Training Details
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: epoch
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `learning_rate`: 2e-05
- `warmup_ratio`: 0.1
- `fp16`: True
#### All Hyperparameters
Click to expand
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: epoch
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 2e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 3
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.1
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: True
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: False
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `dispatch_batches`: None
- `split_batches`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `eval_use_gather_object`: False
- `batch_sampler`: batch_sampler
- `multi_dataset_batch_sampler`: proportional
### Training Logs
Click to expand
| Epoch | Step | Training Loss | loss | eval_mean_accuracy | eval_negative_mse |
|:------:|:-----:|:-------------:|:------:|:------------------:|:-----------------:|
| 0.02 | 100 | 0.0019 | - | - | - |
| 0.04 | 200 | 0.0013 | - | - | - |
| 0.06 | 300 | 0.0008 | - | - | - |
| 0.08 | 400 | 0.0008 | - | - | - |
| 0.1 | 500 | 0.0008 | - | - | - |
| 0.12 | 600 | 0.0007 | - | - | - |
| 0.14 | 700 | 0.0007 | - | - | - |
| 0.16 | 800 | 0.0007 | - | - | - |
| 0.18 | 900 | 0.0007 | - | - | - |
| 0.2 | 1000 | 0.0007 | - | - | - |
| 0.22 | 1100 | 0.0007 | - | - | - |
| 0.24 | 1200 | 0.0006 | - | - | - |
| 0.26 | 1300 | 0.0006 | - | - | - |
| 0.28 | 1400 | 0.0006 | - | - | - |
| 0.3 | 1500 | 0.0006 | - | - | - |
| 0.32 | 1600 | 0.0006 | - | - | - |
| 0.34 | 1700 | 0.0006 | - | - | - |
| 0.36 | 1800 | 0.0006 | - | - | - |
| 0.38 | 1900 | 0.0006 | - | - | - |
| 0.4 | 2000 | 0.0006 | - | - | - |
| 0.42 | 2100 | 0.0006 | - | - | - |
| 0.44 | 2200 | 0.0006 | - | - | - |
| 0.46 | 2300 | 0.0005 | - | - | - |
| 0.48 | 2400 | 0.0005 | - | - | - |
| 0.5 | 2500 | 0.0005 | - | - | - |
| 0.52 | 2600 | 0.0005 | - | - | - |
| 0.54 | 2700 | 0.0005 | - | - | - |
| 0.56 | 2800 | 0.0005 | - | - | - |
| 0.58 | 2900 | 0.0005 | - | - | - |
| 0.6 | 3000 | 0.0005 | - | - | - |
| 0.62 | 3100 | 0.0005 | - | - | - |
| 0.64 | 3200 | 0.0005 | - | - | - |
| 0.66 | 3300 | 0.0005 | - | - | - |
| 0.68 | 3400 | 0.0005 | - | - | - |
| 0.7 | 3500 | 0.0005 | - | - | - |
| 0.72 | 3600 | 0.0005 | - | - | - |
| 0.74 | 3700 | 0.0005 | - | - | - |
| 0.76 | 3800 | 0.0005 | - | - | - |
| 0.78 | 3900 | 0.0005 | - | - | - |
| 0.8 | 4000 | 0.0005 | - | - | - |
| 0.82 | 4100 | 0.0005 | - | - | - |
| 0.84 | 4200 | 0.0005 | - | - | - |
| 0.86 | 4300 | 0.0005 | - | - | - |
| 0.88 | 4400 | 0.0005 | - | - | - |
| 0.9 | 4500 | 0.0005 | - | - | - |
| 0.92 | 4600 | 0.0005 | - | - | - |
| 0.94 | 4700 | 0.0005 | - | - | - |
| 0.96 | 4800 | 0.0005 | - | - | - |
| 0.98 | 4900 | 0.0005 | - | - | - |
| 1.0 | 5000 | 0.0005 | 0.0004 | 0.8591 | -0.0453 |
| 1.02 | 5100 | 0.0005 | - | - | - |
| 1.04 | 5200 | 0.0005 | - | - | - |
| 1.06 | 5300 | 0.0004 | - | - | - |
| 1.08 | 5400 | 0.0004 | - | - | - |
| 1.1 | 5500 | 0.0004 | - | - | - |
| 1.12 | 5600 | 0.0004 | - | - | - |
| 1.1400 | 5700 | 0.0004 | - | - | - |
| 1.16 | 5800 | 0.0004 | - | - | - |
| 1.18 | 5900 | 0.0004 | - | - | - |
| 1.2 | 6000 | 0.0004 | - | - | - |
| 1.22 | 6100 | 0.0004 | - | - | - |
| 1.24 | 6200 | 0.0004 | - | - | - |
| 1.26 | 6300 | 0.0004 | - | - | - |
| 1.28 | 6400 | 0.0004 | - | - | - |
| 1.3 | 6500 | 0.0004 | - | - | - |
| 1.32 | 6600 | 0.0004 | - | - | - |
| 1.34 | 6700 | 0.0004 | - | - | - |
| 1.3600 | 6800 | 0.0004 | - | - | - |
| 1.38 | 6900 | 0.0004 | - | - | - |
| 1.4 | 7000 | 0.0004 | - | - | - |
| 1.42 | 7100 | 0.0004 | - | - | - |
| 1.44 | 7200 | 0.0004 | - | - | - |
| 1.46 | 7300 | 0.0004 | - | - | - |
| 1.48 | 7400 | 0.0004 | - | - | - |
| 1.5 | 7500 | 0.0004 | - | - | - |
| 1.52 | 7600 | 0.0004 | - | - | - |
| 1.54 | 7700 | 0.0004 | - | - | - |
| 1.56 | 7800 | 0.0004 | - | - | - |
| 1.58 | 7900 | 0.0004 | - | - | - |
| 1.6 | 8000 | 0.0004 | - | - | - |
| 1.62 | 8100 | 0.0004 | - | - | - |
| 1.6400 | 8200 | 0.0004 | - | - | - |
| 1.6600 | 8300 | 0.0004 | - | - | - |
| 1.6800 | 8400 | 0.0004 | - | - | - |
| 1.7 | 8500 | 0.0004 | - | - | - |
| 1.72 | 8600 | 0.0004 | - | - | - |
| 1.74 | 8700 | 0.0004 | - | - | - |
| 1.76 | 8800 | 0.0004 | - | - | - |
| 1.78 | 8900 | 0.0004 | - | - | - |
| 1.8 | 9000 | 0.0004 | - | - | - |
| 1.8200 | 9100 | 0.0004 | - | - | - |
| 1.8400 | 9200 | 0.0004 | - | - | - |
| 1.8600 | 9300 | 0.0004 | - | - | - |
| 1.88 | 9400 | 0.0004 | - | - | - |
| 1.9 | 9500 | 0.0004 | - | - | - |
| 1.92 | 9600 | 0.0004 | - | - | - |
| 1.94 | 9700 | 0.0004 | - | - | - |
| 1.96 | 9800 | 0.0004 | - | - | - |
| 1.98 | 9900 | 0.0004 | - | - | - |
| 2.0 | 10000 | 0.0004 | 0.0004 | 0.8837 | -0.0405 |
| 2.02 | 10100 | 0.0004 | - | - | - |
| 2.04 | 10200 | 0.0004 | - | - | - |
| 2.06 | 10300 | 0.0004 | - | - | - |
| 2.08 | 10400 | 0.0004 | - | - | - |
| 2.1 | 10500 | 0.0004 | - | - | - |
| 2.12 | 10600 | 0.0004 | - | - | - |
| 2.14 | 10700 | 0.0004 | - | - | - |
| 2.16 | 10800 | 0.0004 | - | - | - |
| 2.18 | 10900 | 0.0004 | - | - | - |
| 2.2 | 11000 | 0.0004 | - | - | - |
| 2.22 | 11100 | 0.0004 | - | - | - |
| 2.24 | 11200 | 0.0004 | - | - | - |
| 2.26 | 11300 | 0.0004 | - | - | - |
| 2.2800 | 11400 | 0.0004 | - | - | - |
| 2.3 | 11500 | 0.0004 | - | - | - |
| 2.32 | 11600 | 0.0004 | - | - | - |
| 2.34 | 11700 | 0.0004 | - | - | - |
| 2.36 | 11800 | 0.0004 | - | - | - |
| 2.38 | 11900 | 0.0004 | - | - | - |
| 2.4 | 12000 | 0.0004 | - | - | - |
| 2.42 | 12100 | 0.0004 | - | - | - |
| 2.44 | 12200 | 0.0004 | - | - | - |
| 2.46 | 12300 | 0.0004 | - | - | - |
| 2.48 | 12400 | 0.0004 | - | - | - |
| 2.5 | 12500 | 0.0004 | - | - | - |
| 2.52 | 12600 | 0.0004 | - | - | - |
| 2.54 | 12700 | 0.0004 | - | - | - |
| 2.56 | 12800 | 0.0004 | - | - | - |
| 2.58 | 12900 | 0.0004 | - | - | - |
| 2.6 | 13000 | 0.0004 | - | - | - |
| 2.62 | 13100 | 0.0004 | - | - | - |
| 2.64 | 13200 | 0.0004 | - | - | - |
| 2.66 | 13300 | 0.0004 | - | - | - |
| 2.68 | 13400 | 0.0004 | - | - | - |
| 2.7 | 13500 | 0.0004 | - | - | - |
| 2.7200 | 13600 | 0.0004 | - | - | - |
| 2.74 | 13700 | 0.0004 | - | - | - |
| 2.76 | 13800 | 0.0004 | - | - | - |
| 2.7800 | 13900 | 0.0004 | - | - | - |
| 2.8 | 14000 | 0.0004 | - | - | - |
| 2.82 | 14100 | 0.0004 | - | - | - |
| 2.84 | 14200 | 0.0004 | - | - | - |
| 2.86 | 14300 | 0.0004 | - | - | - |
| 2.88 | 14400 | 0.0004 | - | - | - |
| 2.9 | 14500 | 0.0004 | - | - | - |
| 2.92 | 14600 | 0.0004 | - | - | - |
| 2.94 | 14700 | 0.0004 | - | - | - |
| 2.96 | 14800 | 0.0004 | - | - | - |
| 2.98 | 14900 | 0.0004 | - | - | - |
| 3.0 | 15000 | 0.0004 | 0.0004 | 0.8894 | -0.0390 |
### Framework Versions
- Python: 3.10.12
- Sentence Transformers: 3.1.1
- Transformers: 4.44.2
- PyTorch: 2.4.1+cu121
- Accelerate: 0.34.2
- Datasets: 2.21.0
- Tokenizers: 0.19.1
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
#### MSELoss
```bibtex
@inproceedings{reimers-2020-multilingual-sentence-bert,
title = "Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2020",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/2004.09813",
}
```