alperctnkaya's picture
Add new SentenceTransformer model.
2125075 verified
metadata
base_model: BAAI/bge-m3
library_name: sentence-transformers
metrics:
  - negative_mse
  - src2trg_accuracy
  - trg2src_accuracy
  - mean_accuracy
pipeline_tag: sentence-similarity
tags:
  - sentence-transformers
  - sentence-similarity
  - feature-extraction
  - generated_from_trainer
  - dataset_size:1630390
  - loss:MSELoss
widget:
  - source_sentence: >-
      After that, it is possible to analyze the charts, price, key numbers of
      the cryptocurrency. We recommend using technical analysis to determine the
      best buying or selling price in the chart. Furthermore, most brokers offer
      you analysis tools and indicators for free.
    sentences:
      - >-
        Bereket Emeklilik ve Hayat A.Ş. 1 Temmuz 2011 tarihinde kurulmuştur.
        2012 yılının Mayıs ayında faiz gelirine duyarlı müşterilerine hizmet
        verebilmek adına Türkiyenin ilk faizsiz emeklilik şirketi olarak yola
        çıkan Bereket Emeklilik, 26 Kasım 2016 tarihinde açık ihale olarak
        imzalanan satış ve hisse devir sözleşmesi ile TMSFden devralınmış ve 154
        yıllık köklü bir geçmişe dayanan, 17 bölge birliği, 1619 kooperatifi
        yaklaşık 1 milyon çiftçi ortağı olan Türkiye Tarım Kredi
        Kooperatiflerine devredilmiştir.
      - >-
        Bundan sonra, kripto para biriminin grafiklerini, fiyatını, anahtar
        numaralarını analiz etmek mümkündür. Grafikteki en iyi alış veya satış
        fiyatını belirlemek için teknik analiz kullanmanızı öneririz. Ayrıca,
        çoğu broker size analiz araçlarını ve göstergelerini ücretsiz olarak
        sunar.
      - >-
        METRO İLE Aynı zamanda Cevahir Alış Veriş Merkezi, Zorlu Center, Kanyon
        Alış Veriş Merkezine direk bağlantısı bulunmaktadır. İstinye Park Alış
        Veriş Merkezi ise İstinye durağından yürüyüş mesafesindedir. Tercihinizi
        Taksim Meydanı ya da İstiklal Caddesinden yana kullanmak isterseniz ve
        Molton Suites Nişantaşından yürüyüş yerine tercihiniz yine Metro
        olacaksa sadece bir durak sonra Taksim meydanına ulaşacaksınız. Taksim
        bölgesinin vazgeçilmezlerini sıralayacak olursak: İstiklal Caddesi,
        Çiçek Pasajı, Pera Müzesi, Tünel, Atatürk Kültür Merkezi, Eşsiz Haliç,
        Sinemalar ve yüzlerce Restaurant, Bar seçeneği bunlardan sadece
        bazılarıdır.
  - source_sentence: >-
      Contributor tools: Decrease the manual overhead of maintenance work for
      teams through better tooling. Scope/Timeline: Varied, and pending
      additional testing.
    sentences:
      - >-
        Ekipmanlarımızın güvenilirliği söz konusu olduğunda, bu projenin
        sonuçları kendini kanıtlıyor: Önlem olarak müşteri, proje sırasında
        maksimum çalışma süresini garanti etmek için bir adet yedek azot üreten
        membran kiraladı, diyor Simon. Ancak bu yedek ünite gerekli değildi;
        ekipmanlarımız beklediğimiz gibi mükemmel bir performans sergiledi.
      - >-
        Daimi mükemmellik Massey Ferguson RB 3130F Protec (Protection baler &
        Professional Technology), sabit odalı balya makinesinin tüm
        avantajlarını entegre paketleme ünitesiyle bir araya getirerek, hareket
        halindeyken balyalama ve paketleme işlemi yapılabilmesini sağlar.
        Balyalar değişken hava koşullarına karşı anında korunup silaj kalitesi
        muhafaza edilerek, operatöre balya dizme veya taşıma ya da başka bir
        tarlada hasada başlama imkanı sağlanır.
      - >-
        İş birliği yapan araçlar: Daha iyi araçlar ile ekiplerin el ile yaptığı
        bakım çalışmalarının yükünü azaltın. Kapsam/Zaman Çizelgesi: Değişken ve
        ek denemelerin yapılması bekleniyor.
  - source_sentence: >-
      In addition, free Wi-Fi was provided. Thank you! Thank you for taking the
      time to share your experience.
    sentences:
      - >-
        Bir arkadaş, akraba veya iş arkadaşı için doğru hediyeyi bulmak gerçek
        bir kâbus olabilir. Bir zincir mağazada kitlesel olarak üretilmiş bir
        hediye satın almak yerine, Online Star Registerda bir yıldıza isim
        vererek, asla unutmayacakları bir hediye verin.
      - >-
        Shareazanın Kütüphanesinde dosyalarınızı zekice düzenleme kapasitesine
        sahip olun.
      - >-
        Teşekkürler! Deneyiminizi paylaşmak için zaman ayırdığınız için teşekkür
        ederiz. Yorumunuz kısa süre içinde yayınlanacaktır.
  - source_sentence: >-
      When considering what storage hardware to use in your device, dont look
      only at the hardwares storage capacity. Often, the speed of the storage is
      more important than its size. Devices with slow storage hardware, such as
      those labeled HDD are typically slower to use than those using faster
      storage hardware, such as those labeled SSD or eMMC.
    sentences:
      - >-
        Politika analizine giriş; temel politika yapım süreçleri modellerı;
        farklı politika alanlarından seçilmiş problemlerin yapılandırılması,
        analizi, ve yeni politika önerilerinin geliştirilmesi.
      - >-
        Cihazınızda kullanılacak depolama donanımını düşünürken yalnızca
        donanımın depolama kapasitesine bakmayın. Genellikle depolamanın hızı,
        boyutundan daha önemlidir. HDD etiketli olanlar gibi yavaş depolama
        donanımına sahip cihazlar genellikle SSD veya eMMC etiketli olanlar gibi
        daha hızlı depolama donanımı kullananlara göre daha yavaştır.
      - >-
        NETAŞ, müşterilerine geniş bant erişimi, tümleşik iletişim, ağ, siber
        güvenlik, sanallaştırma, bulut bilişim, optik ve taşıyıcı Ethernet, BT
        entegrasyon hizmetleri, stratejik dış kaynak kullanımı ve özel
        tasarlanmış yazılım geliştirme çözümleri sağlamaktadır.
  - source_sentence: >-
      Nippon Paint Garden Furniture Maintenance Oil is a high quality
      maintenance oil produced with a mixture of specially selected natural
      oils, specially developed for the care of hard woods such as teak, and can
      be applied to other wood types.
    sentences:
      - >-
        HGCD kodlu Çelik bıçaklı değirmenlerimizin, HGCD 20 kodlu olanı 1993
        senesinden günümüze üretimi devam eden, Türk kahvesine ve Espresso ve
        Filitre öğütümüne uygun masa üstü bir kompak, seri makinesidir. Yakın
        zamanda imalatına başladığımız HGCD/New-20 kodlu değirmeniz Türk
        kahvesi, filtre kahve ve espresso imalat ya da kullanımı olan tüm
        işletmeler için uygundur. Espresso ve Filtre öğütmede kullanmak amaçlı,
        yüksek kapasitede HGCD 30 kodlu ürünümüzde daha yüksek kapasitelere
        yöneliktir.
      - >-
        Stover Gönüllü Faaliyet Ödülüne layık görülenlerin her biri, kâr amacı
        gütmeyen kendi seçtiği bir kuruluşa ödenmek üzere verilen 5000 Amerikan
        doları değerinde bir çeki içeren bir hatıra ödülünün yanı sıra, resmi
        bir törende genel başkan ve CEO tarafından verilen özel bir takdirnameye
        hak kazanacaktır.
      - >-
        Nippon Paint Bahçe Mobilyası Bakım Yağı, özel olarak seçilen doğal
        yağların karışımı ile üretilen, özellikle teak gibi sert ahşapların
        bakımı için özel olarak geliştirilmiş, diğer ahşap türlerine de
        uygulanabilen üstün nitelikli bakım yağıdır.
model-index:
  - name: SentenceTransformer based on BAAI/bge-m3
    results:
      - task:
          type: knowledge-distillation
          name: Knowledge Distillation
        dataset:
          name: eval
          type: eval
        metrics:
          - type: negative_mse
            value: -0.03902269236277789
            name: Negative Mse
      - task:
          type: translation
          name: Translation
        dataset:
          name: eval
          type: eval
        metrics:
          - type: src2trg_accuracy
            value: 0.89505
            name: Src2Trg Accuracy
          - type: trg2src_accuracy
            value: 0.8837
            name: Trg2Src Accuracy
          - type: mean_accuracy
            value: 0.889375
            name: Mean Accuracy

SentenceTransformer based on BAAI/bge-m3

This is a sentence-transformers model finetuned from BAAI/bge-m3. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: BAAI/bge-m3
  • Maximum Sequence Length: 128 tokens
  • Output Dimensionality: 1024 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("alperctnkaya/bge-m3-distilled-en-tr")
# Run inference
sentences = [
    'Nippon Paint Garden Furniture Maintenance Oil is a high quality maintenance oil produced with a mixture of specially selected natural oils, specially developed for the care of hard woods such as teak, and can be applied to other wood types.',
    'Nippon Paint Bahçe Mobilyası Bakım Yağı, özel olarak seçilen doğal yağların karışımı ile üretilen, özellikle teak gibi sert ahşapların bakımı için özel olarak geliştirilmiş, diğer ahşap türlerine de uygulanabilen üstün nitelikli bakım yağıdır.',
    'Stover Gönüllü Faaliyet Ödülüne layık görülenlerin her biri, kâr amacı gütmeyen kendi seçtiği bir kuruluşa ödenmek üzere verilen 5000 Amerikan doları değerinde bir çeki içeren bir hatıra ödülünün yanı sıra, resmi bir törende genel başkan ve CEO tarafından verilen özel bir takdirnameye hak kazanacaktır.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Knowledge Distillation

Metric Value
negative_mse -0.039

Translation

Metric Value
src2trg_accuracy 0.8951
trg2src_accuracy 0.8837
mean_accuracy 0.8894

Training Details

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: epoch
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • learning_rate: 2e-05
  • warmup_ratio: 0.1
  • fp16: True

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: epoch
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 3
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • eval_use_gather_object: False
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss loss eval_mean_accuracy eval_negative_mse
0.02 100 0.0019 - - -
0.04 200 0.0013 - - -
0.06 300 0.0008 - - -
0.08 400 0.0008 - - -
0.1 500 0.0008 - - -
0.12 600 0.0007 - - -
0.14 700 0.0007 - - -
0.16 800 0.0007 - - -
0.18 900 0.0007 - - -
0.2 1000 0.0007 - - -
0.22 1100 0.0007 - - -
0.24 1200 0.0006 - - -
0.26 1300 0.0006 - - -
0.28 1400 0.0006 - - -
0.3 1500 0.0006 - - -
0.32 1600 0.0006 - - -
0.34 1700 0.0006 - - -
0.36 1800 0.0006 - - -
0.38 1900 0.0006 - - -
0.4 2000 0.0006 - - -
0.42 2100 0.0006 - - -
0.44 2200 0.0006 - - -
0.46 2300 0.0005 - - -
0.48 2400 0.0005 - - -
0.5 2500 0.0005 - - -
0.52 2600 0.0005 - - -
0.54 2700 0.0005 - - -
0.56 2800 0.0005 - - -
0.58 2900 0.0005 - - -
0.6 3000 0.0005 - - -
0.62 3100 0.0005 - - -
0.64 3200 0.0005 - - -
0.66 3300 0.0005 - - -
0.68 3400 0.0005 - - -
0.7 3500 0.0005 - - -
0.72 3600 0.0005 - - -
0.74 3700 0.0005 - - -
0.76 3800 0.0005 - - -
0.78 3900 0.0005 - - -
0.8 4000 0.0005 - - -
0.82 4100 0.0005 - - -
0.84 4200 0.0005 - - -
0.86 4300 0.0005 - - -
0.88 4400 0.0005 - - -
0.9 4500 0.0005 - - -
0.92 4600 0.0005 - - -
0.94 4700 0.0005 - - -
0.96 4800 0.0005 - - -
0.98 4900 0.0005 - - -
1.0 5000 0.0005 0.0004 0.8591 -0.0453
1.02 5100 0.0005 - - -
1.04 5200 0.0005 - - -
1.06 5300 0.0004 - - -
1.08 5400 0.0004 - - -
1.1 5500 0.0004 - - -
1.12 5600 0.0004 - - -
1.1400 5700 0.0004 - - -
1.16 5800 0.0004 - - -
1.18 5900 0.0004 - - -
1.2 6000 0.0004 - - -
1.22 6100 0.0004 - - -
1.24 6200 0.0004 - - -
1.26 6300 0.0004 - - -
1.28 6400 0.0004 - - -
1.3 6500 0.0004 - - -
1.32 6600 0.0004 - - -
1.34 6700 0.0004 - - -
1.3600 6800 0.0004 - - -
1.38 6900 0.0004 - - -
1.4 7000 0.0004 - - -
1.42 7100 0.0004 - - -
1.44 7200 0.0004 - - -
1.46 7300 0.0004 - - -
1.48 7400 0.0004 - - -
1.5 7500 0.0004 - - -
1.52 7600 0.0004 - - -
1.54 7700 0.0004 - - -
1.56 7800 0.0004 - - -
1.58 7900 0.0004 - - -
1.6 8000 0.0004 - - -
1.62 8100 0.0004 - - -
1.6400 8200 0.0004 - - -
1.6600 8300 0.0004 - - -
1.6800 8400 0.0004 - - -
1.7 8500 0.0004 - - -
1.72 8600 0.0004 - - -
1.74 8700 0.0004 - - -
1.76 8800 0.0004 - - -
1.78 8900 0.0004 - - -
1.8 9000 0.0004 - - -
1.8200 9100 0.0004 - - -
1.8400 9200 0.0004 - - -
1.8600 9300 0.0004 - - -
1.88 9400 0.0004 - - -
1.9 9500 0.0004 - - -
1.92 9600 0.0004 - - -
1.94 9700 0.0004 - - -
1.96 9800 0.0004 - - -
1.98 9900 0.0004 - - -
2.0 10000 0.0004 0.0004 0.8837 -0.0405
2.02 10100 0.0004 - - -
2.04 10200 0.0004 - - -
2.06 10300 0.0004 - - -
2.08 10400 0.0004 - - -
2.1 10500 0.0004 - - -
2.12 10600 0.0004 - - -
2.14 10700 0.0004 - - -
2.16 10800 0.0004 - - -
2.18 10900 0.0004 - - -
2.2 11000 0.0004 - - -
2.22 11100 0.0004 - - -
2.24 11200 0.0004 - - -
2.26 11300 0.0004 - - -
2.2800 11400 0.0004 - - -
2.3 11500 0.0004 - - -
2.32 11600 0.0004 - - -
2.34 11700 0.0004 - - -
2.36 11800 0.0004 - - -
2.38 11900 0.0004 - - -
2.4 12000 0.0004 - - -
2.42 12100 0.0004 - - -
2.44 12200 0.0004 - - -
2.46 12300 0.0004 - - -
2.48 12400 0.0004 - - -
2.5 12500 0.0004 - - -
2.52 12600 0.0004 - - -
2.54 12700 0.0004 - - -
2.56 12800 0.0004 - - -
2.58 12900 0.0004 - - -
2.6 13000 0.0004 - - -
2.62 13100 0.0004 - - -
2.64 13200 0.0004 - - -
2.66 13300 0.0004 - - -
2.68 13400 0.0004 - - -
2.7 13500 0.0004 - - -
2.7200 13600 0.0004 - - -
2.74 13700 0.0004 - - -
2.76 13800 0.0004 - - -
2.7800 13900 0.0004 - - -
2.8 14000 0.0004 - - -
2.82 14100 0.0004 - - -
2.84 14200 0.0004 - - -
2.86 14300 0.0004 - - -
2.88 14400 0.0004 - - -
2.9 14500 0.0004 - - -
2.92 14600 0.0004 - - -
2.94 14700 0.0004 - - -
2.96 14800 0.0004 - - -
2.98 14900 0.0004 - - -
3.0 15000 0.0004 0.0004 0.8894 -0.0390

Framework Versions

  • Python: 3.10.12
  • Sentence Transformers: 3.1.1
  • Transformers: 4.44.2
  • PyTorch: 2.4.1+cu121
  • Accelerate: 0.34.2
  • Datasets: 2.21.0
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MSELoss

@inproceedings{reimers-2020-multilingual-sentence-bert,
    title = "Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2020",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/2004.09813",
}