SentenceTransformer based on cointegrated/rubert-tiny2
This is a sentence-transformers model finetuned from cointegrated/rubert-tiny2. It maps sentences & paragraphs to a 312-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: cointegrated/rubert-tiny2
- Maximum Sequence Length: 2048 tokens
- Output Dimensionality: 312 tokens
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 2048, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 312, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("WpythonW/RUbert-tiny_custom")
# Run inference
sentences = [
'Какие документы нужны для приема иностранного гражданина?',
'Для проведения приема необходимы документы: 1) Нотариально заверенный перевод паспорта на русский язык + паспорт; 2) СНИЛС или уведомление о регистрации в системе АДИ-РЕГ, где указаны полные ФИО, номер СНИЛС, дата рождения и место рождения кандидата (Уведомление можно получить в МФЦ или территориальном органе ПФР); 3) Вид на жительство либо иностранный паспорт с разрешением на временное проживание; 4) Миграционная карта ( при наличии) ; 5) Расписка об отсутствии/подтверждении государственной/муниципальной службы; 6) Копия ТК или СТД-Р (если кандидат перешёл на электронную трудовую книжку у предыдущего работодателя). 7) Реквизиты карты Альфа-банк или реквизиты Сбербанка. 8) Актуальная прописка или свидетельство о временной регистрации по месту жительства (соответствующую субъекту трудоустройства). Срок окончания действия документов должен быть не меньше 60 дней от даты приема. Инструкция и шаблоны доступны по ссылке https://company-x5.ru/cms/zayavkaskillaz',
'Для открытия табеля создайте, пожалуйста, заявку в разделе "Заявки" по теме "Табель/график/рабочее время", выбрав подтему "Открытие табеля".',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 312]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Information Retrieval
- Dataset:
single_answer_eval
- Evaluated with
InformationRetrievalEvaluator
Metric | Value |
---|---|
cosine_accuracy@1 | 0.8087 |
cosine_accuracy@3 | 0.9454 |
cosine_precision@1 | 0.8087 |
cosine_precision@3 | 0.3161 |
cosine_recall@1 | 0.0764 |
cosine_recall@3 | 0.0894 |
cosine_ndcg@10 | 0.2021 |
cosine_mrr@10 | 0.8806 |
cosine_map@100 | 0.0869 |
dot_accuracy@1 | 0.8087 |
dot_accuracy@3 | 0.9454 |
dot_precision@1 | 0.8087 |
dot_precision@3 | 0.3161 |
dot_recall@1 | 0.0764 |
dot_recall@3 | 0.0894 |
dot_ndcg@10 | 0.2021 |
dot_mrr@10 | 0.8806 |
dot_map@100 | 0.0869 |
Training Details
Training Dataset
Unnamed Dataset
- Size: 1,647 training samples
- Columns:
anchor
andpositive
- Approximate statistics based on the first 1000 samples:
anchor positive type string string details - min: 3 tokens
- mean: 11.46 tokens
- max: 54 tokens
- min: 7 tokens
- mean: 62.33 tokens
- max: 371 tokens
- Samples:
anchor positive Какие документы необходимо предоставить при приеме беженцев?
Вариант 1: 1) действующее удостоверение беженца: документ, удостоверяющий личность на территории РФ; 2) регистрация по месту пребывания; 3) СНИЛС (при наличии); 4) трудовая книжка и/или сведения о трудовой деятельности (при наличии трудового стажа). Вариант 2: 1) действующее свидетельство о предоставлении временного убежища: документ, удостоверяющий личность на территории РФ; 2) может быть предоставлен паспорт, но основанием для трудоустройства будет именно свидетельство; 3) регистрация по месту пребывания; 4) СНИЛС (при наличии); 5) трудовая книжка и/или сведения о трудовой деятельности (при наличии трудового стажа). Вариант 3: 1) паспорт гражданина Украины, Донецкой Народной Республики или Луганской Народной Республики; 2) документ, подтверждающий прохождение дактилоскопии и фотографирования. Данные должны совпадать с данными в паспорте; 3) регистрация по месту пребывания; 4) СНИЛС (при наличии); 5) трудовая книжка и/или сведения о трудовой деятельности (при наличии трудового стажа); 6) документ, подтверждающий время пребывания на территории РФ*. Вариант 4: 1) действующий паспорт гражданина Украины/ЛНР/ДНР; 2) действующий патент (указанная в нем территория действия соответствует региону трудоустройства)/РВП/ВНЖ; 3) миграционная карта; 4) регистрация по месту пребывания; 5) СНИЛС (при наличии); 6) трудовая книжка и/или сведения о трудовой деятельности (при наличии трудового стажа); 7) для ИГ с РВП или ВНЖ документ, подтверждающий время пребывания на территории РФ*. Вариант 5: При наличии у кандидата паспорта гражданина РФ трудоустройство осуществляется по стандартной процедуре приема на работу граждан РФ. Инструкция и шаблоны доступны по ссылке https://company-x5.ru/cms/zayavkaskillaz
Что такое МЧД и зачем она нужна?
Ранее, если для подписания документов требовалась квалифицированная электронная подпись, то применялась усиленная квалифицированная электронная подпись юридического лица – УКЭП ЮЛ. Особенность этой электронной подписи (ЭП) состояла в том, что владельцем сертификата была указана организация наряду с сотрудником. Если упростить, то такую ЭП можно представить как подпись и печать на любом бумажном документе. С 01.09.2023 в силу вступили правки в Федеральный закон РФ № 63‑ФЗ «Об электронной подписи». Суть этих правок в следующем: · выпуск УКЭП ЮЛ возможен только для Генеральных директоров компании и только в удостоверяющем центре Федеральной налоговой службы · если сотруднику для электронного подписания необходима квалифицированная ЭП, то он должен применять усиленную квалифицированную электронную подпись физического лица – УКЭП ФЛ и машиночитаемую доверенность – МЧД. Т.е. по аналогии с печатью и подписью на бумаге: УКЭП ФЛ – собственноручная подпись, МЧД – печать, которая подтверждает полномочия подписанта. · все УКЭП ЮЛ, выпущенные до 01.09.2023 действуют до конца своего срока (1 год).Детально о УКЭП ФЛ можно прочитать тут: https://company-x5.ru/cms/UC6 МЧД – машиночитаемая доверенность (доверенность в машиночитаемом виде), выпускаемая в xml-формате, подписанная представителем ЮЛ: в нашем случае – Генеральным директором.
скидка сотрудника
По карте программы лояльности Х5 (ПЛ) для сотрудника в магазинах «Пятёрочка» действует скидка на следующих условиях:
Скидка 5% на весь чек (включая сезонные и промо акции), за исключением готовой еды, табачной продукции, алкогольной продукции по МРЦ (минимальной розничной цене).
Скидка 20% на готовую еду, включая: всю кулинарию, хлеб и выпечку из пекарни, напитки из зоны самообслуживания (горячий кофе/чай и свежевыжатый апельсиновый сок) – данная категория не должна быть выбрана в качестве «Любимой категории».
Скидка предоставляется на первые 2 покупки, совершенные с применением карты лояльности в день (с 3-его чека в сутки скидка сотрудника не применяется).
Скидка применяется как на классических кассах, так и на кассах самообслуживания.
Доступно списание баллов ПЛ в чеке с примененной скидкой сотрудника (с прокатыванием физической карты или сканированием штрих-кода, открытого в мобильном приложении «Пятёрочка» на своём мобильном устройстве).
Стандартные правила ПЛ по начислению и списанию баллов.
В магазинах «Перекрёсток» по картам сотрудников «Пятёрочки» работает единая программа лояльности, скидка сотрудника «Пятёрочки» не применяется.
Скидка не действует на онлайн-заказы.
Скидка 10% при заказе товаров в мобильном приложении Пятёрочки «Доставка» по промо-коду X5RETAILTEAM_1. - Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: stepsper_device_train_batch_size
: 512num_train_epochs
: 50load_best_model_at_end
: True
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: stepsprediction_loss_only
: Trueper_device_train_batch_size
: 512per_device_eval_batch_size
: 8per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 5e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 50max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.0warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Trueignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseeval_use_gather_object
: Falsebatch_sampler
: batch_samplermulti_dataset_batch_sampler
: proportional
Training Logs
Epoch | Step | Training Loss | single_answer_eval_cosine_map@100 |
---|---|---|---|
2.5 | 5 | 4.3172 | 0.0670 |
5.0 | 10 | 4.1303 | 0.0694 |
7.5 | 15 | 4.1359 | 0.0709 |
10.0 | 20 | 4.0041 | 0.0717 |
12.5 | 25 | 4.046 | 0.0725 |
15.0 | 30 | 3.9099 | 0.0728 |
2.5 | 5 | 3.8625 | 0.0746 |
5.0 | 10 | 3.7396 | 0.0770 |
7.5 | 15 | 3.7788 | 0.0782 |
10.0 | 20 | 3.6576 | 0.0793 |
12.5 | 25 | 3.6948 | 0.0807 |
15.0 | 30 | 3.5424 | 0.0818 |
17.5 | 35 | 3.6012 | 0.0824 |
20.0 | 40 | 3.4924 | 0.0832 |
22.5 | 45 | 3.5435 | 0.0838 |
25.0 | 50 | 3.4052 | 0.0843 |
27.5 | 55 | 3.4728 | 0.0847 |
30.0 | 60 | 3.366 | 0.0851 |
32.5 | 65 | 3.4351 | 0.0857 |
35.0 | 70 | 3.3192 | 0.0861 |
37.5 | 75 | 3.427 | 0.0864 |
40.0 | 80 | 3.2997 | 0.0865 |
42.5 | 85 | 3.4185 | 0.0866 |
45.0 | 90 | 3.2749 | 0.0867 |
47.5 | 95 | 3.3777 | 0.0869 |
50.0 | 100 | 3.2882 | 0.0869 |
- The bold row denotes the saved checkpoint.
Framework Versions
- Python: 3.10.14
- Sentence Transformers: 3.0.1
- Transformers: 4.44.0
- PyTorch: 2.4.0
- Accelerate: 0.34.2
- Datasets: 2.21.0
- Tokenizers: 0.19.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 10
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for WpythonW/RUbert-tiny_custom
Base model
cointegrated/rubert-tiny2Evaluation results
- Cosine Accuracy@1 on single answer evalself-reported0.809
- Cosine Accuracy@3 on single answer evalself-reported0.945
- Cosine Precision@1 on single answer evalself-reported0.809
- Cosine Precision@3 on single answer evalself-reported0.316
- Cosine Recall@1 on single answer evalself-reported0.076
- Cosine Recall@3 on single answer evalself-reported0.089
- Cosine Ndcg@10 on single answer evalself-reported0.202
- Cosine Mrr@10 on single answer evalself-reported0.881
- Cosine Map@100 on single answer evalself-reported0.087
- Dot Accuracy@1 on single answer evalself-reported0.809