i-k-a commited on
Commit
ed99eb8
1 Parent(s): afd2cf8

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +119 -0
README.md ADDED
@@ -0,0 +1,119 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - ru
4
+ metrics:
5
+ - rouge
6
+ widget:
7
+ - text: >-
8
+ Эксперты журнала Shape рассказали о трех упражнениях для избавления от
9
+ головокружений. Рекомендации приведены на сайте издания. Специалисты
10
+ отметили, что если головокружения возникают регулярно и без причины, то это
11
+ может говорить о ряде сбоев в организме, таких как заболевания внутреннего
12
+ уха. В таком случае необходимо обратиться к врачу. Однако если голова
13
+ кружится в транспорте или вследствие стресса, то исправить это можно
14
+ благодаря тренировкам вестибулярного аппарата. Эксперты Shape посоветовали
15
+ выполнять приседания с медболом. «Встаньте прямо, ноги чуть шире плеч, спина
16
+ прямая. Возьмите в руки медбол. Выполните приседание со скручиванием
17
+ корпуса, на выдохе вытянитесь вверх, скручиваясь в противоположную сторону»,
18
+ — пояснили они. Также, по словам специалистов, помогут скручивания на
19
+ фитболе: «Лягте спиной на мяч, ноги согните в коленях, руки — за головой,
20
+ локти в стороны. Отрывая лопатки от фитбола, поочередно скручивайте корпус
21
+ влево-вправо». Третье упражнение — TRX-отжимания с использованием
22
+ специальных лент-подвесов. «Стоя возьмитесь за рукоятки TRX и, выпрямив
23
+ руки, плавно перенесите на них вес тела, наклоняясь вперед. Корпус и ноги
24
+ должны оставаться прямыми и образовывать одну линию», — рассказали эксперты.
25
+ Ранее тренер по фитнесу Андрей Прокофьев назвал простые упражнения для
26
+ пробуждения организма. Эксперт посоветовал делать вакуум, а также отведение
27
+ ног в сторону и назад.
28
+ model-index:
29
+ - name: i-k-a/my_lenta_model_ru_mt5-base_4_epochs
30
+ results:
31
+ - task:
32
+ type: summarization
33
+ name: Summarization
34
+ dataset:
35
+ name: lenta.ru
36
+ type: csv
37
+ metrics:
38
+ - name: ROUGE-1
39
+ type: rouge
40
+ value: 0.1302
41
+ - name: ROUGE-2
42
+ type: rouge
43
+ value: 0.0342
44
+ - name: ROUGE-L
45
+ type: rouge
46
+ value: 0.1315
47
+ - name: ROUGE-LSUM
48
+ type: rouge
49
+ value: 0.1309
50
+ - name: ValidationLoss
51
+ type: ValidationLoss
52
+ value: 0.619004
53
+ - name: gen_len
54
+ type: gen_len
55
+ value: 19
56
+ tags:
57
+ - summary
58
+ - russian
59
+ - mt5-base
60
+ ---
61
+ # Model Card for Model ID
62
+
63
+ This model trained to summarize news post. Trained on data grabbed from russian news site Lenta.ru.
64
+
65
+ Модель обучена суммаризации новостных статей. Обучение проводилось на данных, полученных с русского новостного сайта Lenta.ru.
66
+
67
+ ## Model Details
68
+
69
+ ### Model Description
70
+
71
+ <!-- Provide a longer summary of what this model is. -->
72
+ - **Developed by:** [i-k-a](https://huggingface.co/i-k-a)
73
+ - **Shared by [optional]:** [i-k-a](https://huggingface.co/i-k-a)
74
+ - **Model type:** Transformer Text2Text Generation
75
+ - **Language(s) (NLP):** Russian
76
+ - **Finetuned from model [optional]:** mT5-base
77
+
78
+ ### Model Sources [optional]
79
+
80
+ <!-- Provide the basic links for the model. -->
81
+ - **Repository:** [link](https://huggingface.co/i-k-a/my_lenta_model_ru_mt5-base_4_epochs/tree/main)
82
+
83
+ ## How to Get Started with the Model
84
+
85
+ Use code below to infer model.
86
+
87
+ Используйте код ниже для запуска модели.
88
+
89
+ ```python
90
+ from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
91
+ MAX_NEW_TOKENS=400
92
+ MODEL_DIR='i-k-a/my_lenta_model_ru_mt5-base_4_epochs'
93
+ text = input('Введите текст:')
94
+ tokenizer = AutoTokenizer.from_pretrained(MODEL_DIR)
95
+ model = AutoModelForSeq2SeqLM.from_pretrained(MODEL_DIR)
96
+ inputs = tokenizer(text, return_tensors="pt").input_ids
97
+ outputs = model.generate(inputs, max_new_tokens=MAX_NEW_TOKENS, do_sample=False)
98
+ result = tokenizer.decode(outputs[0], skip_special_tokens=True)
99
+ print(f'Резюме от нейросети: "{result}"\n\nИсходный текст: "{text}"')
100
+ ```
101
+
102
+ ## Training Details
103
+
104
+ Model trained 4 epochs. Length of input text is cut to 1024 tokens. Output is 400 tokens.
105
+ Trained using Google Colab resources.
106
+
107
+ ## Technical Specifications [optional]
108
+
109
+ ### Model Architecture and Objective
110
+ google/mt5-base
111
+
112
+ ### Compute Infrastructure
113
+ Google Colab
114
+
115
+ #### Hardware
116
+ Google Colab T4 GPU
117
+
118
+ #### Software
119
+ Python