ali619 commited on
Commit
c5b24da
1 Parent(s): 4c91b9a

Upload tokenizer

Browse files
Files changed (4) hide show
  1. README.md +14 -5
  2. special_tokens_map.json +30 -30
  3. tokenizer.json +2 -2
  4. tokenizer_config.json +45 -45
README.md CHANGED
@@ -1,17 +1,26 @@
1
  ---
2
- license: bigscience-bloom-rail-1.0
3
  library_name: transformers
 
 
4
  tags:
5
  - bloom
6
  - Text Generation
7
  - Farsi
8
- base_model: bigscience/bloom-1b7
9
- pipeline_tag: text-generation
 
 
 
 
 
 
 
 
 
10
  model-index:
11
  - name: bigscience-bloom-1b7-finetune-Summarization-Persian-News
12
  results: []
13
- widget:
14
- - text: "summarize this article: به گزارش خبرنگار مهر، محمدعلی نیکبخت در جلسه علنی امروز (سه‌شنبه) مجلس شورای اسلامی و در جریان ارائه گزارش از نحوه اجرای قانون خرید تضمینی محصولات کشاورزی، اظهار کرد: در تأمین محصولات غذایی و امنیت غذایی کشور نیازمند حمایت مجلس شورای اسلامی هستیم. وی متذکر شد: بنده کمتر از یک سال است که در وزارت جهاد کشاورزی مشغول به کار شدم و به محض شروع به کار، با توجه به ظرفیت‌هایی که بخش کشاورزی داشت، راهبردها و جهت‌گیری‌هایی را در وزارتخانه پیش گرفتیم تا بتوان از تمام ظرفیت‌ها و پتانسیل‌ها به نحو احسن استفاده کرد. وزیر جهاد کشاورزی اظهار کرد: راهبرد اول ما حداکثرسازی تولید با حفظ منابع بود. اگر بخواهیم نیاز غذایی کشور برای جمعیت بزرگ ایران را تأمین کنیم باید از همه ظرفیت‌های تولید در حوزه کشاورزی استفاده کنیم. Summarize: "
15
  ---
16
 
17
  <!-- This model card has been generated automatically according to the information the Trainer had access to. You
 
1
  ---
2
+ base_model: bigscience/bloom-1b7
3
  library_name: transformers
4
+ license: bigscience-bloom-rail-1.0
5
+ pipeline_tag: text-generation
6
  tags:
7
  - bloom
8
  - Text Generation
9
  - Farsi
10
+ widget:
11
+ - text: 'summarize this article: به گزارش خبرنگار مهر، محمدعلی نیکبخت در جلسه علنی
12
+ امروز (سه‌شنبه) مجلس شورای اسلامی و در جریان ارائه گزارش از نحوه اجرای قانون خرید
13
+ تضمینی محصولات کشاورزی، اظهار کرد: در تأمین محصولات غذایی و امنیت غذایی کشور نیازمند
14
+ حمایت مجلس شورای اسلامی هستیم. وی متذکر شد: بنده کمتر از یک سال است که در وزارت
15
+ جهاد کشاورزی مشغول به کار شدم و به محض شروع به کار، با توجه به ظرفیت‌هایی که بخش
16
+ کشاورزی داشت، راهبردها و جهت‌گیری‌هایی را در وزارتخانه پیش گرفتیم تا بتوان از
17
+ تمام ظرفیت‌ها و پتانسیل‌ها به نحو احسن استفاده کرد. وزیر جهاد کشاورزی اظهار کرد:
18
+ راهبرد اول ما حداکثرسازی تولید با حفظ منابع بود. اگر بخواهیم نیاز غذایی کشور برای
19
+ جمعیت بزرگ ایران را تأمین کنیم باید از همه ظرفیت‌های تولید در حوزه کشاورزی استفاده
20
+ کنیم. Summarize: '
21
  model-index:
22
  - name: bigscience-bloom-1b7-finetune-Summarization-Persian-News
23
  results: []
 
 
24
  ---
25
 
26
  <!-- This model card has been generated automatically according to the information the Trainer had access to. You
special_tokens_map.json CHANGED
@@ -1,30 +1,30 @@
1
- {
2
- "bos_token": {
3
- "content": "<s>",
4
- "lstrip": false,
5
- "normalized": false,
6
- "rstrip": false,
7
- "single_word": false
8
- },
9
- "eos_token": {
10
- "content": "</s>",
11
- "lstrip": false,
12
- "normalized": false,
13
- "rstrip": false,
14
- "single_word": false
15
- },
16
- "pad_token": {
17
- "content": "<pad>",
18
- "lstrip": false,
19
- "normalized": false,
20
- "rstrip": false,
21
- "single_word": false
22
- },
23
- "unk_token": {
24
- "content": "<unk>",
25
- "lstrip": false,
26
- "normalized": false,
27
- "rstrip": false,
28
- "single_word": false
29
- }
30
- }
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "eos_token": {
10
+ "content": "</s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "<pad>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "unk_token": {
24
+ "content": "<unk>",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ }
30
+ }
tokenizer.json CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:c15972849c91c78dfab27e2ef0eb53b17f95c4fe81be6664f7e85c6a7fffde0e
3
- size 14500499
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:a2f169d3bd0f5e29d224aee6dce067b86cfae2459468c33c3ed212c012a586c0
3
+ size 28025256
tokenizer_config.json CHANGED
@@ -1,45 +1,45 @@
1
- {
2
- "add_prefix_space": false,
3
- "added_tokens_decoder": {
4
- "0": {
5
- "content": "<unk>",
6
- "lstrip": false,
7
- "normalized": false,
8
- "rstrip": false,
9
- "single_word": false,
10
- "special": true
11
- },
12
- "1": {
13
- "content": "<s>",
14
- "lstrip": false,
15
- "normalized": false,
16
- "rstrip": false,
17
- "single_word": false,
18
- "special": true
19
- },
20
- "2": {
21
- "content": "</s>",
22
- "lstrip": false,
23
- "normalized": false,
24
- "rstrip": false,
25
- "single_word": false,
26
- "special": true
27
- },
28
- "3": {
29
- "content": "<pad>",
30
- "lstrip": false,
31
- "normalized": false,
32
- "rstrip": false,
33
- "single_word": false,
34
- "special": true
35
- }
36
- },
37
- "bos_token": "<s>",
38
- "clean_up_tokenization_spaces": false,
39
- "eos_token": "</s>",
40
- "model_max_length": 1000000000000000019884624838656,
41
- "pad_token": "<pad>",
42
- "padding_side": "left",
43
- "tokenizer_class": "BloomTokenizer",
44
- "unk_token": "<unk>"
45
- }
 
1
+ {
2
+ "add_prefix_space": false,
3
+ "added_tokens_decoder": {
4
+ "0": {
5
+ "content": "<unk>",
6
+ "lstrip": false,
7
+ "normalized": false,
8
+ "rstrip": false,
9
+ "single_word": false,
10
+ "special": true
11
+ },
12
+ "1": {
13
+ "content": "<s>",
14
+ "lstrip": false,
15
+ "normalized": false,
16
+ "rstrip": false,
17
+ "single_word": false,
18
+ "special": true
19
+ },
20
+ "2": {
21
+ "content": "</s>",
22
+ "lstrip": false,
23
+ "normalized": false,
24
+ "rstrip": false,
25
+ "single_word": false,
26
+ "special": true
27
+ },
28
+ "3": {
29
+ "content": "<pad>",
30
+ "lstrip": false,
31
+ "normalized": false,
32
+ "rstrip": false,
33
+ "single_word": false,
34
+ "special": true
35
+ }
36
+ },
37
+ "bos_token": "<s>",
38
+ "clean_up_tokenization_spaces": false,
39
+ "eos_token": "</s>",
40
+ "model_max_length": 1000000000000000019884624838656,
41
+ "pad_token": "<pad>",
42
+ "padding_side": "left",
43
+ "tokenizer_class": "BloomTokenizer",
44
+ "unk_token": "<unk>"
45
+ }