File size: 2,568 Bytes
a03bcac
c5b24da
4885692
c5b24da
 
a03bcac
4885692
3414652
 
c5b24da
 
 
 
 
 
 
 
 
 
 
a03bcac
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
---
base_model: bigscience/bloom-1b7
library_name: transformers
license: bigscience-bloom-rail-1.0
pipeline_tag: text-generation
tags:
- bloom
- Text Generation
- Farsi
widget:
- text: 'summarize this article: به گزارش خبرنگار مهر، محمدعلی نیکبخت در جلسه علنی
    امروز (سه‌شنبه) مجلس شورای اسلامی و در جریان ارائه گزارش از نحوه اجرای قانون خرید
    تضمینی محصولات کشاورزی، اظهار کرد: در تأمین محصولات غذایی و امنیت غذایی کشور نیازمند
    حمایت مجلس شورای اسلامی هستیم. وی متذکر شد: بنده کمتر از یک سال است که در وزارت
    جهاد کشاورزی مشغول به کار شدم و به محض شروع به کار، با توجه به ظرفیت‌هایی که بخش
    کشاورزی داشت، راهبردها و جهت‌گیری‌هایی را در وزارتخانه پیش گرفتیم تا بتوان از
    تمام ظرفیت‌ها و پتانسیل‌ها به نحو احسن استفاده کرد. وزیر جهاد کشاورزی اظهار کرد:
    راهبرد اول ما حداکثرسازی تولید با حفظ منابع بود. اگر بخواهیم نیاز غذایی کشور برای
    جمعیت بزرگ ایران را تأمین کنیم باید از همه ظرفیت‌های تولید در حوزه کشاورزی استفاده
    کنیم. Summarize: '
model-index:
- name: bigscience-bloom-1b7-finetune-Summarization-Persian-News
  results: []
---

<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->

# bigscience-bloom-1b7-finetune-Summarization-Persian-News

This model is a fine-tuned version of [bigscience/bloom-1b7](https://huggingface.co/bigscience/bloom-1b7) on the None dataset.

## Model description

More information needed

## Intended uses & limitations

More information needed

## Training and evaluation data

More information needed

## Training procedure

### Training hyperparameters

The following hyperparameters were used during training:
- learning_rate: 0.001
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 3

### Framework versions

- Transformers 4.41.2
- Pytorch 2.1.2
- Datasets 2.19.2
- Tokenizers 0.19.1