File size: 2,568 Bytes
a03bcac c5b24da 4885692 c5b24da a03bcac 4885692 3414652 c5b24da a03bcac |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 |
---
base_model: bigscience/bloom-1b7
library_name: transformers
license: bigscience-bloom-rail-1.0
pipeline_tag: text-generation
tags:
- bloom
- Text Generation
- Farsi
widget:
- text: 'summarize this article: به گزارش خبرنگار مهر، محمدعلی نیکبخت در جلسه علنی
امروز (سهشنبه) مجلس شورای اسلامی و در جریان ارائه گزارش از نحوه اجرای قانون خرید
تضمینی محصولات کشاورزی، اظهار کرد: در تأمین محصولات غذایی و امنیت غذایی کشور نیازمند
حمایت مجلس شورای اسلامی هستیم. وی متذکر شد: بنده کمتر از یک سال است که در وزارت
جهاد کشاورزی مشغول به کار شدم و به محض شروع به کار، با توجه به ظرفیتهایی که بخش
کشاورزی داشت، راهبردها و جهتگیریهایی را در وزارتخانه پیش گرفتیم تا بتوان از
تمام ظرفیتها و پتانسیلها به نحو احسن استفاده کرد. وزیر جهاد کشاورزی اظهار کرد:
راهبرد اول ما حداکثرسازی تولید با حفظ منابع بود. اگر بخواهیم نیاز غذایی کشور برای
جمعیت بزرگ ایران را تأمین کنیم باید از همه ظرفیتهای تولید در حوزه کشاورزی استفاده
کنیم. Summarize: '
model-index:
- name: bigscience-bloom-1b7-finetune-Summarization-Persian-News
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# bigscience-bloom-1b7-finetune-Summarization-Persian-News
This model is a fine-tuned version of [bigscience/bloom-1b7](https://huggingface.co/bigscience/bloom-1b7) on the None dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.001
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 3
### Framework versions
- Transformers 4.41.2
- Pytorch 2.1.2
- Datasets 2.19.2
- Tokenizers 0.19.1
|