File size: 3,311 Bytes
4cae17b 1e7a44e cb14a4c 43fc096 5d6708e 1e7a44e 6f80acc 4cae17b f1aab30 1b2ffdf f1aab30 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 |
---
widget:
- text: "أشاد حسين عبد الغني، نجم المنتخب السعودي السابق، بتعاقد الاتحاد"
- text: "قال الرئيس الأمريكي، جو بايدن، عند عودته إلى البيت الأبيض، مساء "
- text: "قال ولي العهد السعودي، الأمير محمد بن سلمان، متحدثًا في قمة أمريكية عربية في جدة، إن الجهود الدولية المشتركة ضرورية لتعافي الاقتصاد العالمي وأن"
- text: "وقوله : بيمينه ، لدفع كمال المهر حكاه الرافعي عن البغوي وأقره"
- text: "يفخر عنترة العبسي بنفسه وقومه ويضمّن العديد من الحكم في القصيدة الآتية: \n لا يحمل الحقد من تعلو به الرتب ولا ينال العلى من طبعه الغضب"
- text: "يفخر عنترة العبسي بنفسه وقومه ويضمّن العديد من الحكم في القصيدة الآتية: \n لا يحمل الحقد من تعلو به الرتب ولا ينال العلى من طبعه الغضب"
- text: "ومن أشعاره الفصيحة ما يأتي:\nدع الأيام تفعل ما تشاء ** وطب نفسا إذا حكم القضاء\nولا تجزع لنازلة الليالي ** فما لحوادث الدنيا بقاء\nوكن رجلا على الأهوال جلدا ** وشيمتك"
---
# Jasmine-350M
# JASMINE: Arabic GPT Models for Few-Shot Learning
This is the repository accompanying our EMNLP2023 paper [JASMINE: Arabic GPT Models for Few-Shot Learning](https://aclanthology.org/2023.emnlp-main.1040/). JASMINE is a suite of powerful Arabic autoregressive Transformer language models ranging in size between 300 million-6.7 billion parameters pretrained on a large and diverse dataset ( 235 GB of text).
# BibTex
If you use Jasmine models for your scientific publication, or if you find the resources in this repository useful, please cite our paper as follows (to be updated):
```bibtex
@inproceedings{billah-nagoudi-etal-2023-jasmine,
title = "{JASMINE}: {A}rabic {GPT} Models for Few-Shot Learning",
author = "Billah Nagoudi, El Moatez and
Abdul-Mageed, Muhammad and
Elmadany, AbdelRahim and
Inciarte, Alcides and
Islam Khondaker, Md Tawkat",
editor = "Bouamor, Houda and
Pino, Juan and
Bali, Kalika",
booktitle = "Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing",
month = dec,
year = "2023",
address = "Singapore",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.emnlp-main.1040",
doi = "10.18653/v1/2023.emnlp-main.1040",
pages = "16721--16744",
}
```
## Acknowledgments
We gratefully acknowledge support from the Natural Sciences and Engineering Research Council of Canada, the Social Sciences and Humanities Research Council of Canada, Canadian Foundation for Innovation, [ComputeCanada](www.computecanada.ca) and [UBC ARC-Sockeye](https://doi.org/10.14288/SOCKEYE). We also thank the [Google TensorFlow Research Cloud (TFRC)](https://www.tensorflow.org/tfrc) program for providing us with free TPU access.
|