Model Card for Model ID

This is Instruct Fine-tuned Version of MobiLlama Fine-tuned on Instruct Urdu Article Generation Dataset. Instruct Urdu Article Generation Dataset was released under AYA Collections by Cohere for AI

This model is finetuned for 8500 steps for generating articles in Urdu Language.

Fine-Tuning Statistics: image/png

Model Description

This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.

  • Developed by: [Ahmad Mustafa Anis]
  • Language(s) (NLP): [Urdu]
  • License: [CC by 4.0]
  • Finetuned from model [optional]: [MBZUAI/MobiLlama-05B]

Model Sources [optional]

Uses

This model is intended to use on mobile devices for generating articles in Urdu Language.

Bias, Risks, and Limitations

This model may contain biases and limitations that are present in LLMs and I have not accounted for them.

How to Get Started with the Model

Use the code below to get started with the model.


model = AutoModelForCausalLM.from_pretrained("AhmadMustafa/MobiLLama-Urdu-Article-Generation", trust_remote_code=True).to(device)
tokenizer = AutoTokenizer.from_pretrained("MBZUAI/MobiLlama-05B")

example = {'inputs': """ اس دی گی ایک خبر سے متعلق ایک مضمون لکھیں۔
خبر: سشانت سنگھ کیس بھارتی سپریم کورٹ نے فریقین سے مفصل جواب طلب کرلیا""",
}

example = f"### Instruction: {example['inputs']}\n ### Completion: "
inputs = tokenizer.encode(f"{example}", return_tensors="pt").to(device)

outputs = model.generate(inputs, max_new_tokens=512)

print(tokenizer.decode(outputs[0]))

# Output
>>>جی ضرور، یہ رہا آپ کی خبر سے متعلق ایک مضمون: 
ممبئی بھارتی سپریم کورٹ نے بالی وڈ اداکار سشانت سنگھ راجپوت کیس کی سماعت کے دوران فریقین سے مفصل جواب طلب کرلیا بھارتی سپریم کورٹ کے جسٹس شوکت عزیز نے سشانت سنگھ راجپوت کیس کی سماعت کی سماعت کے دوران فریقین سے مفصل جواب طلب کیا سشانت سنگھ راجپوت کیس کی سماعت کے دوران فریقین سے مفصل جواب طلب کیا گیا جسٹس شوکت عزیز نے سشانت سنگھ راجپوت کیس کی سماعت کی سماعت کے دوران فریقین سے مفصل جواب طلب کیا سشانت سنگھ راجپوت کیس کی سماعت کے دوران فریقین سے مفصل جواب طلب کی

Please note that I have used <|EOS|> in the end of each example so you can use that as ending token to control generation.

Citation [optional]

BibTeX:

@misc{thawakar2024mobillama, title={MobiLlama: Towards Accurate and Lightweight Fully Transparent GPT}, author={Omkar Thawakar and Ashmal Vayani and Salman Khan and Hisham Cholakkal and Rao Muhammad Anwer and Michael Felsberg and Timothy Baldwin and Eric P. Xing and Fahad Shahbaz Khan}, year={2024}, eprint={2402.16840}, archivePrefix={arXiv}, primaryClass={cs.CL} }

Model Card Authors [optional]

Downloads last month
50
Safetensors
Model size
535M params
Tensor type
F32
·
Inference Examples
Inference API (serverless) does not yet support model repos that contain custom code.

Model tree for AhmadMustafa/MobiLLama-Urdu-Article-Generation

Finetuned
(1)
this model

Dataset used to train AhmadMustafa/MobiLLama-Urdu-Article-Generation