BasePersianEase

This model is fine-tuned to generate informal text from formal text based on the input provided. It has been fine-tuned on [Mohavere Dataset] (Takalli vahideh, Kalantari, Fateme, Shamsfard, Mehrnoush, Developing an Informal-Formal Persian Corpus, 2022.) using the pretrained base T5 model parsT5-base.

Usage


from transformers import (T5ForConditionalGeneration, AutoTokenizer, pipeline)
import torch
model = T5ForConditionalGeneration.from_pretrained('PardisSzah/BasePersianEase')
tokenizer = AutoTokenizer.from_pretrained('PardisSzah/BasePersianEase')


pipe = pipeline(task='text2text-generation', model=model, tokenizer=tokenizer)
def test_model(text):
  device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')  
  model.to(device) 

  inputs = tokenizer.encode("formal: " + text, return_tensors='pt', max_length=128, truncation=True, padding='max_length')
  inputs = inputs.to(device) 

  outputs = model.generate(inputs, max_length=128, num_beams=4, temperature=0.7)
  print("Output:", tokenizer.decode(outputs[0], skip_special_tokens=True))  

text = "   من فقط می‌خواستم بگویم که چقدر قدردان همه چیزهایی هستم که برای من انجام داده ای. دوستی تو برای من یک هدیه بزرگ است و من همیشه از داشتن یک دوست مانند تو خوشحال هستم."
print("Original:", text)
test_model(text)

# output: من فقط میخوام بگم که چقدر قدردان همه کاریم که برای من انجام دادی. دوستی تو برای من یه هدیه بزرگه و من همیشه از داشتن یه دوست مثل تو خوشحالم.

Downloads last month
8
Safetensors
Model size
248M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.