File size: 1,802 Bytes
8e8605d 66ff6f3 e2fb9d7 598e1d2 66ff6f3 1529d2a 66ff6f3 1529d2a 66ff6f3 1529d2a 66ff6f3 1529d2a 66ff6f3 1529d2a 66ff6f3 1529d2a |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 |
---
license: mit
datasets:
- wmt/wmt14
language:
- fr
- en
base_model:
- google-t5/t5-base
---
This model was finetuned using 50 K French English sentence pairs on WMT14 Fr En dataset.
```python
from transformers import T5Tokenizer, T5ForConditionalGeneration
# Load the pre-trained model and tokenizer
model_name = "SynapseQAI/T5-base-wmt14"
tokenizer = T5Tokenizer.from_pretrained(model_name)
model = T5ForConditionalGeneration.from_pretrained(model_name)
# Function to translate using beam search (default strategy)
def translate(sentence):
# Prepare the input for the model
input_text = f": {sentence}"
input_ids = tokenizer(input_text, return_tensors="pt").input_ids
# Generate translation using beam search
outputs = model.generate(input_ids, num_beams=3, max_length=50, early_stopping=True)
# Decode the generated translation
translation = tokenizer.decode(outputs[0], skip_special_tokens=True)
return translation
# French sentences from easy to advanced
sentences = [
"Le soleil se lève à l'est et se couche à l'ouest.",
"Les scientifiques travaillent dur pour trouver un remède.",
"La capitale de la France est Paris.",
"Je voudrais un café s'il vous plaît.",
"Il fait beau aujourd'hui.",
"J'aime lire des livres et regarder des films pendant mon temps libre.",
"Si j'avais su que tu venais, j'aurais préparé quelque chose de spécial pour le dîner.",
"Même si les avancées technologiques apportent de nombreux avantages, elles posent également des défis éthiques considérables qu'il nous faut relever."
]
# Translate each sentence and print the best translation
for sentence in sentences:
translated_sentence = translate(sentence)
print(f"French: {sentence}\nEnglish: {translated_sentence}\n")
|