|
---
|
|
license: apache-2.0
|
|
language:
|
|
- tr
|
|
- en
|
|
metrics:
|
|
- bleu
|
|
pipeline_tag: translation
|
|
tags:
|
|
- chemistry
|
|
- biology
|
|
- medical
|
|
---
|
|
|
|
|
|
checkpoint = "ilhami/AcademicTranslation2024-tr-to-en" |
|
|
|
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM |
|
|
|
tokenizer = AutoTokenizer.from_pretrained(checkpoint) |
|
|
|
model = AutoModelForSeq2SeqLM.from_pretrained(checkpoint).to("cuda") |
|
|
|
tr= ["Sohbet robotları son yıllarda yaygın bir şekilde kullanılmaya başlanmıştır. ", |
|
"İnsanları taklit eden ve daha iyi müşteri memnuniyeti sağlayan sohbet robotları en gelişkin doğal dil işleme tekniklerine ihtiyaç duymaktadır. ", |
|
"Bu çalışma sohbet robotu konuşmalarının niyet tahminini geliştirmeye odaklanmıştır." , |
|
"Kelime gösterimi için TF-IDF, Doc2vec ve BERT gibi geleneksel ve gelişmiş doğal dil işleme yöntemleri, çoklu sınıf ve çoklu etiket tahmini için ise lojistik regresyon, rastgele orman ve yapay sinir ağları kullanılmıştır." , |
|
"Sohbet robotu konuşma veri kümeleri, sinema bileti rezervasyonu, restoran rezervasyonu ve taksi çağırma olmak üzere üç farklı alandan alınmıştır. ", |
|
"Bu çalışmanın sonunda, BERT ve BERT ile TF-IDF birleşimi modellerin diğer kombinasyonlardan daha iyi sonuç verdiği görülmüştür. ", |
|
"BERT gibi ön eğitimli modellerden faydalanmanın daha iyi bağlamsal anlama sağladığı ortaya çıkmıştır. ", |
|
"TF-IDF yerleştirmeleri, BERT gösterimi ile birleştirilerek niyet kategorisi tahmininin iyileştirilmesi amaçlanmıştır."] |
|
|
|
encoded_text = tokenizer(tr, return_tensors="pt", padding = True).to("cuda") |
|
|
|
generated_tokens = model.generate(**encoded_text) |
|
|
|
en = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True) |