--- license: apache-2.0 language: - de metrics: - bleu - accuracy - rouge base_model: - facebook/bart-large-cnn pipeline_tag: text2text-generation tags: - summarization - safetesors - text-generation-inference - text_to_text - Netzwerk - Smart_Industry_Campus - generation library_name: transformers --- # Übersicht **PDF-Suzammenfassen** ist ein spezialisiertes Modell, das für die Erstellung präziser Zusammenfassungen von Texten optimiert wurde, insbesondere in den Bereichen Netzwerk und IT-Themen. Es basiert auf einer feinabgestimmten Version von BART und wurde mit deutschen Fachtexten trainiert. ## Funktionen - **Sprachunterstützung:** Optimiert für deutsche Texte. - **Anwendungsbereiche:** - Netzwerktechnologie - IT-Infrastruktur - Industrie 4.0 ## Modell-Details - **Format:** safetensors - **Parameter:** 406M - **Architektur:** Seq2Seq (BART) ## Nutzung Dieses Modell kann über die Hugging Face Inference API oder lokal mit der Transformers-Bibliothek verwendet werden. ### Beispielcode ```python from transformers import AutoTokenizer, AutoModelForSeq2SeqLM tokenizer = AutoTokenizer.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen") model = AutoModelForSeq2SeqLM.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen") text = "Das ist ein Beispieltext, der zusammengefasst werden soll." inputs = tokenizer(text, return_tensors="pt", truncation=True) outputs = model.generate(inputs["input_ids"], max_length=150, min_length=30, length_penalty=2.0, num_beams=4) summary = tokenizer.decode(outputs[0], skip_special_tokens=True) print(summary) Installation Um dieses Modell lokal zu verwenden, führen Sie folgende Schritte aus: Installieren Sie die Hugging Face Transformers-Bibliothek: pip install transformers Laden Sie das Modell und den Tokenizer herunter: from transformers import AutoModel, AutoTokenizer model = AutoModel.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen") tokenizer = AutoTokenizer.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen") Lizenz Dieses Modell steht unter der Apache 2.0-Lizenz. Für weitere Informationen lesen Sie bitte die Lizenzbedingungen.