from transformers import AutoModelForCausalLM, AutoTokenizer model_id = "seedboxai/KafkaLM-8x7B-German-V0.1-DPO" model = AutoModelForCausalLM.from_pretrained(model_id, load_in_4bit=True, trust_remote_code=True) tokenizer = AutoTokenizer.from_pretrained(model_id) def generate_prompt(input): prompt = '' sys_prompt = "Du bist ein freundlicher und hilfsbereiter KI-Assistent. Du beantwortest Fragen faktenorientiert und präzise, ohne dabei relevante Fakten auszulassen." prompt += f"<|system|>\n{sys_prompt.strip()}\n" prompt += f"<|user|>\n{input.strip()}\n" prompt += f"<|assistant|>\n" return prompt.strip() generate_text = transformers.pipeline( model=model, tokenizer=tokenizer, return_full_text=True, task='text-generation', temperature=0.5, max_new_tokens=512, top_p=0.95, top_k=50, do_sample=True, ) print(generate_text(generate_prompt("Wer ist eigentlich dieser Kafka?")))