Update utils.py
Browse files
utils.py
CHANGED
@@ -352,13 +352,7 @@ def llm_chain(llm, prompt):
|
|
352 |
llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT)
|
353 |
result = llm_chain.run({"question": prompt})
|
354 |
return result
|
355 |
-
|
356 |
-
#nur für HF-um bei chatverlauf kurzbeschreibung zu erzeugen
|
357 |
-
def llm_chain2(llm, prompt):
|
358 |
-
llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT2)
|
359 |
-
result = llm_chain.run({"question": prompt})
|
360 |
-
return result
|
361 |
-
"""
|
362 |
|
363 |
#############################################
|
364 |
#langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
|
@@ -400,6 +394,9 @@ def rag_chain(llm, prompt, retriever):
|
|
400 |
outputs = modell_rag.generate(inputs['input_ids'], max_length=150, num_beams=2, early_stopping=True)
|
401 |
answer = tokenizer_rag.decode(outputs[0], skip_special_tokens=True)
|
402 |
"""
|
|
|
|
|
|
|
403 |
#Alternative, wenn llm direkt übergeben....................................
|
404 |
#llm_chain = LLMChain(llm = llm, prompt = RAG_CHAIN_PROMPT)
|
405 |
#answer = llm_chain.run({"context": combined_content, "question": prompt})
|
|
|
352 |
llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT)
|
353 |
result = llm_chain.run({"question": prompt})
|
354 |
return result
|
355 |
+
|
|
|
|
|
|
|
|
|
|
|
|
|
356 |
|
357 |
#############################################
|
358 |
#langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
|
|
|
394 |
outputs = modell_rag.generate(inputs['input_ids'], max_length=150, num_beams=2, early_stopping=True)
|
395 |
answer = tokenizer_rag.decode(outputs[0], skip_special_tokens=True)
|
396 |
"""
|
397 |
+
#############################################
|
398 |
+
#Verschiedene LLMs ausprobieren
|
399 |
+
#############################################
|
400 |
#Alternative, wenn llm direkt übergeben....................................
|
401 |
#llm_chain = LLMChain(llm = llm, prompt = RAG_CHAIN_PROMPT)
|
402 |
#answer = llm_chain.run({"context": combined_content, "question": prompt})
|