Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -41,7 +41,7 @@ OAI_API_KEY=os.getenv("OPENAI_API_KEY")
|
|
41 |
#################################################
|
42 |
#Prompt Zusätze
|
43 |
#################################################
|
44 |
-
template = """Antworte in deutsch, wenn es nicht explizit anders gefordert wird. Wenn du die Antwort nicht kennst, antworte einfach, dass du es nicht weißt. Versuche nicht, die Antwort zu erfinden oder aufzumocken. Halte die Antwort
|
45 |
|
46 |
llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: "
|
47 |
rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: "
|
@@ -220,7 +220,7 @@ def llm_chain(prompt):
|
|
220 |
#prompt mit RAG!!!
|
221 |
def rag_chain(prompt, db, k=3):
|
222 |
rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
|
223 |
-
retrieved_chunks = db.similarity_search(prompt
|
224 |
|
225 |
neu_prompt = rag_template
|
226 |
for i, chunk in enumerate(retrieved_chunks):
|
|
|
41 |
#################################################
|
42 |
#Prompt Zusätze
|
43 |
#################################################
|
44 |
+
template = """Antworte in deutsch, wenn es nicht explizit anders gefordert wird. Wenn du die Antwort nicht kennst, antworte einfach, dass du es nicht weißt. Versuche nicht, die Antwort zu erfinden oder aufzumocken. Halte die Antwort kurz aber exakt. Wenn du die Antwort in den Dokumenten nicht findest, schaue in deinen eigenen Daten nach, mache das aber in der Antwort deutlich."""
|
45 |
|
46 |
llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: "
|
47 |
rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: "
|
|
|
220 |
#prompt mit RAG!!!
|
221 |
def rag_chain(prompt, db, k=3):
|
222 |
rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
|
223 |
+
retrieved_chunks = db.similarity_search(prompt)
|
224 |
|
225 |
neu_prompt = rag_template
|
226 |
for i, chunk in enumerate(retrieved_chunks):
|