Spaces:
Sleeping
Sleeping
arman77mxx
commited on
Commit
•
814a16d
1
Parent(s):
a6933a9
upa
Browse files
app.py
CHANGED
@@ -71,19 +71,21 @@ if OPENAI_API_KEY:
|
|
71 |
# Definición del pipeline de procesamiento
|
72 |
def rag_pipeline(question):
|
73 |
response = query_engine.query(question)
|
74 |
-
context_docs = response.get_documents() # Obtener documentos correctamente
|
|
|
75 |
|
|
|
76 |
context = "\n\n".join(doc.text for doc in context_docs)
|
77 |
prompt = f"Contexto:\n{context}\n\nPregunta: {question}\nRespuesta:"
|
78 |
llm_response = llm(prompt)
|
79 |
return llm_response
|
80 |
-
|
81 |
# Interacción con el usuario
|
82 |
pregunta = st.text_area("Haz una pregunta sobre los documentos:")
|
83 |
if pregunta:
|
84 |
try:
|
85 |
response = rag_pipeline(pregunta)
|
86 |
-
st.markdown(response)
|
87 |
except Exception as e:
|
88 |
st.error(f"Error al procesar la pregunta: {e}")
|
89 |
|
|
|
71 |
# Definición del pipeline de procesamiento
|
72 |
def rag_pipeline(question):
|
73 |
response = query_engine.query(question)
|
74 |
+
#context_docs = response.get_documents() # Obtener documentos correctamente
|
75 |
+
#context_docs = display_response(response)
|
76 |
|
77 |
+
"""
|
78 |
context = "\n\n".join(doc.text for doc in context_docs)
|
79 |
prompt = f"Contexto:\n{context}\n\nPregunta: {question}\nRespuesta:"
|
80 |
llm_response = llm(prompt)
|
81 |
return llm_response
|
82 |
+
"""
|
83 |
# Interacción con el usuario
|
84 |
pregunta = st.text_area("Haz una pregunta sobre los documentos:")
|
85 |
if pregunta:
|
86 |
try:
|
87 |
response = rag_pipeline(pregunta)
|
88 |
+
st.markdown(display_response(response))
|
89 |
except Exception as e:
|
90 |
st.error(f"Error al procesar la pregunta: {e}")
|
91 |
|