Spaces:
Sleeping
Sleeping
added memory
Browse files- app.py +25 -8
- backend.py +6 -5
app.py
CHANGED
@@ -2,16 +2,33 @@ from backend import handle_query
|
|
2 |
import gradio as gr
|
3 |
|
4 |
|
5 |
-
|
6 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
7 |
fn=handle_query,
|
8 |
-
title="Odi, l'assistente ricercatore degli Osservatori",
|
9 |
-
description="Retrieval-Augmented Generation - Ask me anything about the research carried out at the Osservatori.",
|
10 |
chatbot=gr.Chatbot(height=400),
|
11 |
-
textbox=gr.Textbox(placeholder="Chiedimi qualasiasi cosa relativa agli Osservatori", container=False, scale=7)
|
12 |
-
|
13 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
14 |
|
|
|
|
|
|
|
|
|
|
|
|
|
15 |
if __name__ == "__main__":
|
16 |
progress = gr.Progress(track_tqdm=True)
|
17 |
-
|
|
|
|
2 |
import gradio as gr
|
3 |
|
4 |
|
5 |
+
DESCRIPTION = """\
|
6 |
+
# Odi, l'assistente ricercatore degli Osservatori
|
7 |
+
|
8 |
+
👉 Retrieval-Augmented Generation - Ask me anything about the research carried out at the Osservatori.
|
9 |
+
"""
|
10 |
+
|
11 |
+
|
12 |
+
chat_interface =gr.ChatInterface(
|
13 |
fn=handle_query,
|
|
|
|
|
14 |
chatbot=gr.Chatbot(height=400),
|
15 |
+
textbox=gr.Textbox(placeholder="Chiedimi qualasiasi cosa relativa agli Osservatori", container=False, scale=7),
|
16 |
+
examples=[
|
17 |
+
["Ciao, in cosa puoi aiutarmi?"],
|
18 |
+
["Ciao, in cosa consiste un piatto di spaghetti?"],
|
19 |
+
["Ciao, quali sono le aziende che hanno iniziato ad integrare le stablecoins? Fammi un breve sommario."],
|
20 |
+
["Spiegami la differenza tra mondi virtuali pubblici o privati"],
|
21 |
+
["Trovami un esempio di progetto B2B"],
|
22 |
+
["Quali sono le regole europee sui bonifici istantanei?"],
|
23 |
+
])
|
24 |
|
25 |
+
|
26 |
+
with gr.Blocks(css=".gradio-container {background-color: #B9D9EB}", fill_height=True) as demo:
|
27 |
+
gr.Markdown(DESCRIPTION)
|
28 |
+
gr.DuplicateButton(value="Duplicate Space for private use", elem_id="duplicate-button")
|
29 |
+
chat_interface.render()
|
30 |
+
|
31 |
if __name__ == "__main__":
|
32 |
progress = gr.Progress(track_tqdm=True)
|
33 |
+
demo.queue(max_size=20).launch()
|
34 |
+
|
backend.py
CHANGED
@@ -65,16 +65,17 @@ def handle_query(query_str, chat_history) -> Iterator[str]:
|
|
65 |
|
66 |
chat_engine = index.as_chat_engine(
|
67 |
chat_mode="condense_plus_context",
|
68 |
-
similarity_top_k=3,
|
69 |
-
response_mode="tree_summarize",
|
70 |
memory=memory,
|
|
|
|
|
|
|
71 |
|
72 |
context_prompt = (
|
73 |
"Sei un assistente Q&A italiano di nome Odi, che risponde solo alle domande o richieste pertinenti in modo preciso."
|
74 |
" Quando un utente ti chiede informazioni su di te o sul tuo creatore puoi dire che sei un assistente ricercatore creato dagli Osservatori Digitali e fornire gli argomenti di cui sei esperto."
|
75 |
-
"Ecco i documenti rilevanti per il contesto:\n"
|
76 |
-
"{context_str}"
|
77 |
-
"\nIstruzione: Usa la cronologia delle chat precedenti, o il contesto sopra, per interagire e aiutare l'utente."
|
78 |
)
|
79 |
|
80 |
)
|
|
|
65 |
|
66 |
chat_engine = index.as_chat_engine(
|
67 |
chat_mode="condense_plus_context",
|
|
|
|
|
68 |
memory=memory,
|
69 |
+
#similarity_top_k=3,
|
70 |
+
response_mode="tree_summarize",
|
71 |
+
|
72 |
|
73 |
context_prompt = (
|
74 |
"Sei un assistente Q&A italiano di nome Odi, che risponde solo alle domande o richieste pertinenti in modo preciso."
|
75 |
" Quando un utente ti chiede informazioni su di te o sul tuo creatore puoi dire che sei un assistente ricercatore creato dagli Osservatori Digitali e fornire gli argomenti di cui sei esperto."
|
76 |
+
#"Ecco i documenti rilevanti per il contesto:\n"
|
77 |
+
#"{context_str}"
|
78 |
+
#"\nIstruzione: Usa la cronologia delle chat precedenti, o il contesto sopra, per interagire e aiutare l'utente."
|
79 |
)
|
80 |
|
81 |
)
|