Spaces:
Sleeping
Sleeping
HuggingFaceLLM
Browse files- app-last.py +3 -4
- backend.py +6 -2
app-last.py
CHANGED
@@ -52,10 +52,7 @@ documents_paths = {
|
|
52 |
|
53 |
global session_state
|
54 |
session_state = {"index": False,
|
55 |
-
"documents_loaded": False
|
56 |
-
"document_db": None,
|
57 |
-
"original_message": None,
|
58 |
-
"clarification": False}
|
59 |
|
60 |
INSTRUCTION_1 = 'In italiano, chiedi sempre se la domanda si riferisce agli "Osservatori Blockchain", "Osservatori Payment" oppure "Osservatori Metaverse".'
|
61 |
INSTRUCTION_2 = 'Sei un assistente che risponde sempre in italiano alle domande basandosi solo sulle informazioni fornite nel contesto che ti darò. Se non trovi informazioni, rispondi "Puoi chiedere maggiori informazioni all\'ufficio di riferimento.". Se invece la domanda è completamente fuori contesto, non rispondere e rammenta il topic del contesto'
|
@@ -110,6 +107,7 @@ def generate(
|
|
110 |
print("*** sources ***", sources)
|
111 |
gr.Info("doc preparati con ", sources)
|
112 |
|
|
|
113 |
conversation.append({"role": "user", "content": f'Contesto: {context}\n\n Domanda: {message}. Rispondi in italiano'})
|
114 |
|
115 |
######
|
@@ -125,6 +123,7 @@ def generate(
|
|
125 |
print(info_message)
|
126 |
gr.Info(info_message)"""
|
127 |
|
|
|
128 |
session_state["index"] = True
|
129 |
|
130 |
else: ## CHIEDI CHIARIMENTO
|
|
|
52 |
|
53 |
global session_state
|
54 |
session_state = {"index": False,
|
55 |
+
"documents_loaded": False}
|
|
|
|
|
|
|
56 |
|
57 |
INSTRUCTION_1 = 'In italiano, chiedi sempre se la domanda si riferisce agli "Osservatori Blockchain", "Osservatori Payment" oppure "Osservatori Metaverse".'
|
58 |
INSTRUCTION_2 = 'Sei un assistente che risponde sempre in italiano alle domande basandosi solo sulle informazioni fornite nel contesto che ti darò. Se non trovi informazioni, rispondi "Puoi chiedere maggiori informazioni all\'ufficio di riferimento.". Se invece la domanda è completamente fuori contesto, non rispondere e rammenta il topic del contesto'
|
|
|
107 |
print("*** sources ***", sources)
|
108 |
gr.Info("doc preparati con ", sources)
|
109 |
|
110 |
+
|
111 |
conversation.append({"role": "user", "content": f'Contesto: {context}\n\n Domanda: {message}. Rispondi in italiano'})
|
112 |
|
113 |
######
|
|
|
123 |
print(info_message)
|
124 |
gr.Info(info_message)"""
|
125 |
|
126 |
+
session_state["documents_loaded"] = True
|
127 |
session_state["index"] = True
|
128 |
|
129 |
else: ## CHIEDI CHIARIMENTO
|
backend.py
CHANGED
@@ -17,6 +17,7 @@ from IPython.display import Markdown, display
|
|
17 |
#from langchain.embeddings.huggingface import HuggingFaceEmbeddings
|
18 |
#from llama_index import LangchainEmbedding, ServiceContext
|
19 |
from llama_index.llms.huggingface import HuggingFaceLLM
|
|
|
20 |
|
21 |
|
22 |
|
@@ -36,8 +37,11 @@ model.tokenizer = AutoTokenizer.from_pretrained("google/gemma-2b-it")
|
|
36 |
model.eval()"""
|
37 |
|
38 |
# what models will be used by LlamaIndex:
|
39 |
-
Settings.embed_model = InstructorEmbedding(model_name="hkunlp/instructor-base")
|
40 |
#Settings.embed_model = LangchainEmbedding(HuggingFaceEmbeddings(model_name='sentence-transformers/all-MiniLM-L6-v2'))
|
|
|
|
|
|
|
41 |
|
42 |
SYSTEM_PROMPT = """You are an AI assistant that answers questions in a friendly manner, based on the given source documents. Here are some rules you always follow:
|
43 |
- Generate human readable output, avoid creating output with gibberish text.
|
@@ -56,7 +60,7 @@ model_id = "google/gemma-2-2b-it"
|
|
56 |
llm = HuggingFaceLLM(
|
57 |
context_window=4096,
|
58 |
max_new_tokens=2048,
|
59 |
-
generate_kwargs={"temperature": 0.
|
60 |
query_wrapper_prompt=query_wrapper_prompt,
|
61 |
tokenizer_name=model_id,
|
62 |
model_name=model_id,
|
|
|
17 |
#from langchain.embeddings.huggingface import HuggingFaceEmbeddings
|
18 |
#from llama_index import LangchainEmbedding, ServiceContext
|
19 |
from llama_index.llms.huggingface import HuggingFaceLLM
|
20 |
+
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
|
21 |
|
22 |
|
23 |
|
|
|
37 |
model.eval()"""
|
38 |
|
39 |
# what models will be used by LlamaIndex:
|
40 |
+
#Settings.embed_model = InstructorEmbedding(model_name="hkunlp/instructor-base")
|
41 |
#Settings.embed_model = LangchainEmbedding(HuggingFaceEmbeddings(model_name='sentence-transformers/all-MiniLM-L6-v2'))
|
42 |
+
Settings.embed_model = HuggingFaceEmbedding(model_name="BAAI/bge-small-en-v1.5")
|
43 |
+
|
44 |
+
|
45 |
|
46 |
SYSTEM_PROMPT = """You are an AI assistant that answers questions in a friendly manner, based on the given source documents. Here are some rules you always follow:
|
47 |
- Generate human readable output, avoid creating output with gibberish text.
|
|
|
60 |
llm = HuggingFaceLLM(
|
61 |
context_window=4096,
|
62 |
max_new_tokens=2048,
|
63 |
+
generate_kwargs={"temperature": 0.1, "do_sample": False},
|
64 |
query_wrapper_prompt=query_wrapper_prompt,
|
65 |
tokenizer_name=model_id,
|
66 |
model_name=model_id,
|