gufett0 commited on
Commit
63c9ed5
·
1 Parent(s): cdd5620

HuggingFaceLLM

Browse files
Files changed (2) hide show
  1. app-last.py +3 -4
  2. backend.py +6 -2
app-last.py CHANGED
@@ -52,10 +52,7 @@ documents_paths = {
52
 
53
  global session_state
54
  session_state = {"index": False,
55
- "documents_loaded": False,
56
- "document_db": None,
57
- "original_message": None,
58
- "clarification": False}
59
 
60
  INSTRUCTION_1 = 'In italiano, chiedi sempre se la domanda si riferisce agli "Osservatori Blockchain", "Osservatori Payment" oppure "Osservatori Metaverse".'
61
  INSTRUCTION_2 = 'Sei un assistente che risponde sempre in italiano alle domande basandosi solo sulle informazioni fornite nel contesto che ti darò. Se non trovi informazioni, rispondi "Puoi chiedere maggiori informazioni all\'ufficio di riferimento.". Se invece la domanda è completamente fuori contesto, non rispondere e rammenta il topic del contesto'
@@ -110,6 +107,7 @@ def generate(
110
  print("*** sources ***", sources)
111
  gr.Info("doc preparati con ", sources)
112
 
 
113
  conversation.append({"role": "user", "content": f'Contesto: {context}\n\n Domanda: {message}. Rispondi in italiano'})
114
 
115
  ######
@@ -125,6 +123,7 @@ def generate(
125
  print(info_message)
126
  gr.Info(info_message)"""
127
 
 
128
  session_state["index"] = True
129
 
130
  else: ## CHIEDI CHIARIMENTO
 
52
 
53
  global session_state
54
  session_state = {"index": False,
55
+ "documents_loaded": False}
 
 
 
56
 
57
  INSTRUCTION_1 = 'In italiano, chiedi sempre se la domanda si riferisce agli "Osservatori Blockchain", "Osservatori Payment" oppure "Osservatori Metaverse".'
58
  INSTRUCTION_2 = 'Sei un assistente che risponde sempre in italiano alle domande basandosi solo sulle informazioni fornite nel contesto che ti darò. Se non trovi informazioni, rispondi "Puoi chiedere maggiori informazioni all\'ufficio di riferimento.". Se invece la domanda è completamente fuori contesto, non rispondere e rammenta il topic del contesto'
 
107
  print("*** sources ***", sources)
108
  gr.Info("doc preparati con ", sources)
109
 
110
+
111
  conversation.append({"role": "user", "content": f'Contesto: {context}\n\n Domanda: {message}. Rispondi in italiano'})
112
 
113
  ######
 
123
  print(info_message)
124
  gr.Info(info_message)"""
125
 
126
+ session_state["documents_loaded"] = True
127
  session_state["index"] = True
128
 
129
  else: ## CHIEDI CHIARIMENTO
backend.py CHANGED
@@ -17,6 +17,7 @@ from IPython.display import Markdown, display
17
  #from langchain.embeddings.huggingface import HuggingFaceEmbeddings
18
  #from llama_index import LangchainEmbedding, ServiceContext
19
  from llama_index.llms.huggingface import HuggingFaceLLM
 
20
 
21
 
22
 
@@ -36,8 +37,11 @@ model.tokenizer = AutoTokenizer.from_pretrained("google/gemma-2b-it")
36
  model.eval()"""
37
 
38
  # what models will be used by LlamaIndex:
39
- Settings.embed_model = InstructorEmbedding(model_name="hkunlp/instructor-base")
40
  #Settings.embed_model = LangchainEmbedding(HuggingFaceEmbeddings(model_name='sentence-transformers/all-MiniLM-L6-v2'))
 
 
 
41
 
42
  SYSTEM_PROMPT = """You are an AI assistant that answers questions in a friendly manner, based on the given source documents. Here are some rules you always follow:
43
  - Generate human readable output, avoid creating output with gibberish text.
@@ -56,7 +60,7 @@ model_id = "google/gemma-2-2b-it"
56
  llm = HuggingFaceLLM(
57
  context_window=4096,
58
  max_new_tokens=2048,
59
- generate_kwargs={"temperature": 0.0, "do_sample": False},
60
  query_wrapper_prompt=query_wrapper_prompt,
61
  tokenizer_name=model_id,
62
  model_name=model_id,
 
17
  #from langchain.embeddings.huggingface import HuggingFaceEmbeddings
18
  #from llama_index import LangchainEmbedding, ServiceContext
19
  from llama_index.llms.huggingface import HuggingFaceLLM
20
+ from llama_index.embeddings.huggingface import HuggingFaceEmbedding
21
 
22
 
23
 
 
37
  model.eval()"""
38
 
39
  # what models will be used by LlamaIndex:
40
+ #Settings.embed_model = InstructorEmbedding(model_name="hkunlp/instructor-base")
41
  #Settings.embed_model = LangchainEmbedding(HuggingFaceEmbeddings(model_name='sentence-transformers/all-MiniLM-L6-v2'))
42
+ Settings.embed_model = HuggingFaceEmbedding(model_name="BAAI/bge-small-en-v1.5")
43
+
44
+
45
 
46
  SYSTEM_PROMPT = """You are an AI assistant that answers questions in a friendly manner, based on the given source documents. Here are some rules you always follow:
47
  - Generate human readable output, avoid creating output with gibberish text.
 
60
  llm = HuggingFaceLLM(
61
  context_window=4096,
62
  max_new_tokens=2048,
63
+ generate_kwargs={"temperature": 0.1, "do_sample": False},
64
  query_wrapper_prompt=query_wrapper_prompt,
65
  tokenizer_name=model_id,
66
  model_name=model_id,