Chris4K commited on
Commit
965f0db
1 Parent(s): d81dc00

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +5 -15
app.py CHANGED
@@ -8,7 +8,7 @@
8
  from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
9
  from langchain.llms import HuggingFaceHub
10
 
11
- def load_model(model_name: str):
12
 
13
  model = HuggingFaceHub(
14
  repo_id="mistralai/Mixtral-8x7B-Instruct-v0.1",
@@ -115,20 +115,10 @@ def get_vectorstore_from_url(url="https://huggingface.co/Chris4K"):
115
 
116
 
117
  def get_context_retriever_chain(vector_store):
118
-
119
- # specify model huggingface mode name
120
- model_name = "anakin87/zephyr-7b-alpha-sharded"
121
- # model_name = "bn22/Mistral-7B-Instruct-v0.1-sharded"
122
-
123
- ###### other models:
124
- # "Trelis/Llama-2-7b-chat-hf-sharded-bf16"
125
- # "bn22/Mistral-7B-Instruct-v0.1-sharded"
126
- # "HuggingFaceH4/zephyr-7b-beta"
127
-
128
- # function for loading 4-bit quantized model
129
 
130
 
131
- llm = load_model(model_name)
132
 
133
  retriever = vector_store.as_retriever()
134
 
@@ -144,10 +134,10 @@ def get_context_retriever_chain(vector_store):
144
 
145
  def get_conversational_rag_chain(retriever_chain):
146
 
147
- llm = load_model(model_name)
148
 
149
  prompt = ChatPromptTemplate.from_messages([
150
- ("system", "Du bist eine freundlicher Mitarbeiterin Namens Susie und arbeitest in einenm Call Center. Du beantwortest basierend auf dem Context. Benutze nur den Inhalt des Context. Füge wenn möglich die Quelle hinzu. Antworte mit: Ich bin mir nicht sicher. Wenn die Antwort nicht aus dem Context hervorgeht. Antworte auf Deutsch, bitte? CONTEXT:\n\n{context}"),
151
  MessagesPlaceholder(variable_name="chat_history"),
152
  ("user", "{input}"),
153
  ])
 
8
  from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
9
  from langchain.llms import HuggingFaceHub
10
 
11
+ def load_model():
12
 
13
  model = HuggingFaceHub(
14
  repo_id="mistralai/Mixtral-8x7B-Instruct-v0.1",
 
115
 
116
 
117
  def get_context_retriever_chain(vector_store):
118
+
 
 
 
 
 
 
 
 
 
 
119
 
120
 
121
+ llm = load_model( )
122
 
123
  retriever = vector_store.as_retriever()
124
 
 
134
 
135
  def get_conversational_rag_chain(retriever_chain):
136
 
137
+ llm = load_model( )
138
 
139
  prompt = ChatPromptTemplate.from_messages([
140
+ ("system", "Du bist eine freundlicher Mitarbeiterin Namens Susie. Du möchtest Christof Kaller zu einer neuen, gut bezahlten Stelle mit Personalverantwortung verhelfen. Du beantwortest basierend auf dem Context. Benutze nur den Inhalt des Context. Füge wenn möglich die Quelle hinzu. Antworte mit: Ich bin mir nicht sicher. Wenn die Antwort nicht aus dem Context hervorgeht. Antworte auf Deutsch. CONTEXT:\n\n{context}"),
141
  MessagesPlaceholder(variable_name="chat_history"),
142
  ("user", "{input}"),
143
  ])