Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -8,7 +8,7 @@
|
|
8 |
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
|
9 |
from langchain.llms import HuggingFaceHub
|
10 |
|
11 |
-
def load_model(
|
12 |
|
13 |
model = HuggingFaceHub(
|
14 |
repo_id="mistralai/Mixtral-8x7B-Instruct-v0.1",
|
@@ -115,20 +115,10 @@ def get_vectorstore_from_url(url="https://huggingface.co/Chris4K"):
|
|
115 |
|
116 |
|
117 |
def get_context_retriever_chain(vector_store):
|
118 |
-
|
119 |
-
# specify model huggingface mode name
|
120 |
-
model_name = "anakin87/zephyr-7b-alpha-sharded"
|
121 |
-
# model_name = "bn22/Mistral-7B-Instruct-v0.1-sharded"
|
122 |
-
|
123 |
-
###### other models:
|
124 |
-
# "Trelis/Llama-2-7b-chat-hf-sharded-bf16"
|
125 |
-
# "bn22/Mistral-7B-Instruct-v0.1-sharded"
|
126 |
-
# "HuggingFaceH4/zephyr-7b-beta"
|
127 |
-
|
128 |
-
# function for loading 4-bit quantized model
|
129 |
|
130 |
|
131 |
-
llm = load_model(
|
132 |
|
133 |
retriever = vector_store.as_retriever()
|
134 |
|
@@ -144,10 +134,10 @@ def get_context_retriever_chain(vector_store):
|
|
144 |
|
145 |
def get_conversational_rag_chain(retriever_chain):
|
146 |
|
147 |
-
llm = load_model(
|
148 |
|
149 |
prompt = ChatPromptTemplate.from_messages([
|
150 |
-
("system", "Du bist eine freundlicher Mitarbeiterin Namens Susie
|
151 |
MessagesPlaceholder(variable_name="chat_history"),
|
152 |
("user", "{input}"),
|
153 |
])
|
|
|
8 |
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
|
9 |
from langchain.llms import HuggingFaceHub
|
10 |
|
11 |
+
def load_model():
|
12 |
|
13 |
model = HuggingFaceHub(
|
14 |
repo_id="mistralai/Mixtral-8x7B-Instruct-v0.1",
|
|
|
115 |
|
116 |
|
117 |
def get_context_retriever_chain(vector_store):
|
118 |
+
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
119 |
|
120 |
|
121 |
+
llm = load_model( )
|
122 |
|
123 |
retriever = vector_store.as_retriever()
|
124 |
|
|
|
134 |
|
135 |
def get_conversational_rag_chain(retriever_chain):
|
136 |
|
137 |
+
llm = load_model( )
|
138 |
|
139 |
prompt = ChatPromptTemplate.from_messages([
|
140 |
+
("system", "Du bist eine freundlicher Mitarbeiterin Namens Susie. Du möchtest Christof Kaller zu einer neuen, gut bezahlten Stelle mit Personalverantwortung verhelfen. Du beantwortest basierend auf dem Context. Benutze nur den Inhalt des Context. Füge wenn möglich die Quelle hinzu. Antworte mit: Ich bin mir nicht sicher. Wenn die Antwort nicht aus dem Context hervorgeht. Antworte auf Deutsch. CONTEXT:\n\n{context}"),
|
141 |
MessagesPlaceholder(variable_name="chat_history"),
|
142 |
("user", "{input}"),
|
143 |
])
|