Spaces:
Sleeping
Sleeping
Upload 2 files
Browse files- app.py +6 -4
- langchain_KB.py +5 -5
app.py
CHANGED
@@ -3,10 +3,12 @@
|
|
3 |
1. 总共有三个区块:知识库回答,应用来源,相关问题。
|
4 |
1. 在Huggingface的API上部署了一个在线BGE的模型,用于回答问题。OpenAI的Emebedding或者Langchain的Embedding都不可以用(会报错: self.d)。
|
5 |
|
|
|
|
|
6 |
|
7 |
"""
|
8 |
|
9 |
-
##TODO:
|
10 |
|
11 |
# -*- coding: utf-8 -*-
|
12 |
import requests
|
@@ -347,7 +349,7 @@ def main():
|
|
347 |
# with st.expander(label='**查询企业内部知识库**', expanded=True):
|
348 |
with col1:
|
349 |
KB_mode = True
|
350 |
-
user_input = st.text_input(label='
|
351 |
if user_input:
|
352 |
## 非stream输出,原始状态,不需要改变api.py中的内容。
|
353 |
# with st.status('检索中...', expanded=True, state='running') as status:
|
@@ -357,8 +359,8 @@ def main():
|
|
357 |
# import rag_reponse_001
|
358 |
# clear_all()
|
359 |
# response = rag_reponse_001.rag_response(user_input=user_input, k=5) ## working.
|
360 |
-
print('user_input:', user_input)
|
361 |
-
response, source = rag_reponse_002.rag_response(user_input=user_input, k=3)
|
362 |
print('llm response:', response)
|
363 |
sim_prompt = f"""你需要根据以下的问题来提出5个可能的后续问题{user_input}
|
364 |
"""
|
|
|
3 |
1. 总共有三个区块:知识库回答,应用来源,相关问题。
|
4 |
1. 在Huggingface的API上部署了一个在线BGE的模型,用于回答问题。OpenAI的Emebedding或者Langchain的Embedding都不可以用(会报错: self.d)。
|
5 |
|
6 |
+
注意事项:
|
7 |
+
1. langchain_KB.py中的代码是用来构建本地知识库的,里面的embeddings需要与rag_response_002.py中的embeddings一致。否则会出错!
|
8 |
|
9 |
"""
|
10 |
|
11 |
+
##TODO:
|
12 |
|
13 |
# -*- coding: utf-8 -*-
|
14 |
import requests
|
|
|
349 |
# with st.expander(label='**查询企业内部知识库**', expanded=True):
|
350 |
with col1:
|
351 |
KB_mode = True
|
352 |
+
user_input = st.text_input(label='**📶 大模型数据库对话区**', placeholder='请输入您的问题', label_visibility='visible')
|
353 |
if user_input:
|
354 |
## 非stream输出,原始状态,不需要改变api.py中的内容。
|
355 |
# with st.status('检索中...', expanded=True, state='running') as status:
|
|
|
359 |
# import rag_reponse_001
|
360 |
# clear_all()
|
361 |
# response = rag_reponse_001.rag_response(user_input=user_input, k=5) ## working.
|
362 |
+
# print('user_input:', user_input)
|
363 |
+
response, source = rag_reponse_002.rag_response(username=username, user_input=user_input, k=3)
|
364 |
print('llm response:', response)
|
365 |
sim_prompt = f"""你需要根据以下的问题来提出5个可能的后续问题{user_input}
|
366 |
"""
|
langchain_KB.py
CHANGED
@@ -74,11 +74,11 @@ def langchain_localKB_construct(filepath, username):
|
|
74 |
docs = CharacterTextSplitter(chunk_size=1000, chunk_overlap=200).split_documents(docs)
|
75 |
|
76 |
## 创建向量数据库
|
77 |
-
|
78 |
-
|
79 |
-
from langchain.embeddings.openai import OpenAIEmbeddings
|
80 |
-
embeddings = OpenAIEmbeddings(disallowed_special=()) ## 可能需要更新了。
|
81 |
-
print('langchain embeddings:', embeddings)
|
82 |
|
83 |
vector_store = FAISS.from_documents(docs, embeddings)
|
84 |
# print(vector_store)
|
|
|
74 |
docs = CharacterTextSplitter(chunk_size=1000, chunk_overlap=200).split_documents(docs)
|
75 |
|
76 |
## 创建向量数据库
|
77 |
+
embedding_model_name = 'BAAI/bge-large-zh-v1.5'
|
78 |
+
embeddings = HuggingFaceEmbeddings(model_name=embedding_model_name) ## 这里是联网情况下连接huggingface后使用。
|
79 |
+
# from langchain.embeddings.openai import OpenAIEmbeddings
|
80 |
+
# embeddings = OpenAIEmbeddings(disallowed_special=()) ## 可能需要更新了。
|
81 |
+
# print('langchain embeddings:', embeddings)
|
82 |
|
83 |
vector_store = FAISS.from_documents(docs, embeddings)
|
84 |
# print(vector_store)
|