alexkueck commited on
Commit
da417b9
1 Parent(s): b042dde

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -7
app.py CHANGED
@@ -15,6 +15,9 @@ from PyPDF2 import PdfReader, PdfWriter
15
  from hugchat import hugchat
16
  from hugchat.login import Login
17
  from tavily import TavilyClient
 
 
 
18
 
19
  from langchain.chains import LLMChain, RetrievalQA
20
  from langchain.chat_models import ChatOpenAI
@@ -50,7 +53,8 @@ _ = load_dotenv(find_dotenv())
50
  #nur bei ersten Anfrage splitten der Dokumente - um die Vektordatenbank entsprechend zu füllen
51
  #splittet = False
52
  #DB für Vektorstore
53
- db = None
 
54
 
55
  #############################################
56
  # Allgemeine Konstanten
@@ -336,13 +340,11 @@ def generate_auswahl(prompt_in, file, file_history, chatbot, history, rag_option
336
 
337
  if (rag_option == "An"):
338
  #muss nur einmal ausgeführt werden...
339
- if db == None:
340
  print("db neu aufbauen!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!1")
341
  splits = document_loading_splitting()
342
- document_storage_chroma(splits)
343
- db = document_retrieval_chroma2()
344
- print("db aktiv!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!")
345
- print(db)
346
  #else: #unnötig, da wenn Vektorstor einmal für alle user eingerichtet, wer weiter besthen bleiben kann - die unterschiedlichen Propmt werden dann später je nach rag_option erzeugt
347
  #db=None
348
  #splittet = False #sonst würde es für alle User wieder ausgeschaltet - Alternative: gr.State(False) dazu anlegen
@@ -517,7 +519,7 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
517
  print("LLM aufrufen mit RAG: ...........")
518
  print(history_text_und_prompt)
519
  print("-------------------------------")
520
- result = rag_chain(llm, history_text_und_prompt, db) #für hugchat noch kein rag möglich...
521
  #weitere Möglichkeit für Rag-Chain - dann auch für HF Modelle möglich, da kein llm in Langchain übergeben werden muss...
522
  #result = rag_chain2(history_text_und_prompt, db, 5)
523
  print("result regchain.....................")
 
15
  from hugchat import hugchat
16
  from hugchat.login import Login
17
  from tavily import TavilyClient
18
+ import pprint
19
+
20
+ from langgraph.graph import END, StateGraph
21
 
22
  from langchain.chains import LLMChain, RetrievalQA
23
  from langchain.chat_models import ChatOpenAI
 
53
  #nur bei ersten Anfrage splitten der Dokumente - um die Vektordatenbank entsprechend zu füllen
54
  #splittet = False
55
  #DB für Vektorstore
56
+ vectorstore = None
57
+ retriever = None
58
 
59
  #############################################
60
  # Allgemeine Konstanten
 
340
 
341
  if (rag_option == "An"):
342
  #muss nur einmal ausgeführt werden...
343
+ if vectorstore == None:
344
  print("db neu aufbauen!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!1")
345
  splits = document_loading_splitting()
346
+ vectorstore, retriever = document_storage_chroma(splits)
347
+
 
 
348
  #else: #unnötig, da wenn Vektorstor einmal für alle user eingerichtet, wer weiter besthen bleiben kann - die unterschiedlichen Propmt werden dann später je nach rag_option erzeugt
349
  #db=None
350
  #splittet = False #sonst würde es für alle User wieder ausgeschaltet - Alternative: gr.State(False) dazu anlegen
 
519
  print("LLM aufrufen mit RAG: ...........")
520
  print(history_text_und_prompt)
521
  print("-------------------------------")
522
+ result = rag_chain(llm, history_text_und_prompt, vectorstore) #für hugchat noch kein rag möglich...
523
  #weitere Möglichkeit für Rag-Chain - dann auch für HF Modelle möglich, da kein llm in Langchain übergeben werden muss...
524
  #result = rag_chain2(history_text_und_prompt, db, 5)
525
  print("result regchain.....................")