datacipen commited on
Commit
399936e
1 Parent(s): c382d1e

Update main.py

Browse files
Files changed (1) hide show
  1. main.py +16 -13
main.py CHANGED
@@ -16,9 +16,8 @@ from langchain.memory import ConversationBufferMemory
16
  from langchain.schema.runnable import Runnable, RunnablePassthrough, RunnableConfig, RunnableLambda
17
  from langchain.callbacks.base import BaseCallbackHandler
18
  from langchain.chains import (
19
- StuffDocumentsChain, LLMChain, ConversationalRetrievalChain
20
  )
21
- from langchain_core.prompts import PromptTemplate
22
  import chainlit as cl
23
  from chainlit.input_widget import TextInput, Select, Switch, Slider
24
  @cl.password_auth_callback
@@ -64,6 +63,17 @@ retriever = vectorstore.as_retriever(search_type="similarity_score_threshold", s
64
  @cl.on_chat_start
65
  async def on_chat_start():
66
  await cl.Message(f"> REVIEWSTREAM").send()
 
 
 
 
 
 
 
 
 
 
 
67
  settings = await cl.ChatSettings(
68
  [
69
  Select(
@@ -91,21 +101,14 @@ async def on_chat_start():
91
  ########## Chain with streaming ##########
92
  message_history = ChatMessageHistory()
93
  memory = ConversationBufferMemory(memory_key="chat_history",output_key="answer",chat_memory=message_history,return_messages=True)
94
- template = (
95
- "Combinez l'historique des discussions et la question de suivi dans "
96
- "une question autonome. Historique des discussions: {chat_history}"
97
- "Question complémentaire: {question}"
98
- )
99
- prompt = PromptTemplate.from_template(template)
100
- question_generator_chain = LLMChain(llm=model, prompt=prompt)
101
  qa = ConversationalRetrievalChain.from_llm(
102
  model,
103
  memory=memory,
104
  chain_type="stuff",
105
  return_source_documents=True,
106
  verbose=False,
107
- retriever=retriever,
108
- question_generator=question_generator_chain
109
  )
110
  cl.user_session.set("runnable", qa)
111
  #template = """<s>[INST] Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant.
@@ -175,8 +178,8 @@ async def on_message(message: cl.Message):
175
  #):
176
  # await msg.stream_token(chunk)
177
  cb = cl.AsyncLangchainCallbackHandler()
178
- res = await runnable.acall("Contexte : Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant. En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez en langue française strictement à la question ci-dessous à partir du contexte ci-dessous. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Question : " + message.content, callbacks=[cb])
179
- answer = res["answer"]
180
 
181
  await cl.Message(content=answer).send()
182
  #await msg.send()
 
16
  from langchain.schema.runnable import Runnable, RunnablePassthrough, RunnableConfig, RunnableLambda
17
  from langchain.callbacks.base import BaseCallbackHandler
18
  from langchain.chains import (
19
+ StuffDocumentsChain, ConversationalRetrievalChain
20
  )
 
21
  import chainlit as cl
22
  from chainlit.input_widget import TextInput, Select, Switch, Slider
23
  @cl.password_auth_callback
 
63
  @cl.on_chat_start
64
  async def on_chat_start():
65
  await cl.Message(f"> REVIEWSTREAM").send()
66
+ await cl.Message(f"Nous avons le plaisir de vous accueillir dans l'application de recherche et d'analyse des publications.").send()
67
+ listPrompts_name = f"Liste des revues de recherche"
68
+ contentPrompts = """<p><img src='/public/hal-logo-header.png' width='32' align='absmiddle' /> <strong> Hal Archives Ouvertes</strong> : Une archive ouverte est un réservoir numérique contenant des documents issus de la recherche scientifique, généralement déposés par leurs auteurs, et permettant au grand public d'y accéder gratuitement et sans contraintes.
69
+ </p>
70
+ <p><img src='/public/logo-persee.png' width='32' align='absmiddle' /> <strong>Persée</strong> : offre un accès libre et gratuit à des collections complètes de publications scientifiques (revues, livres, actes de colloques, publications en série, sources primaires, etc.) associé à une gamme d'outils de recherche et d'exploitation.</p>
71
+ """
72
+ prompt_elements = []
73
+ prompt_elements.append(
74
+ cl.Text(content=contentPrompts, name=listPrompts_name, display="side")
75
+ )
76
+ await cl.Message(content="📚 " + listPrompts_name, elements=prompt_elements).send()
77
  settings = await cl.ChatSettings(
78
  [
79
  Select(
 
101
  ########## Chain with streaming ##########
102
  message_history = ChatMessageHistory()
103
  memory = ConversationBufferMemory(memory_key="chat_history",output_key="answer",chat_memory=message_history,return_messages=True)
104
+
 
 
 
 
 
 
105
  qa = ConversationalRetrievalChain.from_llm(
106
  model,
107
  memory=memory,
108
  chain_type="stuff",
109
  return_source_documents=True,
110
  verbose=False,
111
+ retriever=retriever
 
112
  )
113
  cl.user_session.set("runnable", qa)
114
  #template = """<s>[INST] Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant.
 
178
  #):
179
  # await msg.stream_token(chunk)
180
  cb = cl.AsyncLangchainCallbackHandler()
181
+ results = await runnable.acall("Contexte : Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant. En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez en langue française strictement à la question ci-dessous à partir du contexte ci-dessous. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Question : " + message.content + "\n\nCrée 3 questions supplémentaires en relation avec le contexte initial?\nTu écris les 3 questions supplémentaires en relation avec le contexte initial, avec un titrage de niveau 1 qui a pour titre "Questions en relation avec le contexte : ", callbacks=[cb])
182
+ answer = results["answer"]
183
 
184
  await cl.Message(content=answer).send()
185
  #await msg.send()