Update main.py
Browse files
main.py
CHANGED
@@ -32,7 +32,7 @@ async def LLMistral():
|
|
32 |
@cl.step(type="tool")
|
33 |
async def LLM():
|
34 |
os.environ['ANTHROPIC_API_KEY'] = os.environ['ANTHROPIC_API_KEY']
|
35 |
-
llm =
|
36 |
return llm
|
37 |
|
38 |
@cl.set_chat_profiles
|
@@ -66,12 +66,9 @@ async def on_message(message: cl.Message):
|
|
66 |
|
67 |
msg = cl.Message(content="")
|
68 |
|
69 |
-
|
70 |
-
|
71 |
-
config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)])):
|
72 |
-
await msg.stream_token(chunk)
|
73 |
-
#res = await agent.acall("Réponds en langue française à la question suivante :\n" + message.content + "\nDétaille la réponse en faisant une analyse complète en 2000 mots minimum.", callbacks=[cb])
|
74 |
#res = await agent.ainvoke("D'après les informations fournies, réponds en langue française à la question suivante :\n" + message.content + "\nDétaille la réponse en faisant une analyse complète jusqu'à 2000 mots, si cela est nécessaire.")
|
75 |
-
|
76 |
-
|
77 |
-
|
|
|
32 |
@cl.step(type="tool")
|
33 |
async def LLM():
|
34 |
os.environ['ANTHROPIC_API_KEY'] = os.environ['ANTHROPIC_API_KEY']
|
35 |
+
llm = AnthropicLLM(model='claude-3-haiku-20240307',temperature=0)
|
36 |
return llm
|
37 |
|
38 |
@cl.set_chat_profiles
|
|
|
66 |
|
67 |
msg = cl.Message(content="")
|
68 |
|
69 |
+
cb = cl.AsyncLangchainCallbackHandler()
|
70 |
+
res = await agent.acall("Réponds en langue française à la question suivante :\n" + message.content + "\nDétaille la réponse en faisant une analyse complète en 2000 mots minimum.", callbacks=[cb])
|
|
|
|
|
|
|
71 |
#res = await agent.ainvoke("D'après les informations fournies, réponds en langue française à la question suivante :\n" + message.content + "\nDétaille la réponse en faisant une analyse complète jusqu'à 2000 mots, si cela est nécessaire.")
|
72 |
+
answer = res['output']
|
73 |
+
print(res)
|
74 |
+
await cl.Message(content=GoogleTranslator(source='auto', target='fr').translate(answer)).send()
|