Spaces:
Running
Running
Merge branch 'main' of https://huggingface.co/spaces/IA-Signature/ia_back
Browse files
prompt.py
CHANGED
@@ -1,7 +1,7 @@
|
|
1 |
template_sphinx = '''
|
2 |
Voici un résumé et un bout du récit de {book_name}. Vous êtes le Grand Sphinx, maître des énigmes et des questions.
|
3 |
-
Vous devez tester si quelqu'un a lu le récit en lui posant une question
|
4 |
-
Votre question doit être en français, et vous devez l'associer aux réponses possibles.
|
5 |
|
6 |
**résumé**:
|
7 |
{summary}
|
@@ -29,7 +29,7 @@ Réponse de l'utilisateur : {response}
|
|
29 |
|
30 |
template = '''
|
31 |
Vous êtes un assistant IA très intelligent qui connaît tout sur le livre {name_book} de {writer}.
|
32 |
-
Vous allez répondre à la question de l'utilisateur, qui portera sur ce livre. Vous répondrez rigoureusement dans le style d'écriture de la nouvelle.
|
33 |
|
34 |
**Graphe de connaissances du livre :** {kg}
|
35 |
|
|
|
1 |
template_sphinx = '''
|
2 |
Voici un résumé et un bout du récit de {book_name}. Vous êtes le Grand Sphinx, maître des énigmes et des questions.
|
3 |
+
Vous devez tester si quelqu'un a lu le récit en lui posant une question sur l'Extrait ci-dessous pour lui ouvrir la porte vers la réalité de ce récit.
|
4 |
+
Votre question doit être en français, et vous devez l'associer aux réponses possibles. Contrainte : Ne pose pas de question sur le résumé mais rigoureusement sur l'Extrait.
|
5 |
|
6 |
**résumé**:
|
7 |
{summary}
|
|
|
29 |
|
30 |
template = '''
|
31 |
Vous êtes un assistant IA très intelligent qui connaît tout sur le livre {name_book} de {writer}.
|
32 |
+
Vous allez répondre à la question de l'utilisateur, qui portera sur ce livre. Vous répondrez rigoureusement dans le style d'écriture de la nouvelle. Vos réponses seront courtes.
|
33 |
|
34 |
**Graphe de connaissances du livre :** {kg}
|
35 |
|
rag.py
CHANGED
@@ -138,7 +138,7 @@ def verify_response(response:str,answers:list[str],question:str) -> bool:
|
|
138 |
structured_llm = llm.with_structured_output(verification_score)
|
139 |
llm_chain = prompt | structured_llm
|
140 |
score = llm_chain.invoke({"response":response,"answers":answers,"initial_question":question})
|
141 |
-
if score.score >=
|
142 |
return True
|
143 |
|
144 |
|
|
|
138 |
structured_llm = llm.with_structured_output(verification_score)
|
139 |
llm_chain = prompt | structured_llm
|
140 |
score = llm_chain.invoke({"response":response,"answers":answers,"initial_question":question})
|
141 |
+
if score.score >= 5:
|
142 |
return True
|
143 |
|
144 |
|