Elouarn commited on
Commit
afa597f
·
verified ·
1 Parent(s): 6c2e590

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +13 -7
app.py CHANGED
@@ -3,11 +3,14 @@ import gradio as gr
3
 
4
  client = InferenceClient("mistralai/Mixtral-8x7B-Instruct-v0.1")
5
 
6
- def format_prompt(preprompt, message, history):
 
 
 
7
  prompt = "<s>"
8
 
9
- if preprompt:
10
- prompt += f"[INST] {preprompt} [/INST]"
11
 
12
  for user_prompt, bot_response in history:
13
  prompt += f"[INST] {user_prompt} [/INST]"
@@ -17,7 +20,7 @@ def format_prompt(preprompt, message, history):
17
  return prompt
18
 
19
  def generate(
20
- prompt, history, temperature=0.2, max_new_tokens=256, top_p=0.95, repetition_penalty=1.0, preprompt=None
21
  ):
22
  temperature = float(temperature)
23
  if temperature < 1e-2:
@@ -33,7 +36,10 @@ def generate(
33
  seed=42,
34
  )
35
 
36
- formatted_prompt = format_prompt(preprompt, prompt, history)
 
 
 
37
 
38
  stream = client.text_generation(formatted_prompt, **generate_kwargs, stream=True, details=True, return_full_text=False)
39
  output = ""
@@ -43,9 +49,8 @@ def generate(
43
  yield output
44
  return output
45
 
46
-
47
  mychatbot = gr.Chatbot(
48
- avatar_images=["./berger.jpg", "./tavernier.jpg"], bubble_full_width=False, show_label=False, show_copy_button=True, likeable=True,)
49
 
50
  demo = gr.ChatInterface(fn=generate,
51
  chatbot=mychatbot,
@@ -54,4 +59,5 @@ demo = gr.ChatInterface(fn=generate,
54
  undo_btn=None
55
  )
56
 
 
57
  demo.queue().launch(show_api=True)
 
3
 
4
  client = InferenceClient("mistralai/Mixtral-8x7B-Instruct-v0.1")
5
 
6
+ # Variable globale pour stocker le contexte
7
+ global_context = {"preprompt": "Bienvenue dans ma taverne!", "hidden_context": "tu es le personnage dun escape game sur la resolution d un meutre dans l univers des cathares au 14 eme siecle dans les Pyrénées, tu es le gérant d une taverne qui est cathare dans le village de montaillou, parle que en français, assez rustre mais qui demeure accueillant tant que son interlocuteur n est pas catholique ou du moins quelqu un avec une influence tel qu un noble, tu n es jamais hors contexte par rapport à ton époque, tes connaissances se limite à ta situation sociale et ton époque, il faut que tu sois immersif pour la personne qui va te parler, et tu dois cacher ton implication dans le meutre si on te pose des questions à ce sujet tu dois tourner la discussion à ton avantage et le dévier du meutre"}
8
+
9
+ def format_prompt(message, history):
10
  prompt = "<s>"
11
 
12
+ if global_context["preprompt"]:
13
+ prompt += f"[INST] {global_context['preprompt']} [/INST]"
14
 
15
  for user_prompt, bot_response in history:
16
  prompt += f"[INST] {user_prompt} [/INST]"
 
20
  return prompt
21
 
22
  def generate(
23
+ prompt, history, temperature=0.2, max_new_tokens=256, top_p=0.95, repetition_penalty=1.0,
24
  ):
25
  temperature = float(temperature)
26
  if temperature < 1e-2:
 
36
  seed=42,
37
  )
38
 
39
+ formatted_prompt = format_prompt(prompt, history)
40
+
41
+ # Ajouter le contexte caché au prompt
42
+ formatted_prompt += f"[INST] {global_context['hidden_context']} [/INST]"
43
 
44
  stream = client.text_generation(formatted_prompt, **generate_kwargs, stream=True, details=True, return_full_text=False)
45
  output = ""
 
49
  yield output
50
  return output
51
 
 
52
  mychatbot = gr.Chatbot(
53
+ avatar_images=["./berger", "./tavernier.jpg"], bubble_full_width=True, show_label=False)
54
 
55
  demo = gr.ChatInterface(fn=generate,
56
  chatbot=mychatbot,
 
59
  undo_btn=None
60
  )
61
 
62
+ # Lancer l'interface
63
  demo.queue().launch(show_api=True)