File size: 2,219 Bytes
4bdf1cc
 
c27fe20
4bdf1cc
ccffbaa
 
043a2a8
 
 
ccffbaa
043a2a8
 
ccffbaa
 
 
 
 
 
f205685
ccffbaa
 
 
 
 
 
 
f205685
 
929951b
ccffbaa
 
 
 
 
f205685
 
 
 
 
 
 
 
 
 
 
 
929951b
 
 
 
043a2a8
929951b
ccffbaa
043a2a8
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
import streamlit as st
import replicate
import streamlit_chat

st.title("Ayoye, c'est bien hot ça!!")

# Initialisation d'une liste pour stocker les messages
if 'messages' not in st.session_state:
    st.session_state['messages'] = []

# Conteneur unique pour le chat complet
with st.container():
    # Formulaire pour entrer une question
    with st.form("chat_input"):
        user_input = st.text_input("Entrez votre question ici:", "")
        submitted = st.form_submit_button("Envoyer")
        if submitted and user_input:
            # Ajout de la question de l'utilisateur
            st.session_state['messages'].append({"type": "user", "message": user_input})
            
            # Génération de la réponse via le modèle Replicate
            output = replicate.run(
                "meta/meta-llama-3-8b-instruct",
                input={
                    "top_p": 0.9,
                    "prompt": user_input,
                    "max_tokens": 2334,
                    "min_tokens": 40,
                    "temperature": 0.3,
                    "prompt_template": "system\n\nYou are a helpful assistantuser\n\n{prompt}assistant\n\n",
                    "presence_penalty": 0,
                    "frequency_penalty": 0
                }
            )
            
            # Ajout de la réponse du modèle
            st.session_state['messages'].append({"type": "bot", "message": output})

    # Affichage des messages précédents dans des "chat messages"
    for msg in st.session_state['messages']:
        if msg["type"] == "user":
            with st.chat_message("user"):
                st.write(msg["message"])
        else:
            with st.chat_message("bot"):
                st.write(msg["message"])

            # Formatage de la sortie pour assurer que c'est un texte simple
            response_text = output["choices"][0]["message"] if "choices" in output else "Désolé, je ne peux pas traiter votre demande."

            # Ajout de la réponse du modèle
            st.session_state['messages'].append(f"Bot: {response_text}")

    # Affichage des messages précédents dans le même conteneur
    for msg in st.session_state['messages']:
        st.text(msg)