File size: 3,723 Bytes
69ff348
 
 
 
 
 
 
 
 
 
 
 
983dd4f
69ff348
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
import streamlit as st
from transformers import pipeline
from PIL import Image

st.sidebar.header("**Instructions**")
st.sidebar.markdown("Démonstrateur du modèle [QAmembert](https://huggingface.co/CATIE-AQ/QAmembert) entraîné sur plus de 220 000 questions/réponses en français. Le modèle est capable d'indiquer si la réponse se situe ou non dans le texte de contexte fourni. Pour l'essayer, renseignez un texte et une question à propos de celui-ci. Appuyer sur le bouton « Appliquer le modèle » pour observer la réponse trouvée par le modèle.")
st.sidebar.markdown("---")
st.sidebar.markdown("Ce modèle a été entraîné via la plateforme [*Vaniila*](https://www.vaniila.ai/) du [CATIE](https://www.catie.fr/).")

image_path = 'Vaniila.png'
image = Image.open(image_path)

st.sidebar.image(image, caption=None, width=None, use_column_width=None, clamp=False, channels="RGB", output_format="auto")

@st.cache_resource
def load_model():
    return pipeline('question-answering', model='CATIE-AQ/QAmembert', tokenizer='CATIE-AQ/QAmembert')

def results():
    col1, col2, col3 = st.columns(3)
    if col2.button('Appliquer le modèle'):
        result = model(question,context)
        st.write("Résultat")
        if result['score'] < 0.01:
            st.info("La réponse n'est pas dans le contexte fourni.")
        else :
            st.info(result['answer'])
        with st.expander("Voir le détail :"):
            st.write("• Score :", result['score'])
            st.write("• Début de la réponse :", result['start'])
            st.write("• Fin de la réponse :", result['end'])
            st.write("• Réponse :", result['answer'])
    pass
            
            
st.markdown("<h1 style='text-align: center'>QAmembert", unsafe_allow_html=True)    
model = load_model()

option = st.selectbox(
    'Choix du mode',
    ('Texte libre', 'Exemple 1', 'Exemple 2'))

if option == "Exemple 1":
    context = st.text_area("Votre texte", value="Le français est une langue indo-européenne de la famille des langues romanes dont les locuteurs sont appelés francophones. Elle est parfois surnommée la langue de Molière.  Le français est parlé, en 2023, sur tous les continents par environ 321 millions de personnes : 235 millions l'emploient quotidiennement et 90 millions en sont des locuteurs natifs. En 2018, 80 millions d'élèves et étudiants s'instruisent en français dans le monde. Selon l'Organisation internationale de la francophonie (OIF), il pourrait y avoir 700 millions de francophones sur Terre en 2050.",height=175)
    question = st.text_input("Votre question", value="Combien de personnes utilisent le français tous les jours ?")
    if context and question:
        results()

elif option == "Exemple 2":
    context = st.text_area("Votre texte", value="Le français est une langue indo-européenne de la famille des langues romanes dont les locuteurs sont appelés francophones. Elle est parfois surnommée la langue de Molière.  Le français est parlé, en 2023, sur tous les continents par environ 321 millions de personnes : 235 millions l'emploient quotidiennement et 90 millions en sont des locuteurs natifs. En 2018, 80 millions d'élèves et étudiants s'instruisent en français dans le monde. Selon l'Organisation internationale de la francophonie (OIF), il pourrait y avoir 700 millions de francophones sur Terre en 2050.",height=175)
    question = st.text_input("Votre question", value="Quel est le meilleur vin du monde ?")
    if context and question:
        results()
    
else:
    context = st.text_area("Votre texte", value="",height=175)
    question = st.text_input("Votre question", value="")
    if context and question:
        results()