#python file #jcmachicao import streamlit as st import torch from transformers import pipeline from transformers import AutoTokenizer, AutoModelForQuestionAnswering tokenizer = AutoTokenizer.from_pretrained("mrm8488/bert-base-spanish-wwm-cased-finetuned-spa-squad2-es") modelo_qa = AutoModelForQuestionAnswering.from_pretrained("mrm8488/bert-base-spanish-wwm-cased-finetuned-spa-squad2-es") preguntas = pipeline('question-answering', model=modelo_qa, tokenizer=tokenizer) texto_default = 'Los jardines tienen flores que dependen del cuidado de los jardineros. Una buena selección de los jardineros es garantía de la calidad de las flores.' texto = st.text_area('Cargue un texto de hasta 5 hojas, 1500 palabras, ó 15000 caracteres: ', height=200) preg_1 = st.text_input('Pregunta 1', '¿Qué son los jardines?') preg_2 = st.text_input('Pregunta 2', '¿Qué garantiza la calidad de las flores?') preg_3 = st.text_input('Pregunta 3', '¿Qué relación hay entre las flores y los jardineros?') pregs = [preg_1, preg_2, preg_3] boton_preg2 = st.button('Enviar preguntas') st.write(texto) if boton_preg2: for preg in pregs: respuesta = preguntas({'question': preg, 'context': texto}) st.write(preg) st.write(respuesta['answer']) st.write('\n Confiabilidad: ', respuesta['score'])