File size: 1,107 Bytes
72dde6f
6029192
 
505f957
ef1dd5e
 
fc4952d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
c6479f5
 
 
 
 
 
275c88e
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41


import subprocess
subprocess.run('pip install transformers tensorflow[and-cuda] pytorch --no-build-isolation', env={'FLASH_ATTENTION_SKIP_CUDA_BUILD': "TRUE"}, shell=True)

import streamlit as st
from transformers import pipeline

# Configurar el modelo
pipe = pipeline("text-generation", model="gplsi/Aitana-6.3B")

# Funci贸n para generar respuesta del modelo
def generate_response(input_text):
    return pipe(input_text, max_length=50, do_sample=True, temperature=0.7)[0]['generated_text']

# Configuraci贸n de la aplicaci贸n Streamlit
def main():
    st.title("Chat con Aitana")
    st.write("隆Bienvenido al chat con Aitana! Escribe algo para comenzar la conversaci贸n.")

    # 脕rea de entrada de texto
    user_input = st.text_area("T煤:")
    
    # Bot贸n para enviar mensaje
    if st.button("Enviar"):
        if user_input.strip() != "":
            # Generar respuesta
            response = generate_response(user_input)
            # Mostrar respuesta
            st.text_area("Aitana:", value=response, height=200, max_chars=None, key=None)

if __name__ == "__main__":
    main()