Elleres commited on
Commit
89e1f13
·
verified ·
1 Parent(s): e28f52c

import streamlit as st
from transformers import AutoModelForSequenceClassification, AutoTokenizer

# Carregue o modelo de IA
modelo = AutoModelForSequenceClassification.from_pretrained("nome-do-modelo")
tokenizer = AutoTokenizer.from_pretrained("nome-do-modelo")

# Crie a interface de usuário
st.title("Assistente Virtual Humanizado")
st.write("Olá! Como posso ajudá-lo hoje?")

# Crie um campo de texto para o usuário inserir sua pergunta
pergunta = st.text_input("Insira sua pergunta")

# Crie um botão para o usuário enviar sua pergunta
if st.button("Enviar"):
# Processa a pergunta utilizando o modelo de IA
inputs = tokenizer(pergunta, return_tensors="pt")
outputs = modelo(**inputs)
resposta = outputs.logits.argmax(-1)

# Exiba a resposta para o usuário
st.write("Resposta:", resposta.item())

Files changed (1) hide show
  1. app.py +23 -0
app.py ADDED
@@ -0,0 +1,23 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import streamlit as st
2
+ from transformers import AutoModelForSequenceClassification, AutoTokenizer
3
+
4
+ # Carregue o modelo de IA
5
+ modelo = AutoModelForSequenceClassification.from_pretrained("nome-do-modelo")
6
+ tokenizer = AutoTokenizer.from_pretrained("nome-do-modelo")
7
+
8
+ # Crie a interface de usuário
9
+ st.title("Assistente Virtual Humanizado")
10
+ st.write("Olá! Como posso ajudá-lo hoje?")
11
+
12
+ # Crie um campo de texto para o usuário inserir sua pergunta
13
+ pergunta = st.text_input("Insira sua pergunta")
14
+
15
+ # Crie um botão para o usuário enviar sua pergunta
16
+ if st.button("Enviar"):
17
+ # Processa a pergunta utilizando o modelo de IA
18
+ inputs = tokenizer(pergunta, return_tensors="pt")
19
+ outputs = modelo(**inputs)
20
+ resposta = outputs.logits.argmax(-1)
21
+
22
+ # Exiba a resposta para o usuário
23
+ st.write("Resposta:", resposta.item())