Spaces:
Sleeping
Sleeping
teixeiramg
commited on
Update app.py
Browse files
app.py
CHANGED
@@ -64,20 +64,23 @@ def answer_question(question, max_length=200, temperature=0.7, top_k=50, top_p=0
|
|
64 |
return "Erro: O prompt gerado ultrapassou o limite de tokens do modelo. Tente um PDF menor.", prompt
|
65 |
|
66 |
# Gerar a resposta com configurações ajustadas
|
|
|
67 |
outputs = model.generate(
|
68 |
inputs.input_ids,
|
69 |
max_new_tokens=200, # Gerar até 200 novos tokens (apenas a resposta)
|
70 |
-
temperature=
|
71 |
num_return_sequences=1,
|
72 |
)
|
73 |
|
74 |
# Decodificando a resposta
|
75 |
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
|
|
76 |
return response, prompt
|
|
|
77 |
except Exception as e:
|
78 |
print(f"Erro ao gerar resposta: {e}")
|
79 |
print(traceback.format_exc())
|
80 |
-
return "Erro ao gerar resposta
|
81 |
|
82 |
# Interface do Gradio para carregar PDF e fazer perguntas
|
83 |
pdf_loader = gr.Interface(
|
|
|
64 |
return "Erro: O prompt gerado ultrapassou o limite de tokens do modelo. Tente um PDF menor.", prompt
|
65 |
|
66 |
# Gerar a resposta com configurações ajustadas
|
67 |
+
print(f"Gerando resposta com max_new_tokens=200 e temperature={temperature}")
|
68 |
outputs = model.generate(
|
69 |
inputs.input_ids,
|
70 |
max_new_tokens=200, # Gerar até 200 novos tokens (apenas a resposta)
|
71 |
+
temperature=temperature, # Temperatura para controlar a criatividade
|
72 |
num_return_sequences=1,
|
73 |
)
|
74 |
|
75 |
# Decodificando a resposta
|
76 |
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
77 |
+
print(f"Resposta gerada: {response}")
|
78 |
return response, prompt
|
79 |
+
|
80 |
except Exception as e:
|
81 |
print(f"Erro ao gerar resposta: {e}")
|
82 |
print(traceback.format_exc())
|
83 |
+
return f"Erro ao gerar resposta: {e}", ""
|
84 |
|
85 |
# Interface do Gradio para carregar PDF e fazer perguntas
|
86 |
pdf_loader = gr.Interface(
|