teixeiramg commited on
Commit
257f52e
·
verified ·
1 Parent(s): 9778ffc

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +5 -2
app.py CHANGED
@@ -64,20 +64,23 @@ def answer_question(question, max_length=200, temperature=0.7, top_k=50, top_p=0
64
  return "Erro: O prompt gerado ultrapassou o limite de tokens do modelo. Tente um PDF menor.", prompt
65
 
66
  # Gerar a resposta com configurações ajustadas
 
67
  outputs = model.generate(
68
  inputs.input_ids,
69
  max_new_tokens=200, # Gerar até 200 novos tokens (apenas a resposta)
70
- temperature=0.7, # Usando temperatura mais baixa para evitar respostas incoerentes
71
  num_return_sequences=1,
72
  )
73
 
74
  # Decodificando a resposta
75
  response = tokenizer.decode(outputs[0], skip_special_tokens=True)
 
76
  return response, prompt
 
77
  except Exception as e:
78
  print(f"Erro ao gerar resposta: {e}")
79
  print(traceback.format_exc())
80
- return "Erro ao gerar resposta.", ""
81
 
82
  # Interface do Gradio para carregar PDF e fazer perguntas
83
  pdf_loader = gr.Interface(
 
64
  return "Erro: O prompt gerado ultrapassou o limite de tokens do modelo. Tente um PDF menor.", prompt
65
 
66
  # Gerar a resposta com configurações ajustadas
67
+ print(f"Gerando resposta com max_new_tokens=200 e temperature={temperature}")
68
  outputs = model.generate(
69
  inputs.input_ids,
70
  max_new_tokens=200, # Gerar até 200 novos tokens (apenas a resposta)
71
+ temperature=temperature, # Temperatura para controlar a criatividade
72
  num_return_sequences=1,
73
  )
74
 
75
  # Decodificando a resposta
76
  response = tokenizer.decode(outputs[0], skip_special_tokens=True)
77
+ print(f"Resposta gerada: {response}")
78
  return response, prompt
79
+
80
  except Exception as e:
81
  print(f"Erro ao gerar resposta: {e}")
82
  print(traceback.format_exc())
83
+ return f"Erro ao gerar resposta: {e}", ""
84
 
85
  # Interface do Gradio para carregar PDF e fazer perguntas
86
  pdf_loader = gr.Interface(