locorene1000 commited on
Commit
c1bd7a8
1 Parent(s): 9e29b9a
Files changed (1) hide show
  1. app.py +7 -14
app.py CHANGED
@@ -65,7 +65,7 @@ def construir_prompt(input_text, contexto=None, tarea=None):
65
  prompt += f"\nTarea: {tarea}"
66
  return prompt
67
 
68
- def generar_respuesta(prompt, stream=False):
69
  """
70
  Genera una respuesta del modelo LLaMA 3.1 dado un prompt específico.
71
  """
@@ -81,17 +81,10 @@ def generar_respuesta(prompt, stream=False):
81
  temperature=0.7,
82
  top_p=0.9,
83
  max_tokens=2048,
84
- stream=False
85
  )
86
 
87
- if stream:
88
- response_content = ""
89
- for chunk in completion:
90
- if chunk.choices[0].delta.content is not None:
91
- response_content += chunk.choices[0].delta.content
92
- return response_content.strip()
93
- else:
94
- return completion.choices[0].message['content'].strip()
95
 
96
  except Exception as e:
97
  return f"Error: {e}"
@@ -124,7 +117,7 @@ def mejorar_resolucion(input_text):
124
  prompt = construir_prompt(input_text, contexto=input_text, tarea="resolucion_judicial")
125
 
126
  # Generar la respuesta
127
- respuesta = generar_respuesta(prompt, stream=False) # Se usa stream=False para simplificar
128
 
129
  # Validar la respuesta
130
  sugerencias = validar_respuesta(respuesta, contexto=input_text, tarea="resolucion_judicial")
@@ -142,8 +135,8 @@ def gradio_interface(input_text):
142
  # Mejoras en la interfaz de Gradio
143
  iface = gr.Interface(
144
  fn=gradio_interface,
145
- inputs=gr.inputs.Textbox(lines=10, placeholder="Introduce aquí la resolución judicial o la pregunta...", label="Texto o Pregunta"),
146
- outputs=gr.outputs.Textbox(label="Respuesta Mejorada"),
147
  title="Mejora de Resoluciones Judiciales",
148
  description=(
149
  "Este sistema está diseñado para ayudar en la mejora de borradores de resoluciones judiciales o para "
@@ -160,4 +153,4 @@ iface = gr.Interface(
160
  ]
161
  )
162
 
163
- iface.launch() # Se eliminó share=True para compatibilidad con Hugging Face Spaces
 
65
  prompt += f"\nTarea: {tarea}"
66
  return prompt
67
 
68
+ def generar_respuesta(prompt):
69
  """
70
  Genera una respuesta del modelo LLaMA 3.1 dado un prompt específico.
71
  """
 
81
  temperature=0.7,
82
  top_p=0.9,
83
  max_tokens=2048,
84
+ stream=False # Configurado en False para evitar complicaciones con streaming
85
  )
86
 
87
+ return completion.choices[0].message['content'].strip()
 
 
 
 
 
 
 
88
 
89
  except Exception as e:
90
  return f"Error: {e}"
 
117
  prompt = construir_prompt(input_text, contexto=input_text, tarea="resolucion_judicial")
118
 
119
  # Generar la respuesta
120
+ respuesta = generar_respuesta(prompt)
121
 
122
  # Validar la respuesta
123
  sugerencias = validar_respuesta(respuesta, contexto=input_text, tarea="resolucion_judicial")
 
135
  # Mejoras en la interfaz de Gradio
136
  iface = gr.Interface(
137
  fn=gradio_interface,
138
+ inputs=gr.Textbox(lines=10, placeholder="Introduce aquí la resolución judicial o la pregunta...", label="Texto o Pregunta"),
139
+ outputs=gr.Textbox(label="Respuesta Mejorada"),
140
  title="Mejora de Resoluciones Judiciales",
141
  description=(
142
  "Este sistema está diseñado para ayudar en la mejora de borradores de resoluciones judiciales o para "
 
153
  ]
154
  )
155
 
156
+ iface.launch()