Spaces:
Sleeping
Sleeping
locorene1000
commited on
Commit
•
c1bd7a8
1
Parent(s):
9e29b9a
app.py
CHANGED
@@ -65,7 +65,7 @@ def construir_prompt(input_text, contexto=None, tarea=None):
|
|
65 |
prompt += f"\nTarea: {tarea}"
|
66 |
return prompt
|
67 |
|
68 |
-
def generar_respuesta(prompt
|
69 |
"""
|
70 |
Genera una respuesta del modelo LLaMA 3.1 dado un prompt específico.
|
71 |
"""
|
@@ -81,17 +81,10 @@ def generar_respuesta(prompt, stream=False):
|
|
81 |
temperature=0.7,
|
82 |
top_p=0.9,
|
83 |
max_tokens=2048,
|
84 |
-
stream=False
|
85 |
)
|
86 |
|
87 |
-
|
88 |
-
response_content = ""
|
89 |
-
for chunk in completion:
|
90 |
-
if chunk.choices[0].delta.content is not None:
|
91 |
-
response_content += chunk.choices[0].delta.content
|
92 |
-
return response_content.strip()
|
93 |
-
else:
|
94 |
-
return completion.choices[0].message['content'].strip()
|
95 |
|
96 |
except Exception as e:
|
97 |
return f"Error: {e}"
|
@@ -124,7 +117,7 @@ def mejorar_resolucion(input_text):
|
|
124 |
prompt = construir_prompt(input_text, contexto=input_text, tarea="resolucion_judicial")
|
125 |
|
126 |
# Generar la respuesta
|
127 |
-
respuesta = generar_respuesta(prompt
|
128 |
|
129 |
# Validar la respuesta
|
130 |
sugerencias = validar_respuesta(respuesta, contexto=input_text, tarea="resolucion_judicial")
|
@@ -142,8 +135,8 @@ def gradio_interface(input_text):
|
|
142 |
# Mejoras en la interfaz de Gradio
|
143 |
iface = gr.Interface(
|
144 |
fn=gradio_interface,
|
145 |
-
inputs=gr.
|
146 |
-
outputs=gr.
|
147 |
title="Mejora de Resoluciones Judiciales",
|
148 |
description=(
|
149 |
"Este sistema está diseñado para ayudar en la mejora de borradores de resoluciones judiciales o para "
|
@@ -160,4 +153,4 @@ iface = gr.Interface(
|
|
160 |
]
|
161 |
)
|
162 |
|
163 |
-
iface.launch()
|
|
|
65 |
prompt += f"\nTarea: {tarea}"
|
66 |
return prompt
|
67 |
|
68 |
+
def generar_respuesta(prompt):
|
69 |
"""
|
70 |
Genera una respuesta del modelo LLaMA 3.1 dado un prompt específico.
|
71 |
"""
|
|
|
81 |
temperature=0.7,
|
82 |
top_p=0.9,
|
83 |
max_tokens=2048,
|
84 |
+
stream=False # Configurado en False para evitar complicaciones con streaming
|
85 |
)
|
86 |
|
87 |
+
return completion.choices[0].message['content'].strip()
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
88 |
|
89 |
except Exception as e:
|
90 |
return f"Error: {e}"
|
|
|
117 |
prompt = construir_prompt(input_text, contexto=input_text, tarea="resolucion_judicial")
|
118 |
|
119 |
# Generar la respuesta
|
120 |
+
respuesta = generar_respuesta(prompt)
|
121 |
|
122 |
# Validar la respuesta
|
123 |
sugerencias = validar_respuesta(respuesta, contexto=input_text, tarea="resolucion_judicial")
|
|
|
135 |
# Mejoras en la interfaz de Gradio
|
136 |
iface = gr.Interface(
|
137 |
fn=gradio_interface,
|
138 |
+
inputs=gr.Textbox(lines=10, placeholder="Introduce aquí la resolución judicial o la pregunta...", label="Texto o Pregunta"),
|
139 |
+
outputs=gr.Textbox(label="Respuesta Mejorada"),
|
140 |
title="Mejora de Resoluciones Judiciales",
|
141 |
description=(
|
142 |
"Este sistema está diseñado para ayudar en la mejora de borradores de resoluciones judiciales o para "
|
|
|
153 |
]
|
154 |
)
|
155 |
|
156 |
+
iface.launch()
|