Spaces:
Sleeping
Sleeping
locorene1000
commited on
Commit
•
07abd54
1
Parent(s):
7b5b003
app.py
CHANGED
@@ -5,7 +5,7 @@ from openai import OpenAI
|
|
5 |
# Configuración del cliente OpenAI con la API de NVIDIA
|
6 |
client = OpenAI(
|
7 |
base_url="https://integrate.api.nvidia.com/v1",
|
8 |
-
api_key="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"
|
9 |
)
|
10 |
|
11 |
# Instrucciones para el modelo
|
@@ -55,12 +55,12 @@ Eres un Ministro de la Corte Suprema de Chile, especializado en derecho civil. T
|
|
55 |
3. Mantén la consistencia en el tono y terminología.
|
56 |
"""
|
57 |
|
58 |
-
terminologia_legal = [
|
59 |
-
'folio', 'autos', 'resuelve', 'artículo', 'Código de Procedimiento Civil',
|
60 |
-
'audiencia', 'notificación', 'prueba', 'nulidad', 'oficiar', 'notificar'
|
61 |
-
]
|
62 |
|
63 |
def construir_prompt(input_text, contexto=None, tarea=None):
|
|
|
|
|
|
|
64 |
prompt = f"Texto o pregunta: {input_text}"
|
65 |
if contexto:
|
66 |
prompt += f"\nContexto: {contexto}"
|
@@ -84,11 +84,15 @@ def generar_respuesta(prompt):
|
|
84 |
temperature=0.7,
|
85 |
top_p=0.9,
|
86 |
max_tokens=2048,
|
87 |
-
stream=
|
88 |
)
|
89 |
|
90 |
-
|
|
|
|
|
|
|
91 |
|
|
|
92 |
except Exception as e:
|
93 |
return f"Error: {e}"
|
94 |
|
@@ -132,25 +136,17 @@ def mejorar_resolucion(input_text):
|
|
132 |
|
133 |
return respuesta
|
134 |
|
|
|
135 |
def gradio_interface(input_text):
|
136 |
return mejorar_resolucion(input_text)
|
137 |
|
138 |
-
# Configuración de la interfaz Gradio
|
139 |
iface = gr.Interface(
|
140 |
fn=gradio_interface,
|
141 |
inputs=gr.Textbox(lines=10, placeholder="Introduce aquí la resolución judicial o la pregunta...", label="Texto o Pregunta"),
|
142 |
outputs=gr.Textbox(label="Respuesta Mejorada"),
|
143 |
title="Mejora de Resoluciones Judiciales",
|
144 |
-
description=
|
145 |
-
|
146 |
-
"responder preguntas sobre derecho civil con un enfoque técnico y formal. Introduce un texto para recibir "
|
147 |
-
"una respuesta optimizada."
|
148 |
-
),
|
149 |
-
allow_flagging=False, # Desactiva el flagging si no es necesario
|
150 |
-
examples=[
|
151 |
-
["El tribunal dicta que..."],
|
152 |
-
["¿Qué dice el artículo 21 del Código Civil sobre...?"]
|
153 |
-
]
|
154 |
)
|
155 |
|
156 |
iface.launch()
|
|
|
5 |
# Configuración del cliente OpenAI con la API de NVIDIA
|
6 |
client = OpenAI(
|
7 |
base_url="https://integrate.api.nvidia.com/v1",
|
8 |
+
api_key="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"
|
9 |
)
|
10 |
|
11 |
# Instrucciones para el modelo
|
|
|
55 |
3. Mantén la consistencia en el tono y terminología.
|
56 |
"""
|
57 |
|
58 |
+
terminologia_legal = ['folio', 'autos', 'resuelve', 'artículo', 'Código de Procedimiento Civil', 'audiencia', 'notificación', 'prueba', 'nulidad', 'oficiar', 'notificar']
|
|
|
|
|
|
|
59 |
|
60 |
def construir_prompt(input_text, contexto=None, tarea=None):
|
61 |
+
"""
|
62 |
+
Construye el prompt para el modelo LLaMA 3.1.
|
63 |
+
"""
|
64 |
prompt = f"Texto o pregunta: {input_text}"
|
65 |
if contexto:
|
66 |
prompt += f"\nContexto: {contexto}"
|
|
|
84 |
temperature=0.7,
|
85 |
top_p=0.9,
|
86 |
max_tokens=2048,
|
87 |
+
stream=True
|
88 |
)
|
89 |
|
90 |
+
response_content = ""
|
91 |
+
for chunk in completion:
|
92 |
+
if chunk.choices[0].delta.content is not None:
|
93 |
+
response_content += chunk.choices[0].delta.content
|
94 |
|
95 |
+
return response_content.strip()
|
96 |
except Exception as e:
|
97 |
return f"Error: {e}"
|
98 |
|
|
|
136 |
|
137 |
return respuesta
|
138 |
|
139 |
+
# Interfaz Gradio
|
140 |
def gradio_interface(input_text):
|
141 |
return mejorar_resolucion(input_text)
|
142 |
|
|
|
143 |
iface = gr.Interface(
|
144 |
fn=gradio_interface,
|
145 |
inputs=gr.Textbox(lines=10, placeholder="Introduce aquí la resolución judicial o la pregunta...", label="Texto o Pregunta"),
|
146 |
outputs=gr.Textbox(label="Respuesta Mejorada"),
|
147 |
title="Mejora de Resoluciones Judiciales",
|
148 |
+
description="Introduce una resolución judicial o una pregunta relacionada con derecho civil. El sistema mejorará el borrador o proporcionará una respuesta técnica y formal.",
|
149 |
+
allow_flagging="never" # Ajuste basado en advertencias de Gradio
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
150 |
)
|
151 |
|
152 |
iface.launch()
|