locorene1000 commited on
Commit
c348098
1 Parent(s): ee299f2
Files changed (1) hide show
  1. app.py +18 -57
app.py CHANGED
@@ -8,48 +8,7 @@ import spaces
8
  instrucciones = """
9
  **Instrucciones para GPT Personalizado "GPT Civil"**
10
 
11
- Como Ministro de la Corte Suprema de Chile, su objetivo es mejorar y finalizar los borradores de resoluciones judiciales para el sistema judicial civil del país. Es crucial mantener un tono formal y técnico, garantizando claridad y precisión. Asegúrese de utilizar terminología legal específica y de mantener la coherencia y consistencia en todo el documento.
12
-
13
- **Guía de estilo:**
14
- 1. **Precisión del lenguaje:** Utilice un tono formal, técnico y preciso, asegurando claridad y coherencia.
15
- 2. **Jerga legal:** Emplee terminología legal específica, como 'folio', 'autos', 'resuelve', 'artículo', 'Código de Procedimiento Civil', 'audiencia', 'notificación', 'prueba', 'nulidad', 'oficiar' y 'notificar'.
16
- 3. **Sintaxis compleja:** Construya oraciones complejas y subordinadas, manteniendo un tono formal e imperativo. Utilice un lenguaje técnico adecuado para un contexto judicial.
17
- 4. **Citas:** Proporcione referencias detalladas a regulaciones y precedentes judiciales, utilizando la voz pasiva en secciones descriptivas. Cite consistentemente artículos de leyes y sentencias anteriores.
18
- 5. **Consistencia:** Asegure un tono uniforme y detallado en todo el documento, centrado en la precisión terminológica.
19
-
20
- **Instrucciones paso a paso:**
21
- 1. **Revisión inicial del documento:**
22
- - Lea y comprenda el contexto y el propósito del documento en su totalidad.
23
- - Identifique el tipo de documento judicial (por ejemplo, sentencia, apelación).
24
-
25
- 2. **Análisis estructural y de contenido:**
26
- - Flujo lógico: Asegúrese de que haya una progresión lógica de ideas y argumentos.
27
- - Coherencia: Evalúe la coherencia entre las diferentes secciones.
28
- - Claridad: Escrute cada párrafo y oración en busca de claridad y precisión.
29
- - Consistencia terminológica: Verifique el uso consistente de la terminología legal.
30
-
31
- 3. **Refinamiento lingüístico:**
32
- - Gramática: Asegúrese de la corrección gramatical.
33
- - Sintaxis: Mejore la estructura de las oraciones para una mayor claridad.
34
- - Conectores: Optimice el uso de conectores para transiciones suaves.
35
-
36
- 4. **Mejora del lenguaje legal:**
37
- - Terminología: Asegure el uso consistente y preciso de términos legales.
38
- - Alternativas: Sugiera expresiones más efectivas cuando sea necesario (por ejemplo, "bien inmueble" en lugar de "cosa").
39
-
40
- 5. **Integración de comentarios:**
41
- - Considere cuidadosamente las sugerencias y validaciones de los comentarios.
42
- - Evalúe cada punto de comentarios en cuanto a su relevancia e impacto potencial.
43
- - Clasifique las sugerencias como esenciales, recomendadas u opcionales.
44
- - Incorpore sugerencias valiosas y proporcione justificaciones para cualquier desacuerdo, respaldadas por regulaciones actuales.
45
-
46
- 6. **Optimización final:**
47
- - Realice una revisión integral, integrando el análisis inicial y los comentarios.
48
- - Prepare un resumen de los cambios finales y explique cómo se incorporaron los comentarios.
49
-
50
- 7. **Presentación final:**
51
- - Proporcione una respuesta completa, incluyendo correcciones, sugerencias y la resolución final.
52
- - Asegúrese de una presentación concisa y unificada de toda la información.
53
  """
54
 
55
  # Configuración del dispositivo
@@ -59,9 +18,9 @@ device = "cuda" if torch.cuda.is_available() else "cpu"
59
  model_name = "mistralai/Mistral-Nemo-Instruct-2407"
60
  tokenizer = AutoTokenizer.from_pretrained(model_name)
61
 
62
- # Asegurar pad_token_id único
63
  if tokenizer.pad_token_id is None or tokenizer.pad_token_id == tokenizer.eos_token_id:
64
- tokenizer.pad_token_id = tokenizer.eos_token_id + 1
65
 
66
  model = AutoModelForCausalLM.from_pretrained(
67
  model_name,
@@ -69,30 +28,32 @@ model = AutoModelForCausalLM.from_pretrained(
69
  device_map="auto" if device == "cuda" else None
70
  )
71
 
 
72
  def mejorar_resolucion(input_text):
73
  # Construcción del prompt con instrucciones y entrada del usuario
74
  prompt = f"{instrucciones}\n\n{input_text}"
75
- inputs = tokenizer(prompt, return_tensors="pt", padding=True, truncation=True).to(device)
76
  attention_mask = inputs['attention_mask']
 
77
  outputs = model.generate(
78
- inputs.input_ids,
79
- attention_mask=attention_mask,
80
- max_new_tokens=500,
81
- temperature=0.3,
82
  do_sample=True,
83
  pad_token_id=tokenizer.pad_token_id
84
  )
85
  response = tokenizer.decode(outputs[0], skip_special_tokens=True)
86
  return response
87
 
88
- # Configuración de la interfaz de Gradio
89
- demo = gr.Interface(
90
- fn=mejorar_resolucion,
91
- inputs=gr.Textbox(label="Introduce tu resolución judicial"),
92
- outputs=gr.Textbox(label="Resolución mejorada"),
93
- title="Mejora de Resoluciones Judiciales con GPT Civil",
94
- description="Utiliza el modelo Mistral-Nemo-Instruct-2407 para mejorar borradores de resoluciones judiciales."
95
- )
96
 
97
  # Lanzamiento de la aplicación
98
  demo.launch()
 
8
  instrucciones = """
9
  **Instrucciones para GPT Personalizado "GPT Civil"**
10
 
11
+ ... (detalles de las instrucciones) ...
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
12
  """
13
 
14
  # Configuración del dispositivo
 
18
  model_name = "mistralai/Mistral-Nemo-Instruct-2407"
19
  tokenizer = AutoTokenizer.from_pretrained(model_name)
20
 
21
+ # Especifica un pad_token_id si no está ya definido y es el mismo que eos_token_id
22
  if tokenizer.pad_token_id is None or tokenizer.pad_token_id == tokenizer.eos_token_id:
23
+ tokenizer.pad_token_id = tokenizer.eos_token_id + 1 # O cualquier otro valor que consideres adecuado
24
 
25
  model = AutoModelForCausalLM.from_pretrained(
26
  model_name,
 
28
  device_map="auto" if device == "cuda" else None
29
  )
30
 
31
+ @spaces.GPU(duration=120)
32
  def mejorar_resolucion(input_text):
33
  # Construcción del prompt con instrucciones y entrada del usuario
34
  prompt = f"{instrucciones}\n\n{input_text}"
35
+ inputs = tokenizer(prompt, return_tensors="pt", padding=True, truncation=True, max_length=512).to(device)
36
  attention_mask = inputs['attention_mask']
37
+
38
  outputs = model.generate(
39
+ inputs.input_ids,
40
+ attention_mask=attention_mask,
41
+ max_new_tokens=500,
42
+ temperature=0.3,
43
  do_sample=True,
44
  pad_token_id=tokenizer.pad_token_id
45
  )
46
  response = tokenizer.decode(outputs[0], skip_special_tokens=True)
47
  return response
48
 
49
+ # Definición de la interfaz de Gradio
50
+ with gr.Blocks() as demo:
51
+ gr.Markdown("# Mejora de Resoluciones Judiciales con GPT Civil")
52
+ gr.Markdown("Utiliza el modelo Mistral-Nemo-Instruct-2407 para mejorar borradores de resoluciones judiciales.")
53
+ input_text = gr.Textbox(label="Introduce tu resolución judicial")
54
+ output_text = gr.Textbox(label="Resolución mejorada")
55
+ submit_button = gr.Button("Mejorar")
56
+ submit_button.click(fn=mejorar_resolucion, inputs=input_text, outputs=output_text)
57
 
58
  # Lanzamiento de la aplicación
59
  demo.launch()