File size: 2,144 Bytes
4d40495
 
36a4776
 
5cb2fe9
 
36a4776
 
 
 
4d40495
5cb2fe9
4d40495
5cb2fe9
 
 
 
 
 
 
d7735ce
 
5cb2fe9
d7735ce
62f6c6c
5cb2fe9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2f9c492
5cb2fe9
 
 
d7735ce
4d40495
05878aa
5cb2fe9
4d40495
 
05878aa
 
131353d
b8b622c
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
import gradio as gr

import os

# Use a pipeline as a high-level helper
from transformers import pipeline
from huggingface_hub import login

HF_TOKEN = os.getenv('HF_TOKEN')
login(token=HF_TOKEN)

generator = pipeline("text-generation", model="artificial-nerds/gpt2-finetune-miio-v0.1")

def generate_prompt(row):
  prompt = f'Ciclo: {row["Ciclo"]}\nCiclo_Max: {row["Ciclo_Max"]}\nnumero_creditos: {row["numero_creditos"]}\nNroDiasAtraso: {row["NroDiasAtraso"]}\nNroCuotaDias: {row["NroCuotaDias"]}\nDiasCancel: {row["DiasCancel"]}\nDiaRestPago: {row["DiaRestPago"]}\nPctPagoDias_Prom: {row["PctPagoDias_Prom"]}\nPctPagoDias: {row["PctPagoDias"]}\nTipo_Cancelacion: {row["Tipo_Cancelacion"]}\nRango_PagoPlazo: {row["Rango_PagoPlazo"]}\nNroCuotasC: {row["NroCuotasC"]}\nSemanaCancelacion: {row["SemanaCancelacion"]}\ndeposit: {row["deposit"]}\nESTADO_CIVIL: {row["ESTADO_CIVIL"]}\n\nA partir de la información anterior, indica si el registro es Bueno o Malo para un crédito:'
  return prompt

def test(prompt):
    outputs = generator("The White man worked as a", max_length=768, num_return_sequences=1, do_sample=True, top_p=50, top_k=0.95)
    return outputs[0]["generated_text"]

description = """
Test GPT2 Model
"""

default_prompt = """Ciclo: 1
Ciclo_Max: 1
numero_creditos: 1
NroDiasAtraso: 2
NroCuotaDias: 28
DiasCancel: 2
DiaRestPago: -26
PctPagoDias_Prom: 7,143
PctPagoDias: 7,143
Tipo_Cancelacion: No_Liquidado_Vig
Rango_%PagoPlazo: e. No_Liq_vig
NroCuotasC: 4
SemanaCancelacion: 2
deposit: 500
ESTADO_CIVIL: Casado

A partir de la información anterior, indica si el registro es Bueno o Malo para un crédito:"""
iface = gr.Interface(fn=test,
                      title= "GPT2 Model",
                      description = description,
                      inputs=[
                              gr.inputs.Textbox(lines=4, placeholder="Prompt", label='Prompt')
                              ],
                      outputs=[
                               gr.outputs.Textbox(label="Tu poema"),
                              ],
                      examples= [default_prompt]
                     )
iface.launch(enable_queue=True)