File size: 1,537 Bytes
3eca132
0d6510d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
225f445
0d6510d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
f3be461
0d6510d
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
import gradio as gr  
from transformers import pipeline

modelo = pipeline("automatic-speech-recognition", model="facebook/wav2vec2-large-xlsr-53-spanish")
classificador = pipeline("text-classification", model = "pysentimiento/robertuito-sentiment-analysis")
image_clasificacion  = pipeline("image-classification", model="microsoft/swin-tiny-patch4-window7-224",)

def audio_text(audio):
  text = modelo(audio)["text"]
  return text
  
def texto_sentimiento(text):
  return classificador(text)[0]["label"]

def clasificacion_imagen(image):
  label = image_clasificacion(image)[0]["label"]
  return label
  
  
demo = gr.Blocks()

with demo:
  gr.Markdown("Este es el sengundo demo con Block")

  with gr.Tabs():
    with gr.TabItem("Transcribe audio en español"):
      with gr.Row():
        audio = gr.Audio(source="microphone", type="filepath")
        transcripcion = gr.Textbox()
      b1 = gr.Button("Transcribe porfis")
    
    with gr.TabItem("Análisis de sentimientos en español"):
      with gr.Row():
        texto = gr.Textbox()
        label = gr.Label()
      b2 = gr.Button("Sentimiento porfa")

    with gr.TabItem("Clasificación de imagenes"):
      with gr.Row():
        image = gr.Image(label="Carga una imagen aquí",type="pil")
        label_img = gr.Label()
      b3 = gr.Button("Clasifica por fa")
    b1.click(audio_text, inputs = audio, outputs = transcripcion)
    b2.click(texto_sentimiento, inputs=texto, outputs=label)
    b3.click(clasificacion_imagen, inputs=image, outputs=label_img)


demo.launch()