Spaces:
Runtime error
Runtime error
File size: 1,537 Bytes
3eca132 0d6510d 225f445 0d6510d f3be461 0d6510d |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 |
import gradio as gr
from transformers import pipeline
modelo = pipeline("automatic-speech-recognition", model="facebook/wav2vec2-large-xlsr-53-spanish")
classificador = pipeline("text-classification", model = "pysentimiento/robertuito-sentiment-analysis")
image_clasificacion = pipeline("image-classification", model="microsoft/swin-tiny-patch4-window7-224",)
def audio_text(audio):
text = modelo(audio)["text"]
return text
def texto_sentimiento(text):
return classificador(text)[0]["label"]
def clasificacion_imagen(image):
label = image_clasificacion(image)[0]["label"]
return label
demo = gr.Blocks()
with demo:
gr.Markdown("Este es el sengundo demo con Block")
with gr.Tabs():
with gr.TabItem("Transcribe audio en español"):
with gr.Row():
audio = gr.Audio(source="microphone", type="filepath")
transcripcion = gr.Textbox()
b1 = gr.Button("Transcribe porfis")
with gr.TabItem("Análisis de sentimientos en español"):
with gr.Row():
texto = gr.Textbox()
label = gr.Label()
b2 = gr.Button("Sentimiento porfa")
with gr.TabItem("Clasificación de imagenes"):
with gr.Row():
image = gr.Image(label="Carga una imagen aquí",type="pil")
label_img = gr.Label()
b3 = gr.Button("Clasifica por fa")
b1.click(audio_text, inputs = audio, outputs = transcripcion)
b2.click(texto_sentimiento, inputs=texto, outputs=label)
b3.click(clasificacion_imagen, inputs=image, outputs=label_img)
demo.launch() |