Spaces:
Runtime error
Runtime error
File size: 1,665 Bytes
b1f8fbf 447a40f b1f8fbf 0402099 b1f8fbf ba21174 b1f8fbf c53992c 9d7e912 7edf4a1 8fb4a79 7edf4a1 9d7e912 8fb4a79 9d7e912 7edf4a1 9d7e912 b1f8fbf 9d7e912 b1f8fbf 0402099 b1f8fbf 0402099 9d7e912 b1f8fbf |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 |
import gradio as gr
import torch
from transformers import pipeline
import numpy as np
import time
modelo_1 = pipeline("automatic-speech-recognition", model="IABDs8a/MODELO1_EQUIPO2")
modelo_2 = pipeline("automatic-speech-recognition", model="IABDs8a/MODELO1_EQUIPO2")
modelo_3 = pipeline("automatic-speech-recognition", model="IABDs8a/MODELO1_EQUIPO2")
def greet(grabacion):
inicio = time.time()
sr, y = grabacion
# Pasamos el array de muestras a tipo NumPy de 32 bits
y = y.astype(np.float32)
y /= np.max(np.abs(y))
modelo = "small"
pipe = modelo_1
result1 = modelo + ":" + pipe({"sampling_rate": sr, "raw": y})["text"]
fin1 = time.time()
modelo = "small"
pipe = modelo_2
inicio2 = time.time()
result2 = modelo + ":" + pipe({"sampling_rate": sr, "raw": y})["text"]
fin2 = time.time()
modelo = "small"
pipe = modelo_3
inicio3 = time.time()
result3 = modelo + ":" + pipe({"sampling_rate": sr, "raw": y})["text"]
fin3 = time.time()
return result1, fin1 - inicio, result2, fin2 - inicio2, result3, fin3 - inicio3, fin3 - inicio
demo = gr.Interface(fn=greet,
inputs=[
gr.Audio()
],
outputs=[
gr.Text(label="Resultado modelo usuario con más audios"),
gr.Number(label="Tiempo modelo 1:"),
gr.Text(label="Resultado modelo 3 usuarios con más audios"),
gr.Number(label="Tiempo modelo 2:"),
gr.Text(label="Resultado modelo entida con más audios"),
gr.Number(label="Tiempo modelo 3:"),
gr.Number(label="Tiempo total")
])
demo.launch() |