Spaces:
Running
Running
RafaelJaime
commited on
Commit
•
9b8f68a
1
Parent(s):
a6fde4a
Upload 3 files
Browse files
README.md
CHANGED
@@ -1,13 +1,13 @@
|
|
1 |
-
---
|
2 |
-
title: SherezIAde
|
3 |
-
emoji:
|
4 |
-
colorFrom:
|
5 |
-
colorTo:
|
6 |
-
sdk: gradio
|
7 |
-
sdk_version: 5.6.0
|
8 |
-
app_file: app.py
|
9 |
-
pinned: false
|
10 |
-
short_description: Cuando se necesite dormir a los mas pequeños de la casa, pod
|
11 |
-
---
|
12 |
-
|
13 |
-
Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference
|
|
|
1 |
+
---
|
2 |
+
title: SherezIAde
|
3 |
+
emoji: 📖
|
4 |
+
colorFrom: blue
|
5 |
+
colorTo: purple
|
6 |
+
sdk: gradio
|
7 |
+
sdk_version: 5.6.0
|
8 |
+
app_file: app.py
|
9 |
+
pinned: false
|
10 |
+
short_description: Cuando se necesite dormir a los mas pequeños de la casa, pod
|
11 |
+
---
|
12 |
+
|
13 |
+
Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference
|
app.py
CHANGED
@@ -3,8 +3,11 @@ import numpy as np
|
|
3 |
from bark import SAMPLE_RATE, generate_audio
|
4 |
from transformers import pipeline
|
5 |
import time
|
|
|
6 |
|
7 |
-
|
|
|
|
|
8 |
|
9 |
# Para medir el rendimiento de los métodos, voy a crear este decorador, que simplemente imprime en nuestra terminal el tiempo de ejecucion de los metodos que tengan los modelos y los usen, de esta manera podremos estudiar el tiempo que este cada modelo activo
|
10 |
def measure_performance(func):
|
@@ -19,9 +22,9 @@ def measure_performance(func):
|
|
19 |
|
20 |
# Ejemplos que pondre debajo de la ventana
|
21 |
examples = [
|
22 |
-
["
|
23 |
-
["
|
24 |
-
["
|
25 |
]
|
26 |
|
27 |
@measure_performance
|
@@ -33,7 +36,7 @@ def generate_story(theme):
|
|
33 |
|
34 |
@measure_performance
|
35 |
def gen_tts(text):
|
36 |
-
audio_arr = generate_audio(text,
|
37 |
audio_arr = (audio_arr * 32767).astype(np.int16)
|
38 |
return (SAMPLE_RATE, audio_arr)
|
39 |
|
@@ -74,6 +77,8 @@ def end_text():
|
|
74 |
- Repetición y coherencia: En algunas situaciones, puede tender a repetir frases o perder coherencia en textos extensos.
|
75 |
- Contenido de entrenamiento: Como está basado en datos previos a 2020, no tiene conocimientos sobre eventos recientes. Aunque en nuestro caso, no se haga una limitacion.
|
76 |
- Sesgos en los datos: Dado que se entrenó en un amplio corpus de internet, puede presentar sesgos reflejados en esos datos, lo que debe ser considerado en aplicaciones que lo utilicen para generar texto. De nuevo, para contar cuentos, no importa que los datos sean fantasiosos, aunque puede llevar a historias sin logica.
|
|
|
|
|
77 |
""")
|
78 |
with gr.Column():
|
79 |
gr.Markdown("""<h4>Bark</h4>
|
@@ -93,6 +98,9 @@ def end_text():
|
|
93 |
- Aunque es altamente preciso, puede generar una voz algo robótica en algunos contextos.
|
94 |
- El uso comercial está restringido, y el contenido generado no está censurado.
|
95 |
- No tiene todos los idiomas, debido a que requiere grandes volúmenes de datos de entrenamiento y puede tener dificultades con dialectos menos comunes o con datos limitados.
|
|
|
|
|
|
|
96 |
""")
|
97 |
gr.Markdown("""<h3>Links consultados</h3>""")
|
98 |
gr.Markdown("[Git, bark](https://github.com/suno-ai/bark/)")
|
|
|
3 |
from bark import SAMPLE_RATE, generate_audio
|
4 |
from transformers import pipeline
|
5 |
import time
|
6 |
+
import torch
|
7 |
|
8 |
+
device = "cuda" if torch.cuda.is_available() else "cpu"
|
9 |
+
generate_story_pipe = pipeline("text-generation", model="meta-llama/Llama-3.2-1B")
|
10 |
+
generate_story_pipe = generate_story_pipe.to(device)
|
11 |
|
12 |
# Para medir el rendimiento de los métodos, voy a crear este decorador, que simplemente imprime en nuestra terminal el tiempo de ejecucion de los metodos que tengan los modelos y los usen, de esta manera podremos estudiar el tiempo que este cada modelo activo
|
13 |
def measure_performance(func):
|
|
|
22 |
|
23 |
# Ejemplos que pondre debajo de la ventana
|
24 |
examples = [
|
25 |
+
["A love story"],
|
26 |
+
["An humor story"],
|
27 |
+
["A history about a vampire who dance Reggaeton"],
|
28 |
]
|
29 |
|
30 |
@measure_performance
|
|
|
36 |
|
37 |
@measure_performance
|
38 |
def gen_tts(text):
|
39 |
+
audio_arr = generate_audio(text, voice_preset="v2/es_speaker_0")
|
40 |
audio_arr = (audio_arr * 32767).astype(np.int16)
|
41 |
return (SAMPLE_RATE, audio_arr)
|
42 |
|
|
|
77 |
- Repetición y coherencia: En algunas situaciones, puede tender a repetir frases o perder coherencia en textos extensos.
|
78 |
- Contenido de entrenamiento: Como está basado en datos previos a 2020, no tiene conocimientos sobre eventos recientes. Aunque en nuestro caso, no se haga una limitacion.
|
79 |
- Sesgos en los datos: Dado que se entrenó en un amplio corpus de internet, puede presentar sesgos reflejados en esos datos, lo que debe ser considerado en aplicaciones que lo utilicen para generar texto. De nuevo, para contar cuentos, no importa que los datos sean fantasiosos, aunque puede llevar a historias sin logica.
|
80 |
+
**Tiempo promedio**
|
81 |
+
Bastante rapido, normalmente menos de 60 segudos
|
82 |
""")
|
83 |
with gr.Column():
|
84 |
gr.Markdown("""<h4>Bark</h4>
|
|
|
98 |
- Aunque es altamente preciso, puede generar una voz algo robótica en algunos contextos.
|
99 |
- El uso comercial está restringido, y el contenido generado no está censurado.
|
100 |
- No tiene todos los idiomas, debido a que requiere grandes volúmenes de datos de entrenamiento y puede tener dificultades con dialectos menos comunes o con datos limitados.
|
101 |
+
- Genera audios cortos. No genera mas de 14 segundos, en hugging face al menos.
|
102 |
+
**Tiempo promedio**
|
103 |
+
Bastante mas lento que el otro, puede llegar a mas de 300 segundos.
|
104 |
""")
|
105 |
gr.Markdown("""<h3>Links consultados</h3>""")
|
106 |
gr.Markdown("[Git, bark](https://github.com/suno-ai/bark/)")
|