RafaelJaime commited on
Commit
9b8f68a
1 Parent(s): a6fde4a

Upload 3 files

Browse files
Files changed (2) hide show
  1. README.md +13 -13
  2. app.py +13 -5
README.md CHANGED
@@ -1,13 +1,13 @@
1
- ---
2
- title: SherezIAde
3
- emoji: 🐢
4
- colorFrom: pink
5
- colorTo: red
6
- sdk: gradio
7
- sdk_version: 5.6.0
8
- app_file: app.py
9
- pinned: false
10
- short_description: Cuando se necesite dormir a los mas pequeños de la casa, pod
11
- ---
12
-
13
- Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference
 
1
+ ---
2
+ title: SherezIAde
3
+ emoji: 📖
4
+ colorFrom: blue
5
+ colorTo: purple
6
+ sdk: gradio
7
+ sdk_version: 5.6.0
8
+ app_file: app.py
9
+ pinned: false
10
+ short_description: Cuando se necesite dormir a los mas pequeños de la casa, pod
11
+ ---
12
+
13
+ Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference
app.py CHANGED
@@ -3,8 +3,11 @@ import numpy as np
3
  from bark import SAMPLE_RATE, generate_audio
4
  from transformers import pipeline
5
  import time
 
6
 
7
- generate_story_pipe = pipeline("text-generation", model="openai-community/gpt2")
 
 
8
 
9
  # Para medir el rendimiento de los métodos, voy a crear este decorador, que simplemente imprime en nuestra terminal el tiempo de ejecucion de los metodos que tengan los modelos y los usen, de esta manera podremos estudiar el tiempo que este cada modelo activo
10
  def measure_performance(func):
@@ -19,9 +22,9 @@ def measure_performance(func):
19
 
20
  # Ejemplos que pondre debajo de la ventana
21
  examples = [
22
- ["Una historia de amor entre un chico muy malo y una chica muy buena"],
23
- ["Una historia de humor"],
24
- ["Una historia de miedo sobre un vampiro que perrea"],
25
  ]
26
 
27
  @measure_performance
@@ -33,7 +36,7 @@ def generate_story(theme):
33
 
34
  @measure_performance
35
  def gen_tts(text):
36
- audio_arr = generate_audio(text, history_prompt="es_speaker_0")
37
  audio_arr = (audio_arr * 32767).astype(np.int16)
38
  return (SAMPLE_RATE, audio_arr)
39
 
@@ -74,6 +77,8 @@ def end_text():
74
  - Repetición y coherencia: En algunas situaciones, puede tender a repetir frases o perder coherencia en textos extensos.
75
  - Contenido de entrenamiento: Como está basado en datos previos a 2020, no tiene conocimientos sobre eventos recientes. Aunque en nuestro caso, no se haga una limitacion.
76
  - Sesgos en los datos: Dado que se entrenó en un amplio corpus de internet, puede presentar sesgos reflejados en esos datos, lo que debe ser considerado en aplicaciones que lo utilicen para generar texto. De nuevo, para contar cuentos, no importa que los datos sean fantasiosos, aunque puede llevar a historias sin logica.
 
 
77
  """)
78
  with gr.Column():
79
  gr.Markdown("""<h4>Bark</h4>
@@ -93,6 +98,9 @@ def end_text():
93
  - Aunque es altamente preciso, puede generar una voz algo robótica en algunos contextos.
94
  - El uso comercial está restringido, y el contenido generado no está censurado.
95
  - No tiene todos los idiomas, debido a que requiere grandes volúmenes de datos de entrenamiento y puede tener dificultades con dialectos menos comunes o con datos limitados.
 
 
 
96
  """)
97
  gr.Markdown("""<h3>Links consultados</h3>""")
98
  gr.Markdown("[Git, bark](https://github.com/suno-ai/bark/)")
 
3
  from bark import SAMPLE_RATE, generate_audio
4
  from transformers import pipeline
5
  import time
6
+ import torch
7
 
8
+ device = "cuda" if torch.cuda.is_available() else "cpu"
9
+ generate_story_pipe = pipeline("text-generation", model="meta-llama/Llama-3.2-1B")
10
+ generate_story_pipe = generate_story_pipe.to(device)
11
 
12
  # Para medir el rendimiento de los métodos, voy a crear este decorador, que simplemente imprime en nuestra terminal el tiempo de ejecucion de los metodos que tengan los modelos y los usen, de esta manera podremos estudiar el tiempo que este cada modelo activo
13
  def measure_performance(func):
 
22
 
23
  # Ejemplos que pondre debajo de la ventana
24
  examples = [
25
+ ["A love story"],
26
+ ["An humor story"],
27
+ ["A history about a vampire who dance Reggaeton"],
28
  ]
29
 
30
  @measure_performance
 
36
 
37
  @measure_performance
38
  def gen_tts(text):
39
+ audio_arr = generate_audio(text, voice_preset="v2/es_speaker_0")
40
  audio_arr = (audio_arr * 32767).astype(np.int16)
41
  return (SAMPLE_RATE, audio_arr)
42
 
 
77
  - Repetición y coherencia: En algunas situaciones, puede tender a repetir frases o perder coherencia en textos extensos.
78
  - Contenido de entrenamiento: Como está basado en datos previos a 2020, no tiene conocimientos sobre eventos recientes. Aunque en nuestro caso, no se haga una limitacion.
79
  - Sesgos en los datos: Dado que se entrenó en un amplio corpus de internet, puede presentar sesgos reflejados en esos datos, lo que debe ser considerado en aplicaciones que lo utilicen para generar texto. De nuevo, para contar cuentos, no importa que los datos sean fantasiosos, aunque puede llevar a historias sin logica.
80
+ **Tiempo promedio**
81
+ Bastante rapido, normalmente menos de 60 segudos
82
  """)
83
  with gr.Column():
84
  gr.Markdown("""<h4>Bark</h4>
 
98
  - Aunque es altamente preciso, puede generar una voz algo robótica en algunos contextos.
99
  - El uso comercial está restringido, y el contenido generado no está censurado.
100
  - No tiene todos los idiomas, debido a que requiere grandes volúmenes de datos de entrenamiento y puede tener dificultades con dialectos menos comunes o con datos limitados.
101
+ - Genera audios cortos. No genera mas de 14 segundos, en hugging face al menos.
102
+ **Tiempo promedio**
103
+ Bastante mas lento que el otro, puede llegar a mas de 300 segundos.
104
  """)
105
  gr.Markdown("""<h3>Links consultados</h3>""")
106
  gr.Markdown("[Git, bark](https://github.com/suno-ai/bark/)")