Spaces:
Greff3
/
Running on Zero

mochi-1 / app.py
sab
num_frames=24
c2744cb
raw
history blame
1.33 kB
import os
if os.environ.get("SPACES_ZERO_GPU") is not None:
import spaces
else:
class spaces:
@staticmethod
def GPU(func):
def wrapper(*args, **kwargs):
return func(*args, **kwargs)
return wrapper
import torch
from diffusers import MochiPipeline
from diffusers.utils import export_to_video
import gradio as gr
# Caricare il modello pre-addestrato
pipe = MochiPipeline.from_pretrained("genmo/mochi-1-preview", variant="bf16", torch_dtype=torch.bfloat16)
# Abilitare le ottimizzazioni per il risparmio di memoria
pipe.enable_model_cpu_offload()
pipe.enable_vae_tiling()
@spaces.GPU(duration=200)
def generate_video(prompt):
# Generare i frame del video
print("Generare i frame del video...")
#frames = pipe(prompt, num_frames=84).frames[0]
frames = pipe(prompt, num_frames=24).frames[0]
# Esportare i frame come video
video_path = "mochi.mp4"
export_to_video(frames, video_path, fps=30)
return video_path
# Creare l'interfaccia Gradio
interface = gr.Interface(
fn=generate_video,
inputs="text",
outputs="video",
title="Mochi Video Generator",
description="Genera un video basato su un prompt di testo utilizzando MochiPipeline."
)
# Avviare l'applicazione
if __name__ == "__main__":
interface.launch()