# Introdução
!!! warning Não nos responsabilizamos por qualquer uso ilegal do código-fonte. Consulte as leis locais sobre DMCA (Digital Millennium Copyright Act) e outras leis relevantes em sua região.## Requisitos - Memória da GPU: 4GB (para inferência), 8GB (para ajuste fino) - Sistema: Linux, Windows ## Configuração para Windows No Windows, usuários avançados podem considerar usar o WSL2 ou Docker para executar o código. Para Usuários comuns (não-avançados), siga os métodos abaixo para executar o código sem um ambiente Linux (incluindo suporte para `torch.compile`):
install_env.bat
para baixar e iniciar a instalação do miniconda.USE_MIRROR=true
no install_env.bat
(padrão). Caso contrário, use USE_MIRROR=false
.INSTALL_TYPE=preview
. Para a versão estável sem ambiente compilado, use INSTALL_TYPE=stable
.INSTALL_TYPE=preview
), siga para a próxima etapa (opcional):
LLVM-17.0.6-win64.exe
, clique duas vezes para instalá-lo, escolha um local de instalação apropriado. E durante a instalação, marque a opção Add Path to Current User
para adicionar às variáveis de ambiente.Modificar
, conforme mostrado abaixo, encontre a opção Desenvolvimento para desktop com C++
e marque-a para download.
start.bat
para entrar na página da WebUI de configuração de inferência de treinamento do Fish-Speech.
API_FLAGS.txt
no diretório raiz do projeto e modifique as três primeiras linhas da seguinte forma:
--infer
# --api
# --listen ...
...
API_FLAGS.txt
no diretório raiz do projeto e modifique as três primeiras linhas da seguinte forma:
# --infer
--api
--listen ...
...
run_cmd.bat
para entrar na CLI do conda/python deste projeto.