Instalar HeartMuLa
Execute o gerador de música AI de código aberto em seu próprio hardware
Requisitos do Sistema
| Componente | Mínimo | Recomendado |
|---|---|---|
| GPU | 16GB VRAM (FP16 quantized) | 24GB+ VRAM |
| RAM | 32GB | 64GB |
| Storage | 20GB free space | 50GB+ SSD |
| OS | Linux / Windows 10+ | Ubuntu 22.04 / Windows 11 |
| Python | 3.10 | 3.10 - 3.11 |
| CUDA | 11.8 | 12.1+ |
GPUs Suportadas
Ideal (24GB+ VRAM)
Recomendado (16-24GB)
Mínimo (16GB com quantização)
Serviços de GPU na Nuvem
Não tem uma GPU potente? Alugue uma destes provedores
RunPod
GPU cloud platform with easy deployment and competitive pricing
Recursos:
- RTX 4090 and A100 available
- Pre-built templates
- Persistent storage
- Serverless option
Vast.ai
Marketplace for GPU rentals with lowest prices
Recursos:
- Bid-based pricing
- Wide GPU selection
- Docker support
- Community instances
Lambda Labs
ML-focused cloud with high-end GPUs
Recursos:
- H100 and A100 available
- Pre-installed ML stack
- On-demand and reserved
- Enterprise support
Google Colab
Free tier available, good for testing
Recursos:
- Free T4 GPU tier
- Jupyter notebook
- Google Drive integration
- A100 on Pro+ plan
Paperspace
Developer-friendly GPU cloud platform
Recursos:
- Gradient notebooks
- A100 available
- Persistent storage
- Team collaboration
Métodos de Instalação
ComfyUI Workflow
FácilVisual node-based interface for music generation
Passos:
- 1Install ComfyUI following official guide
- 2Install HeartMuLa custom nodes from ComfyUI Manager
- 3Download HeartMuLa model from Hugging Face
- 4Place model in ComfyUI/models/heartmula/
- 5Load the example workflow and start creating
Comandos:
cd ComfyUI/custom_nodes
git clone https://github.com/m-a-p/ComfyUI-HeartMuLa
pip install -r ComfyUI-HeartMuLa/requirements.txtPython Package
MédioDirect Python API for programmatic access
Passos:
- 1Create a virtual environment
- 2Install PyTorch with CUDA support
- 3Install HeartMuLa from pip
- 4Download model weights
- 5Run inference script
Comandos:
python -m venv heartmula-env
source heartmula-env/bin/activate
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install heartmula
heartmula download --model 3bDocker Container
AvançadoContainerized deployment for production use
Passos:
- 1Install Docker and NVIDIA Container Toolkit
- 2Pull the official HeartMuLa Docker image
- 3Run container with GPU access
- 4Access the web UI or API endpoint
Comandos:
docker pull heartmula/heartmula:latest
docker run --gpus all -p 7860:7860 heartmula/heartmula:latestPerguntas Frequentes
Posso executar HeartMuLa com menos de 24GB de VRAM?
Sim, com quantização FP16 você pode executar em GPUs de 16GB VRAM como RTX 4080. A qualidade pode ser ligeiramente reduzida.
HeartMuLa funciona no Mac com Apple Silicon?
Atualmente não. HeartMuLa requer CUDA (GPU NVIDIA). macOS com Apple Silicon ainda não é suportado.
Quanto tempo leva para gerar uma música?
Na RTX 4090, uma música de 3 minutos leva cerca de 2-3 minutos. O tempo de geração escala com a duração.
Posso usar a música gerada comercialmente?
Sim! HeartMuLa é licenciado sob Apache 2.0. Você possui todos os direitos sobre a música que gera.