Instalar HeartMuLa
Ejecuta el generador de música AI de código abierto en tu propio hardware
Requisitos del Sistema
| Componente | Mínimo | Recomendado |
|---|---|---|
| GPU | 16GB VRAM (FP16 quantized) | 24GB+ VRAM |
| RAM | 32GB | 64GB |
| Storage | 20GB free space | 50GB+ SSD |
| OS | Linux / Windows 10+ | Ubuntu 22.04 / Windows 11 |
| Python | 3.10 | 3.10 - 3.11 |
| CUDA | 11.8 | 12.1+ |
GPUs Compatibles
Óptimo (24GB+ VRAM)
Recomendado (16-24GB)
Mínimo (16GB con cuantización)
Servicios de GPU en la Nube
¿No tienes una GPU potente? Alquila una de estos proveedores
RunPod
GPU cloud platform with easy deployment and competitive pricing
Características:
- RTX 4090 and A100 available
- Pre-built templates
- Persistent storage
- Serverless option
Vast.ai
Marketplace for GPU rentals with lowest prices
Características:
- Bid-based pricing
- Wide GPU selection
- Docker support
- Community instances
Lambda Labs
ML-focused cloud with high-end GPUs
Características:
- H100 and A100 available
- Pre-installed ML stack
- On-demand and reserved
- Enterprise support
Google Colab
Free tier available, good for testing
Características:
- Free T4 GPU tier
- Jupyter notebook
- Google Drive integration
- A100 on Pro+ plan
Paperspace
Developer-friendly GPU cloud platform
Características:
- Gradient notebooks
- A100 available
- Persistent storage
- Team collaboration
Métodos de Instalación
ComfyUI Workflow
FácilVisual node-based interface for music generation
Pasos:
- 1Install ComfyUI following official guide
- 2Install HeartMuLa custom nodes from ComfyUI Manager
- 3Download HeartMuLa model from Hugging Face
- 4Place model in ComfyUI/models/heartmula/
- 5Load the example workflow and start creating
Comandos:
cd ComfyUI/custom_nodes
git clone https://github.com/m-a-p/ComfyUI-HeartMuLa
pip install -r ComfyUI-HeartMuLa/requirements.txtPython Package
MedioDirect Python API for programmatic access
Pasos:
- 1Create a virtual environment
- 2Install PyTorch with CUDA support
- 3Install HeartMuLa from pip
- 4Download model weights
- 5Run inference script
Comandos:
python -m venv heartmula-env
source heartmula-env/bin/activate
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install heartmula
heartmula download --model 3bDocker Container
AvanzadoContainerized deployment for production use
Pasos:
- 1Install Docker and NVIDIA Container Toolkit
- 2Pull the official HeartMuLa Docker image
- 3Run container with GPU access
- 4Access the web UI or API endpoint
Comandos:
docker pull heartmula/heartmula:latest
docker run --gpus all -p 7860:7860 heartmula/heartmula:latestPreguntas Frecuentes
¿Puedo ejecutar HeartMuLa con menos de 24GB de VRAM?
Sí, con cuantización FP16 puedes ejecutarlo en GPUs de 16GB VRAM como RTX 4080. La calidad puede reducirse ligeramente.
¿Funciona HeartMuLa en Mac con Apple Silicon?
Actualmente no. HeartMuLa requiere CUDA (GPU NVIDIA). macOS con Apple Silicon aún no está soportado.
¿Cuánto tiempo tarda en generar una canción?
En RTX 4090, una canción de 3 minutos tarda aproximadamente 2-3 minutos. El tiempo de generación escala con la duración.
¿Puedo usar la música generada comercialmente?
¡Sí! HeartMuLa tiene licencia Apache 2.0. Tienes todos los derechos sobre la música que generas.