Guía de Implementación Local

Instalar HeartMuLa

Ejecuta el generador de música AI de código abierto en tu propio hardware

24GB VRAMRTX 3090+Apache 2.0~12GB

Requisitos del Sistema

ComponenteMínimoRecomendado
GPU16GB VRAM (FP16 quantized)24GB+ VRAM
RAM32GB64GB
Storage20GB free space50GB+ SSD
OSLinux / Windows 10+Ubuntu 22.04 / Windows 11
Python3.103.10 - 3.11
CUDA11.812.1+

GPUs Compatibles

Óptimo (24GB+ VRAM)

NVIDIA A100 80GB80GB VRAM
NVIDIA A100 40GB40GB VRAM
NVIDIA H10080GB VRAM
RTX 409024GB VRAM
RTX 309024GB VRAM
RTX 3090 Ti24GB VRAM
RTX A600048GB VRAM
RTX A500024GB VRAM
RTX 5000 Ada32GB VRAM

Recomendado (16-24GB)

RTX 408016GB VRAM
RTX 4070 Ti Super16GB VRAM
RTX A450020GB VRAM

Mínimo (16GB con cuantización)

RTX 4080 Super16GB VRAM
RTX 4070 Ti16GB VRAM

Servicios de GPU en la Nube

¿No tienes una GPU potente? Alquila una de estos proveedores

Recomendado

RunPod

GPU cloud platform with easy deployment and competitive pricing

Precio:$0.39 - $1.99/hr

Características:

  • RTX 4090 and A100 available
  • Pre-built templates
  • Persistent storage
  • Serverless option
Visitar Sitio

Vast.ai

Marketplace for GPU rentals with lowest prices

Precio:$0.20 - $2.00/hr

Características:

  • Bid-based pricing
  • Wide GPU selection
  • Docker support
  • Community instances
Visitar Sitio

Lambda Labs

ML-focused cloud with high-end GPUs

Precio:$0.50 - $2.49/hr

Características:

  • H100 and A100 available
  • Pre-installed ML stack
  • On-demand and reserved
  • Enterprise support
Visitar Sitio

Google Colab

Free tier available, good for testing

Precio:Free - $49.99/mo

Características:

  • Free T4 GPU tier
  • Jupyter notebook
  • Google Drive integration
  • A100 on Pro+ plan
Visitar Sitio

Paperspace

Developer-friendly GPU cloud platform

Precio:$0.45 - $3.09/hr

Características:

  • Gradient notebooks
  • A100 available
  • Persistent storage
  • Team collaboration
Visitar Sitio

Métodos de Instalación

ComfyUI Workflow

Fácil

Visual node-based interface for music generation

Pasos:

  1. 1Install ComfyUI following official guide
  2. 2Install HeartMuLa custom nodes from ComfyUI Manager
  3. 3Download HeartMuLa model from Hugging Face
  4. 4Place model in ComfyUI/models/heartmula/
  5. 5Load the example workflow and start creating

Comandos:

cd ComfyUI/custom_nodes git clone https://github.com/m-a-p/ComfyUI-HeartMuLa pip install -r ComfyUI-HeartMuLa/requirements.txt

Python Package

Medio

Direct Python API for programmatic access

Pasos:

  1. 1Create a virtual environment
  2. 2Install PyTorch with CUDA support
  3. 3Install HeartMuLa from pip
  4. 4Download model weights
  5. 5Run inference script

Comandos:

python -m venv heartmula-env source heartmula-env/bin/activate pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 pip install heartmula heartmula download --model 3b

Docker Container

Avanzado

Containerized deployment for production use

Pasos:

  1. 1Install Docker and NVIDIA Container Toolkit
  2. 2Pull the official HeartMuLa Docker image
  3. 3Run container with GPU access
  4. 4Access the web UI or API endpoint

Comandos:

docker pull heartmula/heartmula:latest docker run --gpus all -p 7860:7860 heartmula/heartmula:latest

Descargar de Hugging Face

Obtén los pesos del modelo HeartMuLa 3B directamente de Hugging Face. Licencia Apache 2.0 para uso comercial.

Preguntas Frecuentes

¿Puedo ejecutar HeartMuLa con menos de 24GB de VRAM?

Sí, con cuantización FP16 puedes ejecutarlo en GPUs de 16GB VRAM como RTX 4080. La calidad puede reducirse ligeramente.

¿Funciona HeartMuLa en Mac con Apple Silicon?

Actualmente no. HeartMuLa requiere CUDA (GPU NVIDIA). macOS con Apple Silicon aún no está soportado.

¿Cuánto tiempo tarda en generar una canción?

En RTX 4090, una canción de 3 minutos tarda aproximadamente 2-3 minutos. El tiempo de generación escala con la duración.

¿Puedo usar la música generada comercialmente?

¡Sí! HeartMuLa tiene licencia Apache 2.0. Tienes todos los derechos sobre la música que generas.

¿Necesitas Ayuda para Empezar?

Prueba HeartMuLa online primero, o explora las etiquetas de estilo para ver qué es posible.