Guia de Implementação Local

Instalar HeartMuLa

Execute o gerador de música AI de código aberto em seu próprio hardware

24GB VRAMRTX 3090+Apache 2.0~12GB

Requisitos do Sistema

ComponenteMínimoRecomendado
GPU16GB VRAM (FP16 quantized)24GB+ VRAM
RAM32GB64GB
Storage20GB free space50GB+ SSD
OSLinux / Windows 10+Ubuntu 22.04 / Windows 11
Python3.103.10 - 3.11
CUDA11.812.1+

GPUs Suportadas

Ideal (24GB+ VRAM)

NVIDIA A100 80GB80GB VRAM
NVIDIA A100 40GB40GB VRAM
NVIDIA H10080GB VRAM
RTX 409024GB VRAM
RTX 309024GB VRAM
RTX 3090 Ti24GB VRAM
RTX A600048GB VRAM
RTX A500024GB VRAM
RTX 5000 Ada32GB VRAM

Recomendado (16-24GB)

RTX 408016GB VRAM
RTX 4070 Ti Super16GB VRAM
RTX A450020GB VRAM

Mínimo (16GB com quantização)

RTX 4080 Super16GB VRAM
RTX 4070 Ti16GB VRAM

Serviços de GPU na Nuvem

Não tem uma GPU potente? Alugue uma destes provedores

Recomendado

RunPod

GPU cloud platform with easy deployment and competitive pricing

Preço:$0.39 - $1.99/hr

Recursos:

  • RTX 4090 and A100 available
  • Pre-built templates
  • Persistent storage
  • Serverless option
Visitar Site

Vast.ai

Marketplace for GPU rentals with lowest prices

Preço:$0.20 - $2.00/hr

Recursos:

  • Bid-based pricing
  • Wide GPU selection
  • Docker support
  • Community instances
Visitar Site

Lambda Labs

ML-focused cloud with high-end GPUs

Preço:$0.50 - $2.49/hr

Recursos:

  • H100 and A100 available
  • Pre-installed ML stack
  • On-demand and reserved
  • Enterprise support
Visitar Site

Google Colab

Free tier available, good for testing

Preço:Free - $49.99/mo

Recursos:

  • Free T4 GPU tier
  • Jupyter notebook
  • Google Drive integration
  • A100 on Pro+ plan
Visitar Site

Paperspace

Developer-friendly GPU cloud platform

Preço:$0.45 - $3.09/hr

Recursos:

  • Gradient notebooks
  • A100 available
  • Persistent storage
  • Team collaboration
Visitar Site

Métodos de Instalação

ComfyUI Workflow

Fácil

Visual node-based interface for music generation

Passos:

  1. 1Install ComfyUI following official guide
  2. 2Install HeartMuLa custom nodes from ComfyUI Manager
  3. 3Download HeartMuLa model from Hugging Face
  4. 4Place model in ComfyUI/models/heartmula/
  5. 5Load the example workflow and start creating

Comandos:

cd ComfyUI/custom_nodes git clone https://github.com/m-a-p/ComfyUI-HeartMuLa pip install -r ComfyUI-HeartMuLa/requirements.txt

Python Package

Médio

Direct Python API for programmatic access

Passos:

  1. 1Create a virtual environment
  2. 2Install PyTorch with CUDA support
  3. 3Install HeartMuLa from pip
  4. 4Download model weights
  5. 5Run inference script

Comandos:

python -m venv heartmula-env source heartmula-env/bin/activate pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 pip install heartmula heartmula download --model 3b

Docker Container

Avançado

Containerized deployment for production use

Passos:

  1. 1Install Docker and NVIDIA Container Toolkit
  2. 2Pull the official HeartMuLa Docker image
  3. 3Run container with GPU access
  4. 4Access the web UI or API endpoint

Comandos:

docker pull heartmula/heartmula:latest docker run --gpus all -p 7860:7860 heartmula/heartmula:latest

Baixar do Hugging Face

Obtenha os pesos do modelo HeartMuLa 3B diretamente do Hugging Face. Licença Apache 2.0 para uso comercial.

Perguntas Frequentes

Posso executar HeartMuLa com menos de 24GB de VRAM?

Sim, com quantização FP16 você pode executar em GPUs de 16GB VRAM como RTX 4080. A qualidade pode ser ligeiramente reduzida.

HeartMuLa funciona no Mac com Apple Silicon?

Atualmente não. HeartMuLa requer CUDA (GPU NVIDIA). macOS com Apple Silicon ainda não é suportado.

Quanto tempo leva para gerar uma música?

Na RTX 4090, uma música de 3 minutos leva cerca de 2-3 minutos. O tempo de geração escala com a duração.

Posso usar a música gerada comercialmente?

Sim! HeartMuLa é licenciado sob Apache 2.0. Você possui todos os direitos sobre a música que gera.

Precisa de Ajuda para Começar?

Experimente HeartMuLa online primeiro, ou navegue pelas tags de estilo para ver o que é possível.