本地部署指南

安裝 HeartMuLa

在您自己的硬體上運行開源 AI 音樂生成器

24GB VRAMRTX 3090+Apache 2.0~12GB

系統需求

元件最低配置推薦配置
GPU16GB VRAM (FP16 quantized)24GB+ VRAM
RAM32GB64GB
Storage20GB free space50GB+ SSD
OSLinux / Windows 10+Ubuntu 22.04 / Windows 11
Python3.103.10 - 3.11
CUDA11.812.1+

支援的 GPU

最佳配置 (24GB+ 顯存)

NVIDIA A100 80GB80GB VRAM
NVIDIA A100 40GB40GB VRAM
NVIDIA H10080GB VRAM
RTX 409024GB VRAM
RTX 309024GB VRAM
RTX 3090 Ti24GB VRAM
RTX A600048GB VRAM
RTX A500024GB VRAM
RTX 5000 Ada32GB VRAM

推薦配置 (16-24GB)

RTX 408016GB VRAM
RTX 4070 Ti Super16GB VRAM
RTX A450020GB VRAM

最低配置 (16GB 需量化)

RTX 4080 Super16GB VRAM
RTX 4070 Ti16GB VRAM

雲端 GPU 服務

沒有強大的 GPU?從這些雲端服務商租用

推薦

RunPod

GPU cloud platform with easy deployment and competitive pricing

價格:$0.39 - $1.99/hr

特性:

  • RTX 4090 and A100 available
  • Pre-built templates
  • Persistent storage
  • Serverless option
訪問網站

Vast.ai

Marketplace for GPU rentals with lowest prices

價格:$0.20 - $2.00/hr

特性:

  • Bid-based pricing
  • Wide GPU selection
  • Docker support
  • Community instances
訪問網站

Lambda Labs

ML-focused cloud with high-end GPUs

價格:$0.50 - $2.49/hr

特性:

  • H100 and A100 available
  • Pre-installed ML stack
  • On-demand and reserved
  • Enterprise support
訪問網站

Google Colab

Free tier available, good for testing

價格:Free - $49.99/mo

特性:

  • Free T4 GPU tier
  • Jupyter notebook
  • Google Drive integration
  • A100 on Pro+ plan
訪問網站

Paperspace

Developer-friendly GPU cloud platform

價格:$0.45 - $3.09/hr

特性:

  • Gradient notebooks
  • A100 available
  • Persistent storage
  • Team collaboration
訪問網站

安裝方法

ComfyUI Workflow

簡單

Visual node-based interface for music generation

步驟:

  1. 1Install ComfyUI following official guide
  2. 2Install HeartMuLa custom nodes from ComfyUI Manager
  3. 3Download HeartMuLa model from Hugging Face
  4. 4Place model in ComfyUI/models/heartmula/
  5. 5Load the example workflow and start creating

命令:

cd ComfyUI/custom_nodes git clone https://github.com/m-a-p/ComfyUI-HeartMuLa pip install -r ComfyUI-HeartMuLa/requirements.txt

Python Package

中等

Direct Python API for programmatic access

步驟:

  1. 1Create a virtual environment
  2. 2Install PyTorch with CUDA support
  3. 3Install HeartMuLa from pip
  4. 4Download model weights
  5. 5Run inference script

命令:

python -m venv heartmula-env source heartmula-env/bin/activate pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 pip install heartmula heartmula download --model 3b

Docker Container

進階

Containerized deployment for production use

步驟:

  1. 1Install Docker and NVIDIA Container Toolkit
  2. 2Pull the official HeartMuLa Docker image
  3. 3Run container with GPU access
  4. 4Access the web UI or API endpoint

命令:

docker pull heartmula/heartmula:latest docker run --gpus all -p 7860:7860 heartmula/heartmula:latest

從 Hugging Face 下載

直接從 Hugging Face 獲取 HeartMuLa 3B 模型權重。Apache 2.0 授權,可商用。

常見問題

顯存不足 24GB 可以運行 HeartMuLa 嗎?

可以,使用 FP16 量化可以在 16GB 顯存的 GPU(如 RTX 4080)上運行。品質可能略有下降。

HeartMuLa 支援 Mac Apple Silicon 嗎?

目前不支援。HeartMuLa 需要 CUDA(NVIDIA GPU)。暫不支援 Apple Silicon 的 macOS。

生成一首歌需要多長時間?

在 RTX 4090 上,生成 3 分鐘的歌曲大約需要 2-3 分鐘。生成時間與歌曲時長成正比。

生成的音樂可以商用嗎?

可以!HeartMuLa 採用 Apache 2.0 授權。您完全擁有所生成音樂的版權。

需要協助入門?

先線上試用 HeartMuLa,或瀏覽風格標籤了解更多可能性。