ローカルデプロイガイド

HeartMuLa インストール

オープンソース AI 音楽ジェネレーターを自分のハードウェアで実行

24GB VRAMRTX 3090+Apache 2.0~12GB

システム要件

コンポーネント最小推奨
GPU16GB VRAM (FP16 quantized)24GB+ VRAM
RAM32GB64GB
Storage20GB free space50GB+ SSD
OSLinux / Windows 10+Ubuntu 22.04 / Windows 11
Python3.103.10 - 3.11
CUDA11.812.1+

対応 GPU

最適 (24GB+ VRAM)

NVIDIA A100 80GB80GB VRAM
NVIDIA A100 40GB40GB VRAM
NVIDIA H10080GB VRAM
RTX 409024GB VRAM
RTX 309024GB VRAM
RTX 3090 Ti24GB VRAM
RTX A600048GB VRAM
RTX A500024GB VRAM
RTX 5000 Ada32GB VRAM

推奨 (16-24GB)

RTX 408016GB VRAM
RTX 4070 Ti Super16GB VRAM
RTX A450020GB VRAM

最小 (16GB 量子化)

RTX 4080 Super16GB VRAM
RTX 4070 Ti16GB VRAM

クラウド GPU サービス

強力な GPU がない場合、これらのクラウドプロバイダーからレンタル

おすすめ

RunPod

GPU cloud platform with easy deployment and competitive pricing

価格:$0.39 - $1.99/hr

機能:

  • RTX 4090 and A100 available
  • Pre-built templates
  • Persistent storage
  • Serverless option
サイトを見る

Vast.ai

Marketplace for GPU rentals with lowest prices

価格:$0.20 - $2.00/hr

機能:

  • Bid-based pricing
  • Wide GPU selection
  • Docker support
  • Community instances
サイトを見る

Lambda Labs

ML-focused cloud with high-end GPUs

価格:$0.50 - $2.49/hr

機能:

  • H100 and A100 available
  • Pre-installed ML stack
  • On-demand and reserved
  • Enterprise support
サイトを見る

Google Colab

Free tier available, good for testing

価格:Free - $49.99/mo

機能:

  • Free T4 GPU tier
  • Jupyter notebook
  • Google Drive integration
  • A100 on Pro+ plan
サイトを見る

Paperspace

Developer-friendly GPU cloud platform

価格:$0.45 - $3.09/hr

機能:

  • Gradient notebooks
  • A100 available
  • Persistent storage
  • Team collaboration
サイトを見る

インストール方法

ComfyUI Workflow

簡単

Visual node-based interface for music generation

手順:

  1. 1Install ComfyUI following official guide
  2. 2Install HeartMuLa custom nodes from ComfyUI Manager
  3. 3Download HeartMuLa model from Hugging Face
  4. 4Place model in ComfyUI/models/heartmula/
  5. 5Load the example workflow and start creating

コマンド:

cd ComfyUI/custom_nodes git clone https://github.com/m-a-p/ComfyUI-HeartMuLa pip install -r ComfyUI-HeartMuLa/requirements.txt

Python Package

中級

Direct Python API for programmatic access

手順:

  1. 1Create a virtual environment
  2. 2Install PyTorch with CUDA support
  3. 3Install HeartMuLa from pip
  4. 4Download model weights
  5. 5Run inference script

コマンド:

python -m venv heartmula-env source heartmula-env/bin/activate pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 pip install heartmula heartmula download --model 3b

Docker Container

上級

Containerized deployment for production use

手順:

  1. 1Install Docker and NVIDIA Container Toolkit
  2. 2Pull the official HeartMuLa Docker image
  3. 3Run container with GPU access
  4. 4Access the web UI or API endpoint

コマンド:

docker pull heartmula/heartmula:latest docker run --gpus all -p 7860:7860 heartmula/heartmula:latest

Hugging Face からダウンロード

Hugging Face から HeartMuLa 3B モデルを直接取得。Apache 2.0 ライセンスで商用利用可能。

よくある質問

24GB 未満の VRAM で HeartMuLa を実行できますか?

はい、FP16 量子化を使用すれば、RTX 4080 などの 16GB VRAM GPU で実行できます。品質が若干低下する可能性があります。

HeartMuLa は Mac の Apple Silicon で動作しますか?

現在はサポートしていません。HeartMuLa には CUDA(NVIDIA GPU)が必要です。Apple Silicon の macOS はまだサポートされていません。

曲の生成にどのくらい時間がかかりますか?

RTX 4090 では、3 分の曲の生成に約 2-3 分かかります。生成時間は曲の長さに比例します。

生成した音楽を商用利用できますか?

はい!HeartMuLa は Apache 2.0 ライセンスです。生成した音楽の完全な権利を所有できます。

始め方のヘルプが必要ですか?

まずオンラインで HeartMuLa を試すか、スタイルタグを参照して可能性を探ってください。