로컬 배포 가이드

HeartMuLa 설치

자체 하드웨어에서 오픈소스 AI 음악 생성기 실행

24GB VRAMRTX 3090+Apache 2.0~12GB

시스템 요구사항

구성요소최소권장
GPU16GB VRAM (FP16 quantized)24GB+ VRAM
RAM32GB64GB
Storage20GB free space50GB+ SSD
OSLinux / Windows 10+Ubuntu 22.04 / Windows 11
Python3.103.10 - 3.11
CUDA11.812.1+

지원 GPU

최적 (24GB+ VRAM)

NVIDIA A100 80GB80GB VRAM
NVIDIA A100 40GB40GB VRAM
NVIDIA H10080GB VRAM
RTX 409024GB VRAM
RTX 309024GB VRAM
RTX 3090 Ti24GB VRAM
RTX A600048GB VRAM
RTX A500024GB VRAM
RTX 5000 Ada32GB VRAM

권장 (16-24GB)

RTX 408016GB VRAM
RTX 4070 Ti Super16GB VRAM
RTX A450020GB VRAM

최소 (16GB 양자화)

RTX 4080 Super16GB VRAM
RTX 4070 Ti16GB VRAM

클라우드 GPU 서비스

강력한 GPU가 없나요? 이 클라우드 제공업체에서 대여하세요

추천

RunPod

GPU cloud platform with easy deployment and competitive pricing

가격:$0.39 - $1.99/hr

기능:

  • RTX 4090 and A100 available
  • Pre-built templates
  • Persistent storage
  • Serverless option
사이트 방문

Vast.ai

Marketplace for GPU rentals with lowest prices

가격:$0.20 - $2.00/hr

기능:

  • Bid-based pricing
  • Wide GPU selection
  • Docker support
  • Community instances
사이트 방문

Lambda Labs

ML-focused cloud with high-end GPUs

가격:$0.50 - $2.49/hr

기능:

  • H100 and A100 available
  • Pre-installed ML stack
  • On-demand and reserved
  • Enterprise support
사이트 방문

Google Colab

Free tier available, good for testing

가격:Free - $49.99/mo

기능:

  • Free T4 GPU tier
  • Jupyter notebook
  • Google Drive integration
  • A100 on Pro+ plan
사이트 방문

Paperspace

Developer-friendly GPU cloud platform

가격:$0.45 - $3.09/hr

기능:

  • Gradient notebooks
  • A100 available
  • Persistent storage
  • Team collaboration
사이트 방문

설치 방법

ComfyUI Workflow

쉬움

Visual node-based interface for music generation

단계:

  1. 1Install ComfyUI following official guide
  2. 2Install HeartMuLa custom nodes from ComfyUI Manager
  3. 3Download HeartMuLa model from Hugging Face
  4. 4Place model in ComfyUI/models/heartmula/
  5. 5Load the example workflow and start creating

명령어:

cd ComfyUI/custom_nodes git clone https://github.com/m-a-p/ComfyUI-HeartMuLa pip install -r ComfyUI-HeartMuLa/requirements.txt

Python Package

보통

Direct Python API for programmatic access

단계:

  1. 1Create a virtual environment
  2. 2Install PyTorch with CUDA support
  3. 3Install HeartMuLa from pip
  4. 4Download model weights
  5. 5Run inference script

명령어:

python -m venv heartmula-env source heartmula-env/bin/activate pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 pip install heartmula heartmula download --model 3b

Docker Container

고급

Containerized deployment for production use

단계:

  1. 1Install Docker and NVIDIA Container Toolkit
  2. 2Pull the official HeartMuLa Docker image
  3. 3Run container with GPU access
  4. 4Access the web UI or API endpoint

명령어:

docker pull heartmula/heartmula:latest docker run --gpus all -p 7860:7860 heartmula/heartmula:latest

Hugging Face에서 다운로드

Hugging Face에서 직접 HeartMuLa 3B 모델 가중치를 받으세요. Apache 2.0 라이선스로 상업적 사용 가능.

자주 묻는 질문

24GB 미만의 VRAM으로 HeartMuLa를 실행할 수 있나요?

네, FP16 양자화를 사용하면 RTX 4080과 같은 16GB VRAM GPU에서 실행할 수 있습니다. 품질이 약간 저하될 수 있습니다.

HeartMuLa가 Mac Apple Silicon에서 작동하나요?

현재는 지원하지 않습니다. HeartMuLa는 CUDA(NVIDIA GPU)가 필요합니다. Apple Silicon macOS는 아직 지원되지 않습니다.

곡 생성에 얼마나 걸리나요?

RTX 4090에서 3분 길이의 곡을 생성하는 데 약 2-3분이 소요됩니다. 생성 시간은 곡 길이에 비례합니다.

생성된 음악을 상업적으로 사용할 수 있나요?

네! HeartMuLa는 Apache 2.0 라이선스입니다. 생성한 모든 음악에 대한 완전한 권리를 보유합니다.

시작하는 데 도움이 필요하신가요?

먼저 온라인에서 HeartMuLa를 체험하거나, 스타일 태그를 탐색하여 가능성을 알아보세요.