로컬 배포 가이드
HeartMuLa 설치
자체 하드웨어에서 오픈소스 AI 음악 생성기 실행
24GB VRAMRTX 3090+Apache 2.0~12GB
시스템 요구사항
| 구성요소 | 최소 | 권장 |
|---|---|---|
| GPU | 16GB VRAM (FP16 quantized) | 24GB+ VRAM |
| RAM | 32GB | 64GB |
| Storage | 20GB free space | 50GB+ SSD |
| OS | Linux / Windows 10+ | Ubuntu 22.04 / Windows 11 |
| Python | 3.10 | 3.10 - 3.11 |
| CUDA | 11.8 | 12.1+ |
지원 GPU
최적 (24GB+ VRAM)
NVIDIA A100 80GB80GB VRAM
NVIDIA A100 40GB40GB VRAM
NVIDIA H10080GB VRAM
RTX 409024GB VRAM
RTX 309024GB VRAM
RTX 3090 Ti24GB VRAM
RTX A600048GB VRAM
RTX A500024GB VRAM
RTX 5000 Ada32GB VRAM
권장 (16-24GB)
RTX 408016GB VRAM
RTX 4070 Ti Super16GB VRAM
RTX A450020GB VRAM
최소 (16GB 양자화)
RTX 4080 Super16GB VRAM
RTX 4070 Ti16GB VRAM
클라우드 GPU 서비스
강력한 GPU가 없나요? 이 클라우드 제공업체에서 대여하세요
추천
RunPod
GPU cloud platform with easy deployment and competitive pricing
가격:$0.39 - $1.99/hr
기능:
- RTX 4090 and A100 available
- Pre-built templates
- Persistent storage
- Serverless option
Vast.ai
Marketplace for GPU rentals with lowest prices
가격:$0.20 - $2.00/hr
기능:
- Bid-based pricing
- Wide GPU selection
- Docker support
- Community instances
Lambda Labs
ML-focused cloud with high-end GPUs
가격:$0.50 - $2.49/hr
기능:
- H100 and A100 available
- Pre-installed ML stack
- On-demand and reserved
- Enterprise support
Google Colab
Free tier available, good for testing
가격:Free - $49.99/mo
기능:
- Free T4 GPU tier
- Jupyter notebook
- Google Drive integration
- A100 on Pro+ plan
Paperspace
Developer-friendly GPU cloud platform
가격:$0.45 - $3.09/hr
기능:
- Gradient notebooks
- A100 available
- Persistent storage
- Team collaboration
설치 방법
ComfyUI Workflow
쉬움Visual node-based interface for music generation
단계:
- 1Install ComfyUI following official guide
- 2Install HeartMuLa custom nodes from ComfyUI Manager
- 3Download HeartMuLa model from Hugging Face
- 4Place model in ComfyUI/models/heartmula/
- 5Load the example workflow and start creating
명령어:
cd ComfyUI/custom_nodes
git clone https://github.com/m-a-p/ComfyUI-HeartMuLa
pip install -r ComfyUI-HeartMuLa/requirements.txtPython Package
보통Direct Python API for programmatic access
단계:
- 1Create a virtual environment
- 2Install PyTorch with CUDA support
- 3Install HeartMuLa from pip
- 4Download model weights
- 5Run inference script
명령어:
python -m venv heartmula-env
source heartmula-env/bin/activate
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install heartmula
heartmula download --model 3bDocker Container
고급Containerized deployment for production use
단계:
- 1Install Docker and NVIDIA Container Toolkit
- 2Pull the official HeartMuLa Docker image
- 3Run container with GPU access
- 4Access the web UI or API endpoint
명령어:
docker pull heartmula/heartmula:latest
docker run --gpus all -p 7860:7860 heartmula/heartmula:latest자주 묻는 질문
24GB 미만의 VRAM으로 HeartMuLa를 실행할 수 있나요?
네, FP16 양자화를 사용하면 RTX 4080과 같은 16GB VRAM GPU에서 실행할 수 있습니다. 품질이 약간 저하될 수 있습니다.
HeartMuLa가 Mac Apple Silicon에서 작동하나요?
현재는 지원하지 않습니다. HeartMuLa는 CUDA(NVIDIA GPU)가 필요합니다. Apple Silicon macOS는 아직 지원되지 않습니다.
곡 생성에 얼마나 걸리나요?
RTX 4090에서 3분 길이의 곡을 생성하는 데 약 2-3분이 소요됩니다. 생성 시간은 곡 길이에 비례합니다.
생성된 음악을 상업적으로 사용할 수 있나요?
네! HeartMuLa는 Apache 2.0 라이선스입니다. 생성한 모든 음악에 대한 완전한 권리를 보유합니다.