Установка HeartMuLa
Запустите генератор музыки ИИ с открытым исходным кодом на своём оборудовании
Системные требования
| Компонент | Минимум | Рекомендуется |
|---|---|---|
| GPU | 16GB VRAM (FP16 quantized) | 24GB+ VRAM |
| RAM | 32GB | 64GB |
| Storage | 20GB free space | 50GB+ SSD |
| OS | Linux / Windows 10+ | Ubuntu 22.04 / Windows 11 |
| Python | 3.10 | 3.10 - 3.11 |
| CUDA | 11.8 | 12.1+ |
Поддерживаемые GPU
Оптимально (24GB+ VRAM)
Рекомендуется (16-24GB)
Минимум (16GB с квантованием)
Облачные GPU сервисы
Нет мощной GPU? Арендуйте у этих провайдеров
RunPod
GPU cloud platform with easy deployment and competitive pricing
Возможности:
- RTX 4090 and A100 available
- Pre-built templates
- Persistent storage
- Serverless option
Vast.ai
Marketplace for GPU rentals with lowest prices
Возможности:
- Bid-based pricing
- Wide GPU selection
- Docker support
- Community instances
Lambda Labs
ML-focused cloud with high-end GPUs
Возможности:
- H100 and A100 available
- Pre-installed ML stack
- On-demand and reserved
- Enterprise support
Google Colab
Free tier available, good for testing
Возможности:
- Free T4 GPU tier
- Jupyter notebook
- Google Drive integration
- A100 on Pro+ plan
Paperspace
Developer-friendly GPU cloud platform
Возможности:
- Gradient notebooks
- A100 available
- Persistent storage
- Team collaboration
Методы установки
ComfyUI Workflow
ЛегкоVisual node-based interface for music generation
Шаги:
- 1Install ComfyUI following official guide
- 2Install HeartMuLa custom nodes from ComfyUI Manager
- 3Download HeartMuLa model from Hugging Face
- 4Place model in ComfyUI/models/heartmula/
- 5Load the example workflow and start creating
Команды:
cd ComfyUI/custom_nodes
git clone https://github.com/m-a-p/ComfyUI-HeartMuLa
pip install -r ComfyUI-HeartMuLa/requirements.txtPython Package
СреднеDirect Python API for programmatic access
Шаги:
- 1Create a virtual environment
- 2Install PyTorch with CUDA support
- 3Install HeartMuLa from pip
- 4Download model weights
- 5Run inference script
Команды:
python -m venv heartmula-env
source heartmula-env/bin/activate
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install heartmula
heartmula download --model 3bDocker Container
ПродвинутоContainerized deployment for production use
Шаги:
- 1Install Docker and NVIDIA Container Toolkit
- 2Pull the official HeartMuLa Docker image
- 3Run container with GPU access
- 4Access the web UI or API endpoint
Команды:
docker pull heartmula/heartmula:latest
docker run --gpus all -p 7860:7860 heartmula/heartmula:latestЧасто задаваемые вопросы
Можно ли запустить HeartMuLa с менее чем 24GB VRAM?
Да, с квантованием FP16 можно запустить на GPU с 16GB VRAM, таких как RTX 4080. Качество может быть немного снижено.
Работает ли HeartMuLa на Mac с Apple Silicon?
В настоящее время нет. HeartMuLa требует CUDA (GPU NVIDIA). macOS с Apple Silicon пока не поддерживается.
Сколько времени занимает генерация песни?
На RTX 4090 песня длиной 3 минуты занимает около 2-3 минут. Время генерации зависит от продолжительности.
Можно ли использовать созданную музыку коммерчески?
Да! HeartMuLa имеет лицензию Apache 2.0. Вы владеете всеми правами на создаваемую музыку.