Руководство по локальному развёртыванию

Установка HeartMuLa

Запустите генератор музыки ИИ с открытым исходным кодом на своём оборудовании

24GB VRAMRTX 3090+Apache 2.0~12GB

Системные требования

КомпонентМинимумРекомендуется
GPU16GB VRAM (FP16 quantized)24GB+ VRAM
RAM32GB64GB
Storage20GB free space50GB+ SSD
OSLinux / Windows 10+Ubuntu 22.04 / Windows 11
Python3.103.10 - 3.11
CUDA11.812.1+

Поддерживаемые GPU

Оптимально (24GB+ VRAM)

NVIDIA A100 80GB80GB VRAM
NVIDIA A100 40GB40GB VRAM
NVIDIA H10080GB VRAM
RTX 409024GB VRAM
RTX 309024GB VRAM
RTX 3090 Ti24GB VRAM
RTX A600048GB VRAM
RTX A500024GB VRAM
RTX 5000 Ada32GB VRAM

Рекомендуется (16-24GB)

RTX 408016GB VRAM
RTX 4070 Ti Super16GB VRAM
RTX A450020GB VRAM

Минимум (16GB с квантованием)

RTX 4080 Super16GB VRAM
RTX 4070 Ti16GB VRAM

Облачные GPU сервисы

Нет мощной GPU? Арендуйте у этих провайдеров

Рекомендуется

RunPod

GPU cloud platform with easy deployment and competitive pricing

Цена:$0.39 - $1.99/hr

Возможности:

  • RTX 4090 and A100 available
  • Pre-built templates
  • Persistent storage
  • Serverless option
Посетить сайт

Vast.ai

Marketplace for GPU rentals with lowest prices

Цена:$0.20 - $2.00/hr

Возможности:

  • Bid-based pricing
  • Wide GPU selection
  • Docker support
  • Community instances
Посетить сайт

Lambda Labs

ML-focused cloud with high-end GPUs

Цена:$0.50 - $2.49/hr

Возможности:

  • H100 and A100 available
  • Pre-installed ML stack
  • On-demand and reserved
  • Enterprise support
Посетить сайт

Google Colab

Free tier available, good for testing

Цена:Free - $49.99/mo

Возможности:

  • Free T4 GPU tier
  • Jupyter notebook
  • Google Drive integration
  • A100 on Pro+ plan
Посетить сайт

Paperspace

Developer-friendly GPU cloud platform

Цена:$0.45 - $3.09/hr

Возможности:

  • Gradient notebooks
  • A100 available
  • Persistent storage
  • Team collaboration
Посетить сайт

Методы установки

ComfyUI Workflow

Легко

Visual node-based interface for music generation

Шаги:

  1. 1Install ComfyUI following official guide
  2. 2Install HeartMuLa custom nodes from ComfyUI Manager
  3. 3Download HeartMuLa model from Hugging Face
  4. 4Place model in ComfyUI/models/heartmula/
  5. 5Load the example workflow and start creating

Команды:

cd ComfyUI/custom_nodes git clone https://github.com/m-a-p/ComfyUI-HeartMuLa pip install -r ComfyUI-HeartMuLa/requirements.txt

Python Package

Средне

Direct Python API for programmatic access

Шаги:

  1. 1Create a virtual environment
  2. 2Install PyTorch with CUDA support
  3. 3Install HeartMuLa from pip
  4. 4Download model weights
  5. 5Run inference script

Команды:

python -m venv heartmula-env source heartmula-env/bin/activate pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 pip install heartmula heartmula download --model 3b

Docker Container

Продвинуто

Containerized deployment for production use

Шаги:

  1. 1Install Docker and NVIDIA Container Toolkit
  2. 2Pull the official HeartMuLa Docker image
  3. 3Run container with GPU access
  4. 4Access the web UI or API endpoint

Команды:

docker pull heartmula/heartmula:latest docker run --gpus all -p 7860:7860 heartmula/heartmula:latest

Скачать с Hugging Face

Получите веса модели HeartMuLa 3B напрямую с Hugging Face. Лицензия Apache 2.0 для коммерческого использования.

Часто задаваемые вопросы

Можно ли запустить HeartMuLa с менее чем 24GB VRAM?

Да, с квантованием FP16 можно запустить на GPU с 16GB VRAM, таких как RTX 4080. Качество может быть немного снижено.

Работает ли HeartMuLa на Mac с Apple Silicon?

В настоящее время нет. HeartMuLa требует CUDA (GPU NVIDIA). macOS с Apple Silicon пока не поддерживается.

Сколько времени занимает генерация песни?

На RTX 4090 песня длиной 3 минуты занимает около 2-3 минут. Время генерации зависит от продолжительности.

Можно ли использовать созданную музыку коммерчески?

Да! HeartMuLa имеет лицензию Apache 2.0. Вы владеете всеми правами на создаваемую музыку.

Нужна помощь для начала?

Сначала попробуйте HeartMuLa онлайн или просмотрите теги стилей, чтобы узнать возможности.