HeartMuLa Installieren
Führen Sie den Open-Source KI-Musikgenerator auf Ihrer eigenen Hardware aus
Systemanforderungen
| Komponente | Minimum | Empfohlen |
|---|---|---|
| GPU | 16GB VRAM (FP16 quantized) | 24GB+ VRAM |
| RAM | 32GB | 64GB |
| Storage | 20GB free space | 50GB+ SSD |
| OS | Linux / Windows 10+ | Ubuntu 22.04 / Windows 11 |
| Python | 3.10 | 3.10 - 3.11 |
| CUDA | 11.8 | 12.1+ |
Unterstützte GPUs
Optimal (24GB+ VRAM)
Empfohlen (16-24GB)
Minimum (16GB mit Quantisierung)
Cloud GPU Dienste
Keine leistungsstarke GPU? Mieten Sie eine bei diesen Anbietern
RunPod
GPU cloud platform with easy deployment and competitive pricing
Funktionen:
- RTX 4090 and A100 available
- Pre-built templates
- Persistent storage
- Serverless option
Vast.ai
Marketplace for GPU rentals with lowest prices
Funktionen:
- Bid-based pricing
- Wide GPU selection
- Docker support
- Community instances
Lambda Labs
ML-focused cloud with high-end GPUs
Funktionen:
- H100 and A100 available
- Pre-installed ML stack
- On-demand and reserved
- Enterprise support
Google Colab
Free tier available, good for testing
Funktionen:
- Free T4 GPU tier
- Jupyter notebook
- Google Drive integration
- A100 on Pro+ plan
Paperspace
Developer-friendly GPU cloud platform
Funktionen:
- Gradient notebooks
- A100 available
- Persistent storage
- Team collaboration
Installationsmethoden
ComfyUI Workflow
EinfachVisual node-based interface for music generation
Schritte:
- 1Install ComfyUI following official guide
- 2Install HeartMuLa custom nodes from ComfyUI Manager
- 3Download HeartMuLa model from Hugging Face
- 4Place model in ComfyUI/models/heartmula/
- 5Load the example workflow and start creating
Befehle:
cd ComfyUI/custom_nodes
git clone https://github.com/m-a-p/ComfyUI-HeartMuLa
pip install -r ComfyUI-HeartMuLa/requirements.txtPython Package
MittelDirect Python API for programmatic access
Schritte:
- 1Create a virtual environment
- 2Install PyTorch with CUDA support
- 3Install HeartMuLa from pip
- 4Download model weights
- 5Run inference script
Befehle:
python -m venv heartmula-env
source heartmula-env/bin/activate
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install heartmula
heartmula download --model 3bDocker Container
FortgeschrittenContainerized deployment for production use
Schritte:
- 1Install Docker and NVIDIA Container Toolkit
- 2Pull the official HeartMuLa Docker image
- 3Run container with GPU access
- 4Access the web UI or API endpoint
Befehle:
docker pull heartmula/heartmula:latest
docker run --gpus all -p 7860:7860 heartmula/heartmula:latestHäufig Gestellte Fragen
Kann ich HeartMuLa mit weniger als 24GB VRAM ausführen?
Ja, mit FP16-Quantisierung können Sie auf 16GB VRAM GPUs wie RTX 4080 ausführen. Die Qualität kann leicht reduziert sein.
Funktioniert HeartMuLa auf Mac mit Apple Silicon?
Derzeit nein. HeartMuLa benötigt CUDA (NVIDIA GPU). macOS mit Apple Silicon wird noch nicht unterstützt.
Wie lange dauert es, einen Song zu generieren?
Auf RTX 4090 dauert ein 3-minütiger Song etwa 2-3 Minuten. Die Generierungszeit skaliert mit der Dauer.
Kann ich die generierte Musik kommerziell nutzen?
Ja! HeartMuLa ist unter Apache 2.0 lizenziert. Sie besitzen alle Rechte an der Musik, die Sie generieren.