Installer HeartMuLa
Exécutez le générateur de musique IA open source sur votre propre matériel
Configuration Requise
| Composant | Minimum | Recommandé |
|---|---|---|
| GPU | 16GB VRAM (FP16 quantized) | 24GB+ VRAM |
| RAM | 32GB | 64GB |
| Storage | 20GB free space | 50GB+ SSD |
| OS | Linux / Windows 10+ | Ubuntu 22.04 / Windows 11 |
| Python | 3.10 | 3.10 - 3.11 |
| CUDA | 11.8 | 12.1+ |
GPUs Compatibles
Optimal (24GB+ VRAM)
Recommandé (16-24GB)
Minimum (16GB avec quantification)
Services GPU Cloud
Pas de GPU puissant ? Louez-en un chez ces fournisseurs
RunPod
GPU cloud platform with easy deployment and competitive pricing
Fonctionnalités:
- RTX 4090 and A100 available
- Pre-built templates
- Persistent storage
- Serverless option
Vast.ai
Marketplace for GPU rentals with lowest prices
Fonctionnalités:
- Bid-based pricing
- Wide GPU selection
- Docker support
- Community instances
Lambda Labs
ML-focused cloud with high-end GPUs
Fonctionnalités:
- H100 and A100 available
- Pre-installed ML stack
- On-demand and reserved
- Enterprise support
Google Colab
Free tier available, good for testing
Fonctionnalités:
- Free T4 GPU tier
- Jupyter notebook
- Google Drive integration
- A100 on Pro+ plan
Paperspace
Developer-friendly GPU cloud platform
Fonctionnalités:
- Gradient notebooks
- A100 available
- Persistent storage
- Team collaboration
Méthodes d'Installation
ComfyUI Workflow
FacileVisual node-based interface for music generation
Étapes:
- 1Install ComfyUI following official guide
- 2Install HeartMuLa custom nodes from ComfyUI Manager
- 3Download HeartMuLa model from Hugging Face
- 4Place model in ComfyUI/models/heartmula/
- 5Load the example workflow and start creating
Commandes:
cd ComfyUI/custom_nodes
git clone https://github.com/m-a-p/ComfyUI-HeartMuLa
pip install -r ComfyUI-HeartMuLa/requirements.txtPython Package
MoyenDirect Python API for programmatic access
Étapes:
- 1Create a virtual environment
- 2Install PyTorch with CUDA support
- 3Install HeartMuLa from pip
- 4Download model weights
- 5Run inference script
Commandes:
python -m venv heartmula-env
source heartmula-env/bin/activate
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install heartmula
heartmula download --model 3bDocker Container
AvancéContainerized deployment for production use
Étapes:
- 1Install Docker and NVIDIA Container Toolkit
- 2Pull the official HeartMuLa Docker image
- 3Run container with GPU access
- 4Access the web UI or API endpoint
Commandes:
docker pull heartmula/heartmula:latest
docker run --gpus all -p 7860:7860 heartmula/heartmula:latestQuestions Fréquentes
Puis-je exécuter HeartMuLa avec moins de 24GB de VRAM ?
Oui, avec la quantification FP16, vous pouvez exécuter sur des GPUs 16GB VRAM comme la RTX 4080. La qualité peut être légèrement réduite.
HeartMuLa fonctionne-t-il sur Mac avec Apple Silicon ?
Actuellement non. HeartMuLa nécessite CUDA (GPU NVIDIA). macOS avec Apple Silicon n'est pas encore supporté.
Combien de temps faut-il pour générer une chanson ?
Sur RTX 4090, une chanson de 3 minutes prend environ 2-3 minutes. Le temps de génération varie avec la durée.
Puis-je utiliser la musique générée commercialement ?
Oui ! HeartMuLa est sous licence Apache 2.0. Vous avez tous les droits sur la musique que vous générez.