تثبيت HeartMuLa
شغّل مولد الموسيقى بالذكاء الاصطناعي مفتوح المصدر على جهازك الخاص
متطلبات النظام
| المكوّن | الحد الأدنى | الموصى به |
|---|---|---|
| GPU | 16GB VRAM (FP16 quantized) | 24GB+ VRAM |
| RAM | 32GB | 64GB |
| Storage | 20GB free space | 50GB+ SSD |
| OS | Linux / Windows 10+ | Ubuntu 22.04 / Windows 11 |
| Python | 3.10 | 3.10 - 3.11 |
| CUDA | 11.8 | 12.1+ |
وحدات GPU المدعومة
الأمثل (24GB+ VRAM)
الموصى به (16-24GB)
الحد الأدنى (16GB مع التكميم)
خدمات GPU السحابية
ليس لديك GPU قوية؟ استأجر واحدة من هذه الموفرين
RunPod
GPU cloud platform with easy deployment and competitive pricing
الميزات:
- RTX 4090 and A100 available
- Pre-built templates
- Persistent storage
- Serverless option
Vast.ai
Marketplace for GPU rentals with lowest prices
الميزات:
- Bid-based pricing
- Wide GPU selection
- Docker support
- Community instances
Lambda Labs
ML-focused cloud with high-end GPUs
الميزات:
- H100 and A100 available
- Pre-installed ML stack
- On-demand and reserved
- Enterprise support
Google Colab
Free tier available, good for testing
الميزات:
- Free T4 GPU tier
- Jupyter notebook
- Google Drive integration
- A100 on Pro+ plan
Paperspace
Developer-friendly GPU cloud platform
الميزات:
- Gradient notebooks
- A100 available
- Persistent storage
- Team collaboration
طرق التثبيت
ComfyUI Workflow
سهلVisual node-based interface for music generation
الخطوات:
- 1Install ComfyUI following official guide
- 2Install HeartMuLa custom nodes from ComfyUI Manager
- 3Download HeartMuLa model from Hugging Face
- 4Place model in ComfyUI/models/heartmula/
- 5Load the example workflow and start creating
الأوامر:
cd ComfyUI/custom_nodes
git clone https://github.com/m-a-p/ComfyUI-HeartMuLa
pip install -r ComfyUI-HeartMuLa/requirements.txtPython Package
متوسطDirect Python API for programmatic access
الخطوات:
- 1Create a virtual environment
- 2Install PyTorch with CUDA support
- 3Install HeartMuLa from pip
- 4Download model weights
- 5Run inference script
الأوامر:
python -m venv heartmula-env
source heartmula-env/bin/activate
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install heartmula
heartmula download --model 3bDocker Container
متقدمContainerized deployment for production use
الخطوات:
- 1Install Docker and NVIDIA Container Toolkit
- 2Pull the official HeartMuLa Docker image
- 3Run container with GPU access
- 4Access the web UI or API endpoint
الأوامر:
docker pull heartmula/heartmula:latest
docker run --gpus all -p 7860:7860 heartmula/heartmula:latestالأسئلة الشائعة
هل يمكنني تشغيل HeartMuLa بأقل من 24GB VRAM؟
نعم، مع تكميم FP16 يمكنك التشغيل على وحدات GPU بـ 16GB VRAM مثل RTX 4080. قد تنخفض الجودة قليلاً.
هل يعمل HeartMuLa على Mac مع Apple Silicon؟
حالياً لا. يتطلب HeartMuLa CUDA (GPU من NVIDIA). macOS مع Apple Silicon غير مدعوم حتى الآن.
كم من الوقت يستغرق إنشاء أغنية؟
على RTX 4090، تستغرق أغنية مدتها 3 دقائق حوالي 2-3 دقائق. يتناسب وقت الإنشاء مع المدة.
هل يمكنني استخدام الموسيقى المُنشأة تجارياً؟
نعم! HeartMuLa مرخص بموجب Apache 2.0. تمتلك جميع الحقوق على الموسيقى التي تنشئها.