دليل النشر المحلي

تثبيت HeartMuLa

شغّل مولد الموسيقى بالذكاء الاصطناعي مفتوح المصدر على جهازك الخاص

24GB VRAMRTX 3090+Apache 2.0~12GB

متطلبات النظام

المكوّنالحد الأدنىالموصى به
GPU16GB VRAM (FP16 quantized)24GB+ VRAM
RAM32GB64GB
Storage20GB free space50GB+ SSD
OSLinux / Windows 10+Ubuntu 22.04 / Windows 11
Python3.103.10 - 3.11
CUDA11.812.1+

وحدات GPU المدعومة

الأمثل (24GB+ VRAM)

NVIDIA A100 80GB80GB VRAM
NVIDIA A100 40GB40GB VRAM
NVIDIA H10080GB VRAM
RTX 409024GB VRAM
RTX 309024GB VRAM
RTX 3090 Ti24GB VRAM
RTX A600048GB VRAM
RTX A500024GB VRAM
RTX 5000 Ada32GB VRAM

الموصى به (16-24GB)

RTX 408016GB VRAM
RTX 4070 Ti Super16GB VRAM
RTX A450020GB VRAM

الحد الأدنى (16GB مع التكميم)

RTX 4080 Super16GB VRAM
RTX 4070 Ti16GB VRAM

خدمات GPU السحابية

ليس لديك GPU قوية؟ استأجر واحدة من هذه الموفرين

موصى به

RunPod

GPU cloud platform with easy deployment and competitive pricing

السعر:$0.39 - $1.99/hr

الميزات:

  • RTX 4090 and A100 available
  • Pre-built templates
  • Persistent storage
  • Serverless option
زيارة الموقع

Vast.ai

Marketplace for GPU rentals with lowest prices

السعر:$0.20 - $2.00/hr

الميزات:

  • Bid-based pricing
  • Wide GPU selection
  • Docker support
  • Community instances
زيارة الموقع

Lambda Labs

ML-focused cloud with high-end GPUs

السعر:$0.50 - $2.49/hr

الميزات:

  • H100 and A100 available
  • Pre-installed ML stack
  • On-demand and reserved
  • Enterprise support
زيارة الموقع

Google Colab

Free tier available, good for testing

السعر:Free - $49.99/mo

الميزات:

  • Free T4 GPU tier
  • Jupyter notebook
  • Google Drive integration
  • A100 on Pro+ plan
زيارة الموقع

Paperspace

Developer-friendly GPU cloud platform

السعر:$0.45 - $3.09/hr

الميزات:

  • Gradient notebooks
  • A100 available
  • Persistent storage
  • Team collaboration
زيارة الموقع

طرق التثبيت

ComfyUI Workflow

سهل

Visual node-based interface for music generation

الخطوات:

  1. 1Install ComfyUI following official guide
  2. 2Install HeartMuLa custom nodes from ComfyUI Manager
  3. 3Download HeartMuLa model from Hugging Face
  4. 4Place model in ComfyUI/models/heartmula/
  5. 5Load the example workflow and start creating

الأوامر:

cd ComfyUI/custom_nodes git clone https://github.com/m-a-p/ComfyUI-HeartMuLa pip install -r ComfyUI-HeartMuLa/requirements.txt

Python Package

متوسط

Direct Python API for programmatic access

الخطوات:

  1. 1Create a virtual environment
  2. 2Install PyTorch with CUDA support
  3. 3Install HeartMuLa from pip
  4. 4Download model weights
  5. 5Run inference script

الأوامر:

python -m venv heartmula-env source heartmula-env/bin/activate pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 pip install heartmula heartmula download --model 3b

Docker Container

متقدم

Containerized deployment for production use

الخطوات:

  1. 1Install Docker and NVIDIA Container Toolkit
  2. 2Pull the official HeartMuLa Docker image
  3. 3Run container with GPU access
  4. 4Access the web UI or API endpoint

الأوامر:

docker pull heartmula/heartmula:latest docker run --gpus all -p 7860:7860 heartmula/heartmula:latest

التحميل من Hugging Face

احصل على أوزان نموذج HeartMuLa 3B مباشرة من Hugging Face. رخصة Apache 2.0 للاستخدام التجاري.

الأسئلة الشائعة

هل يمكنني تشغيل HeartMuLa بأقل من 24GB VRAM؟

نعم، مع تكميم FP16 يمكنك التشغيل على وحدات GPU بـ 16GB VRAM مثل RTX 4080. قد تنخفض الجودة قليلاً.

هل يعمل HeartMuLa على Mac مع Apple Silicon؟

حالياً لا. يتطلب HeartMuLa CUDA (GPU من NVIDIA). macOS مع Apple Silicon غير مدعوم حتى الآن.

كم من الوقت يستغرق إنشاء أغنية؟

على RTX 4090، تستغرق أغنية مدتها 3 دقائق حوالي 2-3 دقائق. يتناسب وقت الإنشاء مع المدة.

هل يمكنني استخدام الموسيقى المُنشأة تجارياً؟

نعم! HeartMuLa مرخص بموجب Apache 2.0. تمتلك جميع الحقوق على الموسيقى التي تنشئها.

هل تحتاج مساعدة للبدء؟

جرّب HeartMuLa عبر الإنترنت أولاً، أو تصفح علامات الأنماط لاكتشاف الإمكانيات.