Install Guide

Wie Man ACE-Step Lokal Installiert

Vollständige Einrichtungsanleitung für Windows, macOS und Linux — einschließlich Fehlerbehebung der häufigsten Fehler.

Zuletzt aktualisiert: Februar 2026

Systemanforderungen

ComponentMinimumRecommended
GPUNVIDIA RTX 2080 (8GB VRAM)NVIDIA RTX 3090/4090 (24GB VRAM)
CPUIntel i7-8700 / AMD Ryzen 7 3700XIntel i9-12900K / AMD Ryzen 9 5900X
RAM16GB DDR432GB+ DDR4
Storage20GB SSD50GB+ NVMe SSD
CUDA Version11.812.1
Python3.93.10 or 3.11
OSWindows 10, macOS 12, Ubuntu 20.04Ubuntu 22.04 LTS (best performance)

Installationsschritte

  1. 1

    Conda oder Miniconda Installieren

    Laden Sie Miniconda von conda.io herunter und installieren Sie es. Dies verwaltet Ihre Python-Umgebung und verhindert Abhängigkeitskonflikte.

  2. 2

    Repository Klonen

    Ausführen: git clone https://github.com/ace-step/ACE-Step.git && cd ACE-Step

    git clone https://github.com/ace-step/ACE-Step.git
    cd ACE-Step
  3. 3

    Conda-Umgebung Erstellen

    Ausführen: conda env create -f environment.yml && conda activate ace-step

    conda env create -f environment.yml
    conda activate ace-step
  4. 4

    PyTorch mit CUDA Installieren

    Für CUDA 11.8: pip install torch==2.0.1+cu118 -f https://download.pytorch.org/whl/cu118/torch_stable.html

    pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 torchaudio==2.0.2+cu118 \
      -f https://download.pytorch.org/whl/cu118/torch_stable.html
  5. 5

    Modellgewichte Herunterladen

    Ausführen: python download_models.py um den ~15GB Modell-Checkpoint von HuggingFace zu holen.

    python download_models.py
  6. 6

    Web UI Starten

    Ausführen: python app.py um die Gradio-Weboberfläche unter http://localhost:7860 zu starten.

    python app.py

Leistungsoptimierung

Für schnellere Generierung verwenden Sie FP16-Präzision (--fp16 Flag) auf unterstützten GPUs. Installieren Sie xformers für xFormers-Attention und eine 30-40% Geschwindigkeitsverbesserung.

pip install xformers
python app.py --fp16

Häufige Probleme und Lösungen

Nicht Genug Speicher (OOM) Fehler

Bei CUDA OOM-Fehlern versuchen Sie, 8-Bit-Quantisierung durch Hinzufügen von --quantize int8 zu Ihrem Startbefehl zu aktivieren. Alternativ aktivieren Sie CPU-Offload mit --cpu-offload.

python app.py --quantize int8
# or
python app.py --cpu-offload --fp16

Abhängigkeitskonflikte

ACE-Step benötigt spezifische Versionen von PyTorch und CUDA. Verwenden Sie immer die bereitgestellte Conda-Umgebungsdatei oder requirements.txt.

Port Bereits Belegt

Wenn Port 7860 belegt ist, fügen Sie --port 7861 (oder einen verfügbaren Port) zum Gradio-Startbefehl hinzu.

python app.py --port 7861

Modellpfad Nicht Gefunden

Stellen Sie sicher, dass Sie genug Speicherplatz haben (~15GB für Modellgewichte). Führen Sie das Download-Skript vom Projektstammverzeichnis aus.

FAQ

Setup Vollständig Überspringen

Keine Freude an Terminal-Befehlen und Abhängigkeitshölle? FM9 bietet Ihnen cloudbasierte KI-Musikgenerierung in Ihrem Browser. Kein GPU, kein Setup, kein Warten.

Kostenlos mit Erstellen Beginnen