Vollständige Einrichtungsanleitung für Windows, macOS und Linux — einschließlich Fehlerbehebung der häufigsten Fehler.
Zuletzt aktualisiert: Februar 2026
| Component | Minimum | Recommended |
|---|---|---|
| GPU | NVIDIA RTX 2080 (8GB VRAM) | NVIDIA RTX 3090/4090 (24GB VRAM) |
| CPU | Intel i7-8700 / AMD Ryzen 7 3700X | Intel i9-12900K / AMD Ryzen 9 5900X |
| RAM | 16GB DDR4 | 32GB+ DDR4 |
| Storage | 20GB SSD | 50GB+ NVMe SSD |
| CUDA Version | 11.8 | 12.1 |
| Python | 3.9 | 3.10 or 3.11 |
| OS | Windows 10, macOS 12, Ubuntu 20.04 | Ubuntu 22.04 LTS (best performance) |
Laden Sie Miniconda von conda.io herunter und installieren Sie es. Dies verwaltet Ihre Python-Umgebung und verhindert Abhängigkeitskonflikte.
Ausführen: git clone https://github.com/ace-step/ACE-Step.git && cd ACE-Step
git clone https://github.com/ace-step/ACE-Step.git
cd ACE-StepAusführen: conda env create -f environment.yml && conda activate ace-step
conda env create -f environment.yml
conda activate ace-stepFür CUDA 11.8: pip install torch==2.0.1+cu118 -f https://download.pytorch.org/whl/cu118/torch_stable.html
pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 torchaudio==2.0.2+cu118 \
-f https://download.pytorch.org/whl/cu118/torch_stable.htmlAusführen: python download_models.py um den ~15GB Modell-Checkpoint von HuggingFace zu holen.
python download_models.pyAusführen: python app.py um die Gradio-Weboberfläche unter http://localhost:7860 zu starten.
python app.pyFür schnellere Generierung verwenden Sie FP16-Präzision (--fp16 Flag) auf unterstützten GPUs. Installieren Sie xformers für xFormers-Attention und eine 30-40% Geschwindigkeitsverbesserung.
pip install xformers
python app.py --fp16Bei CUDA OOM-Fehlern versuchen Sie, 8-Bit-Quantisierung durch Hinzufügen von --quantize int8 zu Ihrem Startbefehl zu aktivieren. Alternativ aktivieren Sie CPU-Offload mit --cpu-offload.
python app.py --quantize int8
# or
python app.py --cpu-offload --fp16ACE-Step benötigt spezifische Versionen von PyTorch und CUDA. Verwenden Sie immer die bereitgestellte Conda-Umgebungsdatei oder requirements.txt.
Wenn Port 7860 belegt ist, fügen Sie --port 7861 (oder einen verfügbaren Port) zum Gradio-Startbefehl hinzu.
python app.py --port 7861Stellen Sie sicher, dass Sie genug Speicherplatz haben (~15GB für Modellgewichte). Führen Sie das Download-Skript vom Projektstammverzeichnis aus.
Keine Freude an Terminal-Befehlen und Abhängigkeitshölle? FM9 bietet Ihnen cloudbasierte KI-Musikgenerierung in Ihrem Browser. Kein GPU, kein Setup, kein Warten.
Kostenlos mit Erstellen Beginnen