Windows、macOS 和 Linux 的完整安裝指南——包括最常見錯誤的排查方法。
最後更新:2026年2月
| Component | Minimum | Recommended |
|---|---|---|
| GPU | NVIDIA RTX 2080 (8GB VRAM) | NVIDIA RTX 3090/4090 (24GB VRAM) |
| CPU | Intel i7-8700 / AMD Ryzen 7 3700X | Intel i9-12900K / AMD Ryzen 9 5900X |
| RAM | 16GB DDR4 | 32GB+ DDR4 |
| Storage | 20GB SSD | 50GB+ NVMe SSD |
| CUDA Version | 11.8 | 12.1 |
| Python | 3.9 | 3.10 or 3.11 |
| OS | Windows 10, macOS 12, Ubuntu 20.04 | Ubuntu 22.04 LTS (best performance) |
從 conda.io 下載並安裝 Miniconda。這用於管理你的 Python 環境並防止相依性衝突。
執行:git clone https://github.com/ace-step/ACE-Step.git && cd ACE-Step
git clone https://github.com/ace-step/ACE-Step.git
cd ACE-Step執行:conda env create -f environment.yml && conda activate ace-step
conda env create -f environment.yml
conda activate ace-step對於 CUDA 11.8:pip install torch==2.0.1+cu118 -f https://download.pytorch.org/whl/cu118/torch_stable.html
pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 torchaudio==2.0.2+cu118 \
-f https://download.pytorch.org/whl/cu118/torch_stable.html執行:python download_models.py,從 HuggingFace 獲取約 15GB 的模型檢查點。
python download_models.py執行:python app.py,在 http://localhost:7860 啟動 Gradio Web 介面。
python app.py為獲得更快的生成速度,在支援的 GPU 上使用 FP16 精度(--fp16 標誌)。透過安裝 xformers 啟用 xFormers 注意力機制,可提速 30-40%。
pip install xformers
python app.py --fp16如果遇到 CUDA OOM 錯誤,嘗試透過在啟動命令中新增 --quantize int8 來啟用 8 位元量化。或者,使用 --cpu-offload 啟用 CPU 卸載,將部分層移至系統記憶體。
python app.py --quantize int8
# or
python app.py --cpu-offload --fp16ACE-Step 需要特定版本的 PyTorch 和 CUDA。請始終使用提供的 conda 環境檔案或 requirements.txt。
如果連接埠 7860 繁忙,在 Gradio 啟動命令中新增 --port 7861(或任何可用連接埠)。
python app.py --port 7861確保磁碟空間充足(模型權重約 15GB)。從專案根目錄(而非子目錄)執行下載腳本。