Windows、macOS、Linux向けの完全セットアップガイド——最も一般的なエラーのトラブルシューティングを含む。
最終更新:2026年2月
| Component | Minimum | Recommended |
|---|---|---|
| GPU | NVIDIA RTX 2080 (8GB VRAM) | NVIDIA RTX 3090/4090 (24GB VRAM) |
| CPU | Intel i7-8700 / AMD Ryzen 7 3700X | Intel i9-12900K / AMD Ryzen 9 5900X |
| RAM | 16GB DDR4 | 32GB+ DDR4 |
| Storage | 20GB SSD | 50GB+ NVMe SSD |
| CUDA Version | 11.8 | 12.1 |
| Python | 3.9 | 3.10 or 3.11 |
| OS | Windows 10, macOS 12, Ubuntu 20.04 | Ubuntu 22.04 LTS (best performance) |
conda.ioからMinicondaをダウンロードしてインストールします。これにより、Python環境を管理し、依存関係の競合を防ぎます。
実行:git clone https://github.com/ace-step/ACE-Step.git && cd ACE-Step
git clone https://github.com/ace-step/ACE-Step.git
cd ACE-Step実行:conda env create -f environment.yml && conda activate ace-step
conda env create -f environment.yml
conda activate ace-stepCUDA 11.8の場合:pip install torch==2.0.1+cu118 -f https://download.pytorch.org/whl/cu118/torch_stable.html
pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 torchaudio==2.0.2+cu118 \
-f https://download.pytorch.org/whl/cu118/torch_stable.html実行:python download_models.py でHuggingFaceから約15GBのモデルチェックポイントをダウンロードします。
python download_models.py実行:python app.py でhttp://localhost:7860にGradio Webインターフェースを起動します。
python app.pyより高速な生成のために、対応GPUでFP16精度(--fp16フラグ)を使用してください。xformersをインストールしてxFormersアテンションを有効にすると30〜40%の速度向上が見込めます。
pip install xformers
python app.py --fp16CUDA OOMエラーが発生した場合は、起動コマンドに--quantize int8を追加して8ビット量子化を有効にしてください。または、--cpu-offloadでCPUオフロードを有効にして一部のレイヤーをシステムRAMに移動します。
python app.py --quantize int8
# or
python app.py --cpu-offload --fp16ACE-Stepには特定バージョンのPyTorchとCUDAが必要です。提供されているconda環境ファイルまたはrequirements.txtを必ず使用してください。
ポート7860が使用中の場合は、Gradio起動コマンドに--port 7861(または利用可能なポート)を追加してください。
python app.py --port 7861ディスク容量が十分にあることを確認してください(モデルウェイトは約15GB)。サブディレクトリではなく、プロジェクトのルートディレクトリからダウンロードスクリプトを実行してください。