Windows, macOS, Linux를 위한 완전한 설정 가이드 — 가장 일반적인 오류 해결 방법 포함.
최종 업데이트: 2026년 2월
| Component | Minimum | Recommended |
|---|---|---|
| GPU | NVIDIA RTX 2080 (8GB VRAM) | NVIDIA RTX 3090/4090 (24GB VRAM) |
| CPU | Intel i7-8700 / AMD Ryzen 7 3700X | Intel i9-12900K / AMD Ryzen 9 5900X |
| RAM | 16GB DDR4 | 32GB+ DDR4 |
| Storage | 20GB SSD | 50GB+ NVMe SSD |
| CUDA Version | 11.8 | 12.1 |
| Python | 3.9 | 3.10 or 3.11 |
| OS | Windows 10, macOS 12, Ubuntu 20.04 | Ubuntu 22.04 LTS (best performance) |
conda.io에서 Miniconda를 다운로드하여 설치하세요. 이것은 Python 환경을 관리하고 종속성 충돌을 방지합니다.
실행: git clone https://github.com/ace-step/ACE-Step.git && cd ACE-Step
git clone https://github.com/ace-step/ACE-Step.git
cd ACE-Step실행: conda env create -f environment.yml && conda activate ace-step
conda env create -f environment.yml
conda activate ace-stepCUDA 11.8의 경우: pip install torch==2.0.1+cu118 -f https://download.pytorch.org/whl/cu118/torch_stable.html
pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 torchaudio==2.0.2+cu118 \
-f https://download.pytorch.org/whl/cu118/torch_stable.html실행: python download_models.py로 HuggingFace에서 약 15GB 모델 체크포인트를 다운로드합니다.
python download_models.py실행: python app.py로 http://localhost:7860에서 Gradio 웹 인터페이스를 시작합니다.
python app.py더 빠른 생성을 위해 지원되는 GPU에서 FP16 정밀도(--fp16 플래그)를 사용하세요. xformers를 설치하여 xFormers 어텐션을 활성화하면 30~40% 속도 향상이 가능합니다.
pip install xformers
python app.py --fp16CUDA OOM 오류가 발생하면 실행 명령에 --quantize int8을 추가하여 8비트 양자화를 활성화하세요. 또는 --cpu-offload로 CPU 오프로드를 활성화하여 일부 레이어를 시스템 RAM으로 이동하세요.
python app.py --quantize int8
# or
python app.py --cpu-offload --fp16ACE-Step은 특정 버전의 PyTorch와 CUDA가 필요합니다. 항상 제공된 conda 환경 파일 또는 requirements.txt를 사용하세요.
포트 7860이 사용 중인 경우 Gradio 실행 명령에 --port 7861(또는 사용 가능한 포트)을 추가하세요.
python app.py --port 7861디스크 공간이 충분한지 확인하세요(모델 가중치는 약 15GB). 하위 디렉토리가 아닌 프로젝트 루트 디렉토리에서 다운로드 스크립트를 실행하세요.
터미널 명령어와 종속성 지옥이 싫으신가요? FM9은 브라우저에서 클라우드 기반 AI 음악 생성을 제공합니다. GPU 불필요, 설정 불필요, 대기 불필요.
무료로 만들기 시작