Guía de configuración completa para Windows, macOS y Linux — incluyendo solución de errores más comunes.
Última actualización: Febrero 2026
| Component | Minimum | Recommended |
|---|---|---|
| GPU | NVIDIA RTX 2080 (8GB VRAM) | NVIDIA RTX 3090/4090 (24GB VRAM) |
| CPU | Intel i7-8700 / AMD Ryzen 7 3700X | Intel i9-12900K / AMD Ryzen 9 5900X |
| RAM | 16GB DDR4 | 32GB+ DDR4 |
| Storage | 20GB SSD | 50GB+ NVMe SSD |
| CUDA Version | 11.8 | 12.1 |
| Python | 3.9 | 3.10 or 3.11 |
| OS | Windows 10, macOS 12, Ubuntu 20.04 | Ubuntu 22.04 LTS (best performance) |
Descarga e instala Miniconda desde conda.io. Esto gestiona tu entorno Python y previene conflictos de dependencias.
Ejecuta: git clone https://github.com/ace-step/ACE-Step.git && cd ACE-Step
git clone https://github.com/ace-step/ACE-Step.git
cd ACE-StepEjecuta: conda env create -f environment.yml && conda activate ace-step
conda env create -f environment.yml
conda activate ace-stepPara CUDA 11.8: pip install torch==2.0.1+cu118 -f https://download.pytorch.org/whl/cu118/torch_stable.html
pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 torchaudio==2.0.2+cu118 \
-f https://download.pytorch.org/whl/cu118/torch_stable.htmlEjecuta: python download_models.py para obtener el checkpoint del modelo (~15GB) de HuggingFace.
python download_models.pyEjecuta: python app.py para iniciar la interfaz web Gradio en http://localhost:7860
python app.pyPara generación más rápida, usa precisión FP16 (bandera --fp16) en GPUs compatibles. Instala xformers para habilitar la atención xFormers y obtener un 30-40% de mejora en velocidad.
pip install xformers
python app.py --fp16Si encuentras errores CUDA OOM, intenta habilitar la cuantización de 8 bits añadiendo --quantize int8 al comando de inicio. Alternativamente, habilita la descarga de CPU con --cpu-offload.
python app.py --quantize int8
# or
python app.py --cpu-offload --fp16ACE-Step requiere versiones específicas de PyTorch y CUDA. Siempre usa el archivo de entorno conda proporcionado o requirements.txt.
Si el puerto 7860 está ocupado, añade --port 7861 (o cualquier puerto disponible) al comando de inicio de Gradio.
python app.py --port 7861Asegúrate de tener espacio suficiente en disco (los pesos del modelo son ~15GB). Ejecuta el script de descarga desde el directorio raíz del proyecto.
¿No te gustan los comandos de terminal y el infierno de dependencias? FM9 ofrece generación de música IA compatible con ACE-Step en tu navegador. Sin GPU, sin configuración, sin esperar.
Comenzar a Crear Gratis