Guide de configuration complet pour Windows, macOS et Linux — incluant le dépannage des erreurs les plus courantes.
Dernière mise à jour : Février 2026
| Component | Minimum | Recommended |
|---|---|---|
| GPU | NVIDIA RTX 2080 (8GB VRAM) | NVIDIA RTX 3090/4090 (24GB VRAM) |
| CPU | Intel i7-8700 / AMD Ryzen 7 3700X | Intel i9-12900K / AMD Ryzen 9 5900X |
| RAM | 16GB DDR4 | 32GB+ DDR4 |
| Storage | 20GB SSD | 50GB+ NVMe SSD |
| CUDA Version | 11.8 | 12.1 |
| Python | 3.9 | 3.10 or 3.11 |
| OS | Windows 10, macOS 12, Ubuntu 20.04 | Ubuntu 22.04 LTS (best performance) |
Téléchargez et installez Miniconda depuis conda.io. Cela gère votre environnement Python et évite les conflits de dépendances.
Exécutez : git clone https://github.com/ace-step/ACE-Step.git && cd ACE-Step
git clone https://github.com/ace-step/ACE-Step.git
cd ACE-StepExécutez : conda env create -f environment.yml && conda activate ace-step
conda env create -f environment.yml
conda activate ace-stepPour CUDA 11.8 : pip install torch==2.0.1+cu118 -f https://download.pytorch.org/whl/cu118/torch_stable.html
pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 torchaudio==2.0.2+cu118 \
-f https://download.pytorch.org/whl/cu118/torch_stable.htmlExécutez : python download_models.py pour récupérer le checkpoint du modèle (~15Go) depuis HuggingFace.
python download_models.pyExécutez : python app.py pour démarrer l'interface web Gradio sur http://localhost:7860
python app.pyPour une génération plus rapide, utilisez la précision FP16 (drapeau --fp16) sur les GPUs supportés. Installez xformers pour activer l'attention xFormers et obtenir une amélioration de vitesse de 30-40%.
pip install xformers
python app.py --fp16Si vous rencontrez des erreurs CUDA OOM, essayez d'activer la quantification 8 bits en ajoutant --quantize int8 à votre commande de lancement. Activez également le déchargement CPU avec --cpu-offload.
python app.py --quantize int8
# or
python app.py --cpu-offload --fp16ACE-Step nécessite des versions spécifiques de PyTorch et CUDA. Utilisez toujours le fichier d'environnement conda fourni ou requirements.txt.
Si le port 7860 est occupé, ajoutez --port 7861 (ou tout port disponible) à la commande de lancement Gradio.
python app.py --port 7861Assurez-vous d'avoir suffisamment d'espace disque (les poids du modèle font ~15Go). Exécutez le script de téléchargement depuis le répertoire racine du projet.
Vous n'aimez pas les commandes terminales et l'enfer des dépendances ? FM9 vous offre la génération de musique IA compatible ACE-Step dans votre navigateur. Sans GPU, sans configuration, sans attente.
Commencer à Créer Gratuitement