Local image generation
A setup for generating images with Stable Diffusion and Flux — no limits, no queues, no platform censorship.
GPUs compatibles con este setup
Este escenario necesita al menos 12 GB de VRAM. Estas GPUs pueden ejecutarlo:
Precios y disponibilidad pueden variar. Ver todas las GPUs NVIDIA →
Por qué este setup
Este escenario está diseñado para creators and digital artists. La RTX 3060 12 GB ofrece el equilibrio óptimo entre capacidad (12 GB de VRAM mínimos), disponibilidad en el mercado y coste relativo para los casos de uso de este escenario.
Con 12 GB de VRAM puedes cargar los modelos recomendados en cuantización Q4 sin sacrificar demasiada calidad. El software listado está seleccionado por ser open source, activamente mantenido y compatible con el hardware de este tier.
Stack de software
Guía de configuración paso a paso
- 1
Install Python 3.10+ and Git on your system.
- 2
Clone ComfyUI: `git clone https://github.com/comfyanonymous/ComfyUI.git`.
- 3
Install dependencies: `pip install -r requirements.txt`.
- 4
Download an SDXL checkpoint from Hugging Face and drop it into `models/checkpoints/`.
- 5
Start ComfyUI: `python main.py` and visit http://localhost:8188.
- 6
For Flux, download the Flux.1-schnell model from Hugging Face (account required, accept terms).
Modelos compatibles recomendados
Preguntas frecuentes
How much VRAM do I need for Stable Diffusion XL?
SDXL base requires at least 8 GB of VRAM. With 12 GB (RTX 3060) you can generate 1024x1024 images comfortably. For Flux.1-dev in FP16 you need 24 GB, but quantized (GGUF) it can run on 12 GB.
ComfyUI or Automatic1111 to start?
For beginners, Automatic1111 has a gentler learning curve and more tutorials. ComfyUI is more powerful and flexible — ideal for advanced workflows with ControlNet, combined LoRAs, and custom pipelines.
Can I use an AMD GPU for image generation?
Yes. ComfyUI supports ROCm on AMD (mostly Linux). On Windows, AMD support is more limited. AMD GPUs like the RX 7900 XTX (24 GB) are excellent for image workloads, especially on Linux with ROCm.
Otros escenarios
Herramientas relacionadas
Found this useful? Get guides like this in your inbox every week.