RTX 5090
Ventajas
- Ejecuta Stable Diffusion 3.5 Large Q4 nativo
- 32 GB VRAM — margen suficiente
29 GPUs de consumo pueden ejecutar Stable Diffusion 3.5 Large en Q4 de forma nativa. Umbrales de VRAM y benchmarks precisos abajo.
Precios y disponibilidad pueden cambiar · enlace de afiliado
llama.cpp 0.2.x · CUDA 12 · ROCm 6 · actualizado mensualmente · metodología →
Este modelo requiere unaGPU gama media (16 GB VRAM)
Mejores opciones por compatibilidad, margen de VRAM y valor — precios y disponibilidad pueden cambiar.
Ventajas
Ventajas
Ventajas
Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.
Comprueba si tu GPU puede ejecutar Stable Diffusion 3.5 Large →
Calculadora VRAM — compatibilidad instantánea
RTX 5090
32 GB · Ejecuta Q4 nativo · Ver disponibilidad
*Los precios y la disponibilidad pueden cambiar. Algunos enlaces son de afiliado.
| Cuantización | VRAM necesaria | Espacio en disco | Calidad |
|---|---|---|---|
| FP16 (calidad máxima) | 24 GB | 16 GB | Máxima |
| Q8 (alta calidad) | 14 GB | 8 GB | Casi sin pérdida |
| Q4 (recomendado) Mejor equilibrio | 10 GB | 4 GB | Recomendada |
| Q2 (mínimo) | 8 GB | 2 GB | Pérdida de calidad |
| Desarrollador | Stability AI |
| Parámetros | 8B |
| Licencia | Stability AI Community |
| Casos de uso | image |
| Lanzamiento | 2024-10 |
Hugging Face
stabilityai/stable-diffusion-3.5-large Stable Diffusion 3.5 Large requiere <strong class="text-primary-container">10 GB de VRAM</strong> en Q4. 29 GPUs de consumo cumplen este umbral. Por debajo de 8 GB o 8 GB verás una latencia de offload notable.
29 Q4 nativo · 10 offload
| GPU | VRAM | Compatibilidad | Velocidad est. | Acción |
|---|---|---|---|---|
| RTX 5090 | 32GB | Óptimo | 84 tok/s | Calcular → |
| RTX 4090 | 24GB | Óptimo | 47 tok/s | Calcular → |
| M4 Ultra | 128GB | Óptimo | 51 tok/s | Calcular → |
| RTX 5080 | 16GB | Óptimo | 45 tok/s | Calcular → |
| M3 Ultra | 192GB | Óptimo | 37 tok/s | Calcular → |
| RTX 4080 Super | 16GB | Óptimo | 34 tok/s | Calcular → |
| RTX 5070 Ti | 16GB | Óptimo | 42 tok/s | Calcular → |
| RTX 3090 | 24GB | Óptimo | 44 tok/s | Calcular → |
| M4 Max 48GB | 48GB | Óptimo | 25 tok/s | Calcular → |
| RX 7900 XTX | 24GB | Óptimo | 45 tok/s | Calcular → |
| M4 Max 36GB | 36GB | Óptimo | 25 tok/s | Calcular → |
| RTX 4070 Ti Super | 16GB | Óptimo | 31 tok/s | Calcular → |
| RTX 3080 Ti | 12GB | Óptimo | 33 tok/s | Calcular → |
| RX 7900 XT | 20GB | Óptimo | 37 tok/s | Calcular → |
| RTX 5070 | 12GB | Óptimo | 31 tok/s | Calcular → |
| RTX 3080 | 10GB | Óptimo | 35 tok/s | Calcular → |
| M4 Pro | 24GB | Óptimo | 13 tok/s | Calcular → |
| RX 7800 XT | 16GB | Óptimo | 29 tok/s | Calcular → |
| RX 6800 XT | 16GB | Óptimo | 20 tok/s | Calcular → |
| RTX 4070 | 12GB | Óptimo | 20 tok/s | Calcular → |
| RTX 4060 Ti 16GB | 16GB | Óptimo | 13 tok/s | Calcular → |
| RX 7700 XT | 12GB | Óptimo | 18 tok/s | Calcular → |
| RX 6700 XT | 12GB | Óptimo | 13 tok/s | Calcular → |
| M3 Pro | 18GB | Óptimo | 7 tok/s | Calcular → |
| RTX 2080 Ti | 11GB | Óptimo | 16 tok/s | Calcular → |
| RTX 3060 | 12GB | Óptimo | 17 tok/s | Calcular → |
| M2 Pro | 16GB | Óptimo | 9 tok/s | Calcular → |
| Arc A770 16GB | 16GB | Óptimo | 8 tok/s | Calcular → |
| M1 Pro | 16GB | Óptimo | 9 tok/s | Calcular → |
| RTX 3070 Ti | 8GB | Offload | 23 tok/s | Calcular → |
| RTX 4060 Ti | 8GB | Offload | 19 tok/s | Calcular → |
| RTX 3070 | 8GB | Offload | 19 tok/s | Calcular → |
| RTX 3060 Ti | 8GB | Offload | 18 tok/s | Calcular → |
| RTX 4060 | 8GB | Offload | 14 tok/s | Calcular → |
| RX 7600 | 8GB | Offload | 12 tok/s | Calcular → |
| RX 6600 XT | 8GB | Offload | 12 tok/s | Calcular → |
| Arc A750 8GB | 8GB | Offload | 9 tok/s | Calcular → |
| RX 6600 | 8GB | Offload | 10 tok/s | Calcular → |
| RTX 3050 8GB | 8GB | Offload | 9 tok/s | Calcular → |
Mejores opciones por compatibilidad, margen de VRAM y valor; precios y disponibilidad pueden cambiar.
RTX 5090
32 GB VRAM
Ver disponibilidad →
RTX 4090
24 GB VRAM
Ver disponibilidad →
M4 Ultra
128 GB VRAM
Ver disponibilidad →
Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.
Un modelo ligero como Stable Diffusion 3.5 Large funciona bien en hardware de consumo desde 10 GB de VRAM. Ideal para uso diario con Ollama o LM Studio. Usa la calculadora de VRAM para comprobar tu equipo.
¿Qué GPU merece la pena? Especificaciones y benchmarks reales lado a lado.
GPUs que ejecutan Stable Diffusion 3.5 Large en Q4, ordenadas por rendimiento en IA.
Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.
Modelos similares en la categoría image con requisitos de VRAM comparables.
6.6B parámetros • 6GB VRAM
Stability AI • CreativeML Open RAIL++-M
12B parámetros • 12GB VRAM
Black Forest Labs • FLUX.1-dev Non-Commercial
12B parámetros • 12GB VRAM
Black Forest Labs • Apache-2.0
2B parámetros • 3GB VRAM
Stability AI • Stability AI Community
La calculadora de VRAM te dice exactamente qué cuantización soporta tu hardware.
RTX 5090
Los precios cambian a diario