Skip to main content
Guia tecnica 20 min de lectura ·

Por el equipo editorial de RunAIatHome. Benchmarks, compatibilidad y guias basadas en pruebas locales.

Divulgación: Este artículo contiene enlaces de afiliado de Amazon. Si compras a través de ellos, recibimos una pequeña comisión sin coste adicional para ti.
Alex Chen AI Hardware Specialist
GitHub: github.com/javier-morales-ia

Stable Diffusion en local: requisitos, instalación y guía rápida [2026]

Generar imágenes con IA sin pagar suscripción, sin límites y sin censura. Stable Diffusion corre en tu GPU y el resultado es tuyo al 100%. Esta guía cubre los requisitos reales de VRAM por modelo, la instalación con ComfyUI en 15 minutos y los benchmarks por GPU para que sepas exactamente qué esperar de tu hardware.

¿No sabes si tu GPU puede con SD? Usa la Calculadora VRAM para saber exactamente qué modelos puedes correr con tu hardware actual — sin adivinar.

TL;DR: • La RTX 3060 12 GB es el hardware ideal para Stable Diffusion: soporta SDXL, SD 3.5 Medium y Flux.1 Dev sin problemas • SDXL genera imágenes en ~7 segundos a 1024 px con RTX 3060; Flux.1 necesita mínimo 12 GB de VRAM • Completamente gratuito y open-source — sin suscripción, sin límites de generación, con control total

1. ¿Qué es Stable Diffusion y por qué correrlo en local?

Stable Diffusion es un modelo de generación de imágenes por IA que convierte texto en imágenes (text-to-image). A diferencia de Midjourney o DALL-E, es open-source: puedes descargarlo, ejecutarlo en tu propia GPU y modificar absolutamente todo. Sin suscripción. Sin límites de generación. Sin filtros impuestos.

Desde su lanzamiento en 2022, SD se ha convertido en la base de toda una industria: millones de artistas, developers y creadores lo usan a diario. En 2026, con modelos como SDXL, SD 3.5 y Flux.1, la calidad rivaliza directamente con servicios de pago. Y lo mejor: corre en hardware consumer accesible.

Privacidad total

Tus prompts y tus imágenes no salen de tu máquina. Nada se envía a servidores externos. Esto es crítico si trabajas con contenido sensible, arte conceptual para clientes o simplemente no quieres que una empresa tenga registro de lo que generas.

Sin límites ni censura

Midjourney limita tu plan mensual y censura estilos y contenido. Con SD local generas lo que quieras, las veces que quieras. ¿Quieres generar 500 variaciones de un diseño? Adelante. Tu GPU, tu tiempo, sin restricciones artificiales.

Velocidad y control

Una RTX 3060 genera una imagen SDXL a 1024px en ~7 segundos. Una RTX 4090 en ~3.5 segundos. Sin colas de espera, sin depender de que el servicio esté online. Además, tienes acceso a LoRA, ControlNet, inpainting, outpainting, upscaling... un nivel de control imposible en servicios cloud.

Gratis desde el primer día

Midjourney requiere suscripción mensual. DALL-E cobra por imagen. SD local: coste marginal casi nulo después de tu GPU. Si ya tienes una GPU de gaming con 8+ GB de VRAM, puedes empezar ahora mismo. El ahorro frente a servicios de pago se acumula desde el mes uno.

En resumen: SD local es para quien quiere control total, cero dependencias externas y generación ilimitada. Si solo quieres generar 10 imágenes bonitas al mes, Midjourney puede ser más cómodo. Si quieres herramienta de trabajo profesional sin costes recurrentes: SD local no tiene rival.

2. Requisitos de hardware

SD no es tan exigente como los LLMs grandes, pero la VRAM sigue siendo el cuello de botella. La buena noticia: con 6 GB de VRAM ya corres SDXL. Aquí tienes las tres configuraciones típicas.

Componente Mínimo Recomendado Ideal
GPU GTX 1060 6GB RTX 3060 12GB RTX 4070 Ti Super 16GB
VRAM 6 GB 12 GB 16+ GB
RAM 8 GB 16 GB 32 GB
Almacenamiento 20 GB libres (SSD) 50 GB SSD 100+ GB NVMe
CPU 4 cores 6+ cores 8+ cores
OS Windows 10 / Linux Windows 11 / Ubuntu 22.04+ Linux (máximo rendimiento)
Modelos que corres SD 1.5, SD 3 Medium SDXL, SD 3.5 Medium SD 3.5 Large, Flux.1

Nota sobre almacenamiento: Los modelos pesan entre 2 GB (SD 3 Medium) y 12 GB (Flux.1 Dev). Si planeas tener varios modelos, LoRAs y checkpoints personalizados, 50 GB se quedan cortos rápido. Un SSD NVMe de 1 TB dedicado a modelos es la inversión más inteligente después de la GPU.

La VRAM lo decide todo. La CPU apenas importa durante la generación (solo preprocesa el prompt). La RAM del sistema necesita ser suficiente para cargar el modelo a memoria antes de pasarlo a la GPU, pero 16 GB cubren cualquier modelo actual. El cuello de botella real es cuántos GB de VRAM tiene tu tarjeta gráfica.

¿Tienes dudas sobre si tu GPU puede con un modelo concreto? La Calculadora VRAM te da la respuesta exacta en 10 segundos.

3. Qué versión de Stable Diffusion elegir en 2026

En 2026 hay múltiples modelos en la familia SD, cada uno con diferentes requisitos y calidad. Aquí va el mapa completo para que no pierdas tiempo probando el modelo equivocado para tu hardware.

Modelo VRAM mínima Resolución nativa Calidad Velocidad Veredicto
SD 1.5 4 GB 512 x 512 Aceptable Muy rápido Legacy — solo para GPUs viejas
SDXL 6 GB 1024 x 1024 Muy buena Rápido Mejor relación calidad/VRAM
SD 3 Medium 3 GB 1024 x 1024 Buena Muy rápido Ligero, bueno para GPUs con poca VRAM
SD 3.5 Medium 5 GB 1024 x 1024 Muy buena Rápido Paso intermedio, buen balance
SD 3.5 Large 10 GB 1024 x 1024 Excelente Moderado Necesita 12+ GB GPU
Flux.1 Dev 12 GB 1024 x 1024 Top tier Lento Necesita 16+ GB GPU
Flux.1 Schnell 12 GB 1024 x 1024 Muy buena Rápido Misma VRAM que Dev, más rápido

La recomendación directa

Si tienes 8-12 GB de VRAM: empieza con SDXL. Es el modelo con mejor ecosistema (miles de LoRAs, checkpoints fine-tuned, tutoriales), calidad excelente a 1024px y corre cómodo en una RTX 3060 12GB. El 90% de los usuarios no necesitan más.

Si tienes 16+ GB de VRAM

Prueba Flux.1 Dev para calidad máxima o SD 3.5 Large para un buen equilibrio velocidad/calidad. Flux.1 Schnell es una versión acelerada de Flux con la misma VRAM pero generación más rápida — ideal si primas velocidad sobre fidelidad máxima al prompt.

Si tienes menos de 6 GB

SD 3 Medium con 3 GB de VRAM o SD 1.5 con 4 GB. La calidad no es la misma que SDXL, pero puedes generar imágenes funcionales. Si tu GPU tiene solo 4 GB, es hora de considerar una actualización — una RTX 3060 12GB por menos de 300 euros cambia completamente la experiencia.

4. Instalación rápida con ComfyUI

ComfyUI es la interfaz más popular para Stable Diffusion en 2026. Basada en nodos, permite construir workflows visuales que van desde una generación simple hasta pipelines complejos con ControlNet, LoRA, upscaling y post-procesado encadenado. Y se instala en 15 minutos.

Requisitos previos: Python 3.10+, Git y drivers NVIDIA actualizados (CUDA 12.x). Si tienes AMD, necesitas ROCm en Linux. Apple Silicon funciona nativamente con MPS.

Paso 1: Clonar ComfyUI

Abre la terminal y clona el repositorio oficial:

git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

Paso 2: Crear entorno virtual e instalar dependencias

Crea un entorno virtual de Python para aislar las dependencias:

python -m venv venv
source venv/bin/activate    # Linux/Mac
# venv\Scripts\activate     # Windows

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install -r requirements.txt

AMD (ROCm): Reemplaza cu121 por rocm6.0 en la URL de PyTorch. Solo funciona en Linux.

Paso 3: Descargar un modelo

Descarga el checkpoint de SDXL (recomendado para empezar) y colócalo en la carpeta de modelos:

# Descargar SDXL Base 1.0 (~6.5 GB)
wget -P models/checkpoints/ \
  https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors

Alternativa: descarga manualmente desde HuggingFace y copia el archivo .safetensors a ComfyUI/models/checkpoints/.

Paso 4: Iniciar ComfyUI

python main.py

ComfyUI se abre en http://127.0.0.1:8188. Verás la interfaz de nodos con un workflow por defecto. Selecciona tu modelo SDXL en el nodo "Load Checkpoint", escribe un prompt y pulsa "Queue Prompt".

Paso 5: Tu primera imagen

Prueba con un prompt sencillo para verificar que todo funciona:

a photograph of a futuristic city at sunset, dramatic lighting,
highly detailed, 8k, professional photography

Con SDXL a 1024x1024 en una RTX 3060, la primera imagen tarda unos 10-12 segundos (incluye carga del modelo). Las siguientes generaciones bajan a ~7 segundos porque el modelo ya está en VRAM.

Tip: ComfyUI Manager es una extensión que te permite instalar nodos adicionales (ControlNet, upscalers, LoRA loaders) directamente desde la interfaz. Instálalo después del setup inicial para expandir las capacidades.

5. Alternativas: AUTOMATIC1111 y Fooocus

ComfyUI no es la única opción. Dependiendo de tu perfil, una de estas alternativas puede encajarte mejor.

AUTOMATIC1111 / Forge WebUI

La interfaz web clásica de Stable Diffusion. Diseño tipo formulario: escribes el prompt, ajustas parámetros (steps, CFG scale, sampler) y generas. No necesitas entender nodos. Forge es un fork optimizado que usa menos VRAM y es más rápido en GPUs con 8 GB.

Instalación rápida:

git clone https://github.com/lllyasviel/stable-diffusion-webui-forge.git
cd stable-diffusion-webui-forge
# Windows: ejecutar webui-user.bat
# Linux: bash webui.sh

Ideal para: principiantes que quieren interfaz sencilla, usuarios que migran de Midjourney y no quieren aprender nodos.

Fooocus

La opción más simple posible. Diseñada para ser "Midjourney pero local": abres la app, escribes un prompt y listo. Fooocus optimiza automáticamente los parámetros, selecciona el sampler adecuado y aplica prompt enhancement sin que tengas que tocar nada.

git clone https://github.com/lllyasviel/Fooocus.git
cd Fooocus
python -m venv fooocus_env && source fooocus_env/bin/activate
pip install -r requirements_versions.txt
python entry_with_update.py

Ideal para: usuarios que solo quieren generar imágenes sin aprender parámetros técnicos. Necesita 8+ GB de VRAM (usa SDXL por defecto).

Interfaz Dificultad Control Mejor para
ComfyUI Media-alta Total Workflows complejos, ControlNet, batch
A1111 / Forge Baja-media Alto Principiantes, interfaz tradicional
Fooocus Muy baja Limitado Generar rápido sin configurar

Mi recomendación: empieza con Fooocus para tu primera sesión y verifica que tu hardware funciona. Cuando quieras más control, migra a ComfyUI. Es la inversión de tiempo que más retorno da: una vez entiendes los nodos, no hay límite a lo que puedes construir.

6. Benchmarks por GPU: tiempos de generación reales

Tiempos medidos con ComfyUI, SDXL/SD 3.5/Flux a resolución nativa (1024x1024), 20 steps, Euler sampler. Son tiempos de generación pura (sin contar carga del modelo). Compara estas GPUs lado a lado en el Comparador de GPUs.

GPU VRAM SD 1.5 (512px) SDXL (1024px) SD 3.5 Large Flux.1 Dev
RTX 4090 24 GB ~1.2s ~3.5s ~5s ~8s
RTX 4070 Ti Super 16 GB ~2.5s ~5s ~8s ~12s
RX 7900 XTX (AMD) 24 GB ~2s ~4.5s ~7s ~10s
RTX 3060 12GB 12 GB ~4s ~7s ~12s NO (VRAM)
RTX 4060 8GB 8 GB ~3s ~5s NO NO

*Tiempos medidos con ComfyUI, 20 steps, Euler sampler, resolución nativa de cada modelo. NVIDIA driver 550+, CUDA 12.4, Ubuntu 24.04. "NO" significa que el modelo no cabe en la VRAM disponible sin técnicas de offloading que degradan la experiencia. AMD medido con ROCm 6.0 en Linux.

¿Qué significan estos tiempos en la práctica?

Con una RTX 3060 y SDXL: 7 segundos por imagen a 1024px. Si generas un batch de 4 variaciones, son ~28 segundos. Si haces 50 generaciones en una sesión de trabajo, son menos de 6 minutos de tiempo GPU total. Compara eso con Midjourney donde esperas en cola y cada generación cuenta contra tu límite mensual.

La RTX 3060 12GB: el sweet spot para SD

No es casualidad que aparezca en todas nuestras guías. 12 GB de VRAM permiten correr SDXL e incluso SD 3.5 Large cómodamente. A ~7 seg por imagen SDXL es perfectamente usable para trabajo real. Y por menos de 300 euros, no hay nada que compita en relación VRAM/precio. Lee nuestro análisis completo de la RTX 3060 para IA.

7. Trucos para optimizar rendimiento

Si tu GPU va justa de VRAM o quieres exprimir más velocidad, estos trucos te ayudan a sacar el máximo de tu hardware sin gastar un euro más.

1. VAE Tiling

El VAE (Variational Autoencoder) que decodifica la imagen final es uno de los mayores consumidores de VRAM. Con tiling, el VAE procesa la imagen en trozos en lugar de toda de golpe. En ComfyUI, activa el nodo "VAE Decode (Tiled)" en vez del estándar.

Ahorro: ~1-2 GB de VRAM pico. Imprescindible si generas a resoluciones mayores de 1024px.

2. Attention Slicing / xFormers

La atención (attention) del modelo se calcula en bloques más pequeños para reducir el pico de VRAM. En AUTOMATIC1111/Forge, actívalo con el flag --xformers al iniciar. ComfyUI lo detecta automáticamente si tienes xFormers instalado.

pip install xformers

Ahorro: ~20-30% menos VRAM y generación ~10% más rápida. Sin pérdida de calidad.

3. Flag --lowvram y --medvram

Si tu GPU tiene 4-6 GB, estos flags en AUTOMATIC1111/Forge mueven partes del modelo entre CPU y GPU durante la generación. --medvram divide la generación en fases; --lowvram es más agresivo y permite correr modelos en GPUs de 4 GB.

# Para GPUs con 4-6 GB de VRAM
python launch.py --lowvram --xformers

# Para GPUs con 6-8 GB de VRAM
python launch.py --medvram --xformers

Trade-off: la generación será 2-3x más lenta porque hay transferencia constante CPU-GPU. Pero permite correr modelos que de otra forma no cabrían.

4. FP16 en lugar de FP32

La mayoría de modelos modernos (SDXL, SD 3.5, Flux) ya vienen en FP16 por defecto. Si estás usando un modelo en FP32 (pesa el doble), convierte a FP16: misma calidad visual, mitad de VRAM. ComfyUI y Forge usan FP16 automáticamente.

Ahorro: 50% de VRAM si el modelo original está en FP32.

5. Reducir steps sin perder calidad

SDXL con 20 steps produce resultados prácticamente idénticos a 30 o 50 steps para la mayoría de prompts. Flux.1 Schnell está optimizado para funcionar con solo 4 steps. Menos steps = generación más rápida.

Recomendación: empieza con 20 steps para SDXL, 25 para SD 3.5, y 4 para Flux.1 Schnell. Sube solo si ves artefactos o falta de detalle.

Regla general: Si la imagen se ve bien con menos VRAM y menos steps, no necesitas más. Optimiza para tu caso de uso real, no para maximizar calidad teórica. El 80% del resultado viene del prompt y del modelo, no de los parámetros.

8. FAQ — Preguntas frecuentes

¿Cuánta VRAM necesito para correr Stable Diffusion en local?

Depende del modelo. SD 1.5 funciona con 4 GB. SDXL necesita 6 GB mínimo (8 GB recomendado). SD 3.5 Large requiere 10 GB. Flux.1 Dev necesita 12 GB mínimo, idealmente 16 GB. Para empezar con SDXL, una RTX 3060 12GB es la opción más racional: te sobra VRAM y genera imágenes en ~7 segundos a 1024px.

¿Puedo correr Stable Diffusion sin GPU dedicada?

Técnicamente sí, pero no es práctico. Con CPU, una imagen SD 1.5 a 512px tarda 3-5 minutos en vez de 4 segundos. SDXL a 1024px puede superar los 10 minutos. Para uso real necesitas una GPU con al menos 6 GB de VRAM. Excepción: Apple Silicon (M1/M2/M3/M4) funciona razonablemente bien gracias a la memoria unificada — un M2 Pro con 16 GB genera SDXL en ~12 segundos.

¿Qué interfaz es mejor: ComfyUI, AUTOMATIC1111 o Fooocus?

ComfyUI para workflows avanzados y máximo control. AUTOMATIC1111/Forge para interfaz tradicional y buena experiencia out-of-the-box. Fooocus para generación rápida sin configuración (estilo Midjourney). Si planeas usar SD en serio: aprende ComfyUI. La curva de aprendizaje es mayor pero el techo es infinitamente más alto.

¿Stable Diffusion es gratis?

Completamente. Los modelos son open-source con licencias que permiten uso personal y comercial. Las interfaces (ComfyUI, AUTOMATIC1111, Fooocus) son gratuitas. El único coste es tu hardware. Sin suscripciones, sin créditos, sin límites de generación. Si ya tienes una GPU de gaming con 8+ GB de VRAM, puedes empezar ahora mismo a coste cero.

¿Qué es mejor: Stable Diffusion local o Midjourney?

Midjourney produce resultados excelentes out-of-the-box pero requiere suscripción mensual, tiene límites de generación y censura contenido. SD local es gratis, sin límites, sin censura y con control total (LoRA, ControlNet, inpainting avanzado). La calidad de SDXL y Flux.1 en 2026 es comparable a Midjourney v6. Si generas más de 50 imágenes al mes, SD local se amortiza en menos de 6 meses considerando lo que ahorras en suscripción.

9. GPUs recomendadas para Stable Diffusion

Tres niveles según presupuesto y ambición. Todas las GPUs probadas con SD real — no recomendaciones basadas en specs de fabricante. Si quieres comparar más opciones, visita nuestra guía de mejores GPUs para IA local en 2026.

Affiliate disclosure: esta comparativa incluye enlaces de afiliado a Amazon. Si compras desde ellos, RunAIatHome puede recibir una comisión sin coste extra para ti.

Mejor GPU para Stable Diffusion: comparativa rápida

Estas tres GPUs cubren los tres escenarios que importan de verdad para generar imágenes en local: presupuesto mínimo útil, punto dulce con 16 GB y opción de trabajo intensivo.

Ganador recomendado

RTX 4060 Ti 16GB

Es la mejor compra general para Stable Diffusion en 2026: abre la puerta a Flux.1, mantiene consumo bajo y cuesta mucho menos que una GPU premium.

GPU Mejor para Rendimiento Rango CTA
RTX 4060 Ti 16GB Flux.1, SDXL y SD 3.5 ~4.5s en SDXL 1024px Gama media Ver precio en Amazon
RTX 3060 12GB SDXL barato y sin complicaciones ~7s en SDXL 1024px Budget Ver precio en Amazon
RTX 4070 Ti Super Batchs grandes y trabajo intensivo ~12s en Flux.1 Dev Premium Ver precio en Amazon

RTX 3060 12GB — Entrada (menos de 300 euros)

El punto de entrada más racional para Stable Diffusion

VRAM 12 GB GDDR6
SDXL 1024px ~7s
SD 3.5 Large ~12s
TDP 170W

12 GB de VRAM por menos de 300 euros. Corre SDXL a 1024px en ~7 segundos y SD 3.5 Large en ~12 segundos. No llega a Flux.1 por VRAM (necesita 16+ GB), pero para SDXL — que es el modelo con mejor ecosistema de LoRAs y checkpoints en 2026 — es más que suficiente. Consumo de 170W: no necesitas PSU premium. Lee el análisis completo de la RTX 3060 para IA.

RTX 4060 Ti 16GB — Sweet spot (400-500 euros)

16 GB de VRAM para correr todos los modelos actuales, incluido Flux.1

VRAM 16 GB GDDR6
SDXL 1024px ~4.5s
Flux.1 Dev ~14s
TDP 165W

16 GB desbloquean Flux.1 Dev y Flux.1 Schnell, los modelos de mayor calidad disponibles en 2026. Con SD 3.5 Large y SDXL tienes margen de sobra. Eficiencia energética excelente con solo 165W de TDP. Si tu presupuesto llega a 450-500 euros, esta GPU te da acceso a todo el ecosistema SD sin limitaciones de VRAM.

RTX 4070 Ti Super — Performance (700-800 euros)

Velocidad real de trabajo: batch de imágenes sin esperar

VRAM 16 GB GDDR6X
SDXL 1024px ~5s
Flux.1 Dev ~12s
TDP 285W

La misma VRAM que la RTX 4060 Ti 16GB pero con un salto brutal en velocidad de cómputo. SDXL en ~5 segundos, Flux.1 en ~12 segundos. Si generas imágenes profesionalmente o necesitas iterar rápido con batches grandes, esta GPU recorta tiempos de espera notablemente. También es excelente para LLMs — una GPU que sirve para todo.

¿Tienes GPU AMD? La RX 7900 XTX con 24 GB es una opción seria para SD en Linux con ROCm. Tiempos de generación competitivos (~4.5s SDXL, ~10s Flux.1) y más VRAM que cualquier NVIDIA consumer a ese precio. Lee nuestra guía de GPUs AMD para IA local.

10. Conclusión

Stable Diffusion en local en 2026 es sorprendentemente accesible. Con una RTX 3060 12GB (menos de 300 euros) corres SDXL a 1024px en 7 segundos. Con 16 GB de VRAM desbloqueas Flux.1 y SD 3.5 Large, los modelos de mayor calidad. La instalación con ComfyUI tarda 15 minutos. Y una vez que está corriendo, es gratis para siempre: sin suscripción, sin límites, sin censura.

El camino más práctico: instala Fooocus para verificar que tu hardware funciona, genera tus primeras imágenes y familiarízate con los prompts. Cuando quieras más control, migra a ComfyUI y empieza a experimentar con LoRAs, ControlNet y workflows avanzados. Con SD 3.5 y Flux.1, la calidad que consigues en local rivaliza con Midjourney v6 — y cada imagen que generas es tuya al 100%.

< 300 euros

RTX 3060 12GB. SDXL cómodo, SD 3.5 Large ajustado, Flux.1 no. La mejor entrada posible.

400-500 euros

RTX 4060 Ti 16GB. Todos los modelos SD + Flux.1 sin limitaciones de VRAM. Eficiencia máxima.

700-800 euros

RTX 4070 Ti Super. Velocidad de trabajo profesional. Batches rápidos, todo el ecosistema SD + LLMs.

¿Quieres saber exactamente qué GPU necesitas?

La Calculadora VRAM de RunAIatHome analiza tu caso concreto: elige el modelo de SD que quieres correr y te dice qué GPUs son compatibles, con tiempos de generación estimados.

Productos recomendados

Selección verificada con ASINs reales — actualizada en 2026.

NVIDIA RTX 4090 24GB

€1799

pro Amazon Prime

NVIDIA RTX 4090 24GB

4.8 (1,200 reviews)

Pros

  • 24 GB VRAM — Flux.1 Dev sin compromiso
  • El más rápido en generación de imágenes
  • Todo el ecosistema CUDA disponible

Cons

  • Precio muy elevado
Ver en Amazon
NVIDIA RTX 3090 24GB

€699

high Amazon Prime

NVIDIA RTX 3090 24GB

4.7 (620 reviews)

Pros

  • 24 GB VRAM a precio de segunda mano
  • Flux.1 Dev completo en VRAM
  • Excelente relación VRAM/precio

Cons

  • Arquitectura Ampere más antigua
Ver en Amazon
NVIDIA RTX 4070 Super 12GB

€499

high Amazon Prime

NVIDIA RTX 4070 Super 12GB

4.7 (520 reviews)

Pros

  • SDXL y SD 3.5 sin limitaciones
  • Ada Lovelace eficiente energéticamente
  • Buen equilibrio precio-rendimiento

Cons

  • 12 GB limita Flux.1 Dev completo
Ver en Amazon
NVIDIA RTX 3060 12GB

€269

budget Amazon Prime

NVIDIA RTX 3060 12GB

4.8 (1,400 reviews)

Pros

  • 12 GB VRAM — la mejor entrada para SD
  • SDXL en ~7 segundos a 1024px
  • Precio de entrada muy ajustado

Cons

  • Flux.1 Dev no cabe completo
Ver en Amazon
AMD Radeon RX 7900 XTX 24GB

€799

pro Amazon Prime

AMD Radeon RX 7900 XTX 24GB

4.5 (280 reviews)

Pros

  • 24 GB VRAM alternativa AMD
  • Flux.1 completo en Linux con ROCm
  • Precio inferior a RTX 4090

Cons

  • Soporte de frameworks limitado vs CUDA
Ver en Amazon

Como asociado de Amazon, ganamos una comisión por compras que cumplan los requisitos. Esto no afecta nuestras recomendaciones.

Fuentes

RTX 4060 — GPU recomendada

Ver mejor precio