Por el equipo editorial de RunAIatHome. Benchmarks, compatibilidad y guias basadas en pruebas locales.
Stable Diffusion en local: requisitos, instalación y guía rápida [2026]
Generar imágenes con IA sin pagar suscripción, sin límites y sin censura. Stable Diffusion corre en tu GPU y el resultado es tuyo al 100%. Esta guía cubre los requisitos reales de VRAM por modelo, la instalación con ComfyUI en 15 minutos y los benchmarks por GPU para que sepas exactamente qué esperar de tu hardware.
¿No sabes si tu GPU puede con SD? Usa la Calculadora VRAM para saber exactamente qué modelos puedes correr con tu hardware actual — sin adivinar.
TL;DR: • La RTX 3060 12 GB es el hardware ideal para Stable Diffusion: soporta SDXL, SD 3.5 Medium y Flux.1 Dev sin problemas • SDXL genera imágenes en ~7 segundos a 1024 px con RTX 3060; Flux.1 necesita mínimo 12 GB de VRAM • Completamente gratuito y open-source — sin suscripción, sin límites de generación, con control total
1. ¿Qué es Stable Diffusion y por qué correrlo en local?
Stable Diffusion es un modelo de generación de imágenes por IA que convierte texto en imágenes (text-to-image). A diferencia de Midjourney o DALL-E, es open-source: puedes descargarlo, ejecutarlo en tu propia GPU y modificar absolutamente todo. Sin suscripción. Sin límites de generación. Sin filtros impuestos.
Desde su lanzamiento en 2022, SD se ha convertido en la base de toda una industria: millones de artistas, developers y creadores lo usan a diario. En 2026, con modelos como SDXL, SD 3.5 y Flux.1, la calidad rivaliza directamente con servicios de pago. Y lo mejor: corre en hardware consumer accesible.
Privacidad total
Tus prompts y tus imágenes no salen de tu máquina. Nada se envía a servidores externos. Esto es crítico si trabajas con contenido sensible, arte conceptual para clientes o simplemente no quieres que una empresa tenga registro de lo que generas.
Sin límites ni censura
Midjourney limita tu plan mensual y censura estilos y contenido. Con SD local generas lo que quieras, las veces que quieras. ¿Quieres generar 500 variaciones de un diseño? Adelante. Tu GPU, tu tiempo, sin restricciones artificiales.
Velocidad y control
Una RTX 3060 genera una imagen SDXL a 1024px en ~7 segundos. Una RTX 4090 en ~3.5 segundos. Sin colas de espera, sin depender de que el servicio esté online. Además, tienes acceso a LoRA, ControlNet, inpainting, outpainting, upscaling... un nivel de control imposible en servicios cloud.
Gratis desde el primer día
Midjourney requiere suscripción mensual. DALL-E cobra por imagen. SD local: coste marginal casi nulo después de tu GPU. Si ya tienes una GPU de gaming con 8+ GB de VRAM, puedes empezar ahora mismo. El ahorro frente a servicios de pago se acumula desde el mes uno.
En resumen: SD local es para quien quiere control total, cero dependencias externas y generación ilimitada. Si solo quieres generar 10 imágenes bonitas al mes, Midjourney puede ser más cómodo. Si quieres herramienta de trabajo profesional sin costes recurrentes: SD local no tiene rival.
2. Requisitos de hardware
SD no es tan exigente como los LLMs grandes, pero la VRAM sigue siendo el cuello de botella. La buena noticia: con 6 GB de VRAM ya corres SDXL. Aquí tienes las tres configuraciones típicas.
| Componente | Mínimo | Recomendado | Ideal |
|---|---|---|---|
| GPU | GTX 1060 6GB | RTX 3060 12GB | RTX 4070 Ti Super 16GB |
| VRAM | 6 GB | 12 GB | 16+ GB |
| RAM | 8 GB | 16 GB | 32 GB |
| Almacenamiento | 20 GB libres (SSD) | 50 GB SSD | 100+ GB NVMe |
| CPU | 4 cores | 6+ cores | 8+ cores |
| OS | Windows 10 / Linux | Windows 11 / Ubuntu 22.04+ | Linux (máximo rendimiento) |
| Modelos que corres | SD 1.5, SD 3 Medium | SDXL, SD 3.5 Medium | SD 3.5 Large, Flux.1 |
Nota sobre almacenamiento: Los modelos pesan entre 2 GB (SD 3 Medium) y 12 GB (Flux.1 Dev). Si planeas tener varios modelos, LoRAs y checkpoints personalizados, 50 GB se quedan cortos rápido. Un SSD NVMe de 1 TB dedicado a modelos es la inversión más inteligente después de la GPU.
La VRAM lo decide todo. La CPU apenas importa durante la generación (solo preprocesa el prompt). La RAM del sistema necesita ser suficiente para cargar el modelo a memoria antes de pasarlo a la GPU, pero 16 GB cubren cualquier modelo actual. El cuello de botella real es cuántos GB de VRAM tiene tu tarjeta gráfica.
¿Tienes dudas sobre si tu GPU puede con un modelo concreto? La Calculadora VRAM te da la respuesta exacta en 10 segundos.
3. Qué versión de Stable Diffusion elegir en 2026
En 2026 hay múltiples modelos en la familia SD, cada uno con diferentes requisitos y calidad. Aquí va el mapa completo para que no pierdas tiempo probando el modelo equivocado para tu hardware.
| Modelo | VRAM mínima | Resolución nativa | Calidad | Velocidad | Veredicto |
|---|---|---|---|---|---|
| SD 1.5 | 4 GB | 512 x 512 | Aceptable | Muy rápido | Legacy — solo para GPUs viejas |
| SDXL | 6 GB | 1024 x 1024 | Muy buena | Rápido | Mejor relación calidad/VRAM |
| SD 3 Medium | 3 GB | 1024 x 1024 | Buena | Muy rápido | Ligero, bueno para GPUs con poca VRAM |
| SD 3.5 Medium | 5 GB | 1024 x 1024 | Muy buena | Rápido | Paso intermedio, buen balance |
| SD 3.5 Large | 10 GB | 1024 x 1024 | Excelente | Moderado | Necesita 12+ GB GPU |
| Flux.1 Dev | 12 GB | 1024 x 1024 | Top tier | Lento | Necesita 16+ GB GPU |
| Flux.1 Schnell | 12 GB | 1024 x 1024 | Muy buena | Rápido | Misma VRAM que Dev, más rápido |
La recomendación directa
Si tienes 8-12 GB de VRAM: empieza con SDXL. Es el modelo con mejor ecosistema (miles de LoRAs, checkpoints fine-tuned, tutoriales), calidad excelente a 1024px y corre cómodo en una RTX 3060 12GB. El 90% de los usuarios no necesitan más.
Si tienes 16+ GB de VRAM
Prueba Flux.1 Dev para calidad máxima o SD 3.5 Large para un buen equilibrio velocidad/calidad. Flux.1 Schnell es una versión acelerada de Flux con la misma VRAM pero generación más rápida — ideal si primas velocidad sobre fidelidad máxima al prompt.
Si tienes menos de 6 GB
SD 3 Medium con 3 GB de VRAM o SD 1.5 con 4 GB. La calidad no es la misma que SDXL, pero puedes generar imágenes funcionales. Si tu GPU tiene solo 4 GB, es hora de considerar una actualización — una RTX 3060 12GB por menos de 300 euros cambia completamente la experiencia.
4. Instalación rápida con ComfyUI
ComfyUI es la interfaz más popular para Stable Diffusion en 2026. Basada en nodos, permite construir workflows visuales que van desde una generación simple hasta pipelines complejos con ControlNet, LoRA, upscaling y post-procesado encadenado. Y se instala en 15 minutos.
Requisitos previos: Python 3.10+, Git y drivers NVIDIA actualizados (CUDA 12.x). Si tienes AMD, necesitas ROCm en Linux. Apple Silicon funciona nativamente con MPS.
Paso 1: Clonar ComfyUI
Abre la terminal y clona el repositorio oficial:
git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI
Paso 2: Crear entorno virtual e instalar dependencias
Crea un entorno virtual de Python para aislar las dependencias:
python -m venv venv source venv/bin/activate # Linux/Mac # venv\Scripts\activate # Windows pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 pip install -r requirements.txt
AMD (ROCm):
Reemplaza cu121 por rocm6.0 en la URL de PyTorch.
Solo funciona en Linux.
Paso 3: Descargar un modelo
Descarga el checkpoint de SDXL (recomendado para empezar) y colócalo en la carpeta de modelos:
# Descargar SDXL Base 1.0 (~6.5 GB) wget -P models/checkpoints/ \ https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors
Alternativa: descarga manualmente desde HuggingFace
y copia el archivo .safetensors a ComfyUI/models/checkpoints/.
Paso 4: Iniciar ComfyUI
python main.py
ComfyUI se abre en http://127.0.0.1:8188.
Verás la interfaz de nodos con un workflow por defecto. Selecciona tu modelo SDXL en el nodo
"Load Checkpoint", escribe un prompt y pulsa "Queue Prompt".
Paso 5: Tu primera imagen
Prueba con un prompt sencillo para verificar que todo funciona:
a photograph of a futuristic city at sunset, dramatic lighting, highly detailed, 8k, professional photography
Con SDXL a 1024x1024 en una RTX 3060, la primera imagen tarda unos 10-12 segundos (incluye carga del modelo). Las siguientes generaciones bajan a ~7 segundos porque el modelo ya está en VRAM.
Tip: ComfyUI Manager es una extensión que te permite instalar nodos adicionales (ControlNet, upscalers, LoRA loaders) directamente desde la interfaz. Instálalo después del setup inicial para expandir las capacidades.
5. Alternativas: AUTOMATIC1111 y Fooocus
ComfyUI no es la única opción. Dependiendo de tu perfil, una de estas alternativas puede encajarte mejor.
AUTOMATIC1111 / Forge WebUI
La interfaz web clásica de Stable Diffusion. Diseño tipo formulario: escribes el prompt, ajustas parámetros (steps, CFG scale, sampler) y generas. No necesitas entender nodos. Forge es un fork optimizado que usa menos VRAM y es más rápido en GPUs con 8 GB.
Instalación rápida:
git clone https://github.com/lllyasviel/stable-diffusion-webui-forge.git cd stable-diffusion-webui-forge # Windows: ejecutar webui-user.bat # Linux: bash webui.sh
Ideal para: principiantes que quieren interfaz sencilla, usuarios que migran de Midjourney y no quieren aprender nodos.
Fooocus
La opción más simple posible. Diseñada para ser "Midjourney pero local": abres la app, escribes un prompt y listo. Fooocus optimiza automáticamente los parámetros, selecciona el sampler adecuado y aplica prompt enhancement sin que tengas que tocar nada.
git clone https://github.com/lllyasviel/Fooocus.git cd Fooocus python -m venv fooocus_env && source fooocus_env/bin/activate pip install -r requirements_versions.txt python entry_with_update.py
Ideal para: usuarios que solo quieren generar imágenes sin aprender parámetros técnicos. Necesita 8+ GB de VRAM (usa SDXL por defecto).
| Interfaz | Dificultad | Control | Mejor para |
|---|---|---|---|
| ComfyUI | Media-alta | Total | Workflows complejos, ControlNet, batch |
| A1111 / Forge | Baja-media | Alto | Principiantes, interfaz tradicional |
| Fooocus | Muy baja | Limitado | Generar rápido sin configurar |
Mi recomendación: empieza con Fooocus para tu primera sesión y verifica que tu hardware funciona. Cuando quieras más control, migra a ComfyUI. Es la inversión de tiempo que más retorno da: una vez entiendes los nodos, no hay límite a lo que puedes construir.
6. Benchmarks por GPU: tiempos de generación reales
Tiempos medidos con ComfyUI, SDXL/SD 3.5/Flux a resolución nativa (1024x1024), 20 steps, Euler sampler. Son tiempos de generación pura (sin contar carga del modelo). Compara estas GPUs lado a lado en el Comparador de GPUs.
| GPU | VRAM | SD 1.5 (512px) | SDXL (1024px) | SD 3.5 Large | Flux.1 Dev |
|---|---|---|---|---|---|
| RTX 4090 | 24 GB | ~1.2s | ~3.5s | ~5s | ~8s |
| RTX 4070 Ti Super | 16 GB | ~2.5s | ~5s | ~8s | ~12s |
| RX 7900 XTX (AMD) | 24 GB | ~2s | ~4.5s | ~7s | ~10s |
| RTX 3060 12GB | 12 GB | ~4s | ~7s | ~12s | NO (VRAM) |
| RTX 4060 8GB | 8 GB | ~3s | ~5s | NO | NO |
*Tiempos medidos con ComfyUI, 20 steps, Euler sampler, resolución nativa de cada modelo. NVIDIA driver 550+, CUDA 12.4, Ubuntu 24.04. "NO" significa que el modelo no cabe en la VRAM disponible sin técnicas de offloading que degradan la experiencia. AMD medido con ROCm 6.0 en Linux.
¿Qué significan estos tiempos en la práctica?
Con una RTX 3060 y SDXL: 7 segundos por imagen a 1024px. Si generas un batch de 4 variaciones, son ~28 segundos. Si haces 50 generaciones en una sesión de trabajo, son menos de 6 minutos de tiempo GPU total. Compara eso con Midjourney donde esperas en cola y cada generación cuenta contra tu límite mensual.
La RTX 3060 12GB: el sweet spot para SD
No es casualidad que aparezca en todas nuestras guías. 12 GB de VRAM permiten correr SDXL e incluso SD 3.5 Large cómodamente. A ~7 seg por imagen SDXL es perfectamente usable para trabajo real. Y por menos de 300 euros, no hay nada que compita en relación VRAM/precio. Lee nuestro análisis completo de la RTX 3060 para IA.
7. Trucos para optimizar rendimiento
Si tu GPU va justa de VRAM o quieres exprimir más velocidad, estos trucos te ayudan a sacar el máximo de tu hardware sin gastar un euro más.
1. VAE Tiling
El VAE (Variational Autoencoder) que decodifica la imagen final es uno de los mayores consumidores de VRAM. Con tiling, el VAE procesa la imagen en trozos en lugar de toda de golpe. En ComfyUI, activa el nodo "VAE Decode (Tiled)" en vez del estándar.
Ahorro: ~1-2 GB de VRAM pico. Imprescindible si generas a resoluciones mayores de 1024px.
2. Attention Slicing / xFormers
La atención (attention) del modelo se calcula en bloques más pequeños para reducir el pico de VRAM.
En AUTOMATIC1111/Forge, actívalo con el flag --xformers al iniciar.
ComfyUI lo detecta automáticamente si tienes xFormers instalado.
pip install xformers
Ahorro: ~20-30% menos VRAM y generación ~10% más rápida. Sin pérdida de calidad.
3. Flag --lowvram y --medvram
Si tu GPU tiene 4-6 GB, estos flags en AUTOMATIC1111/Forge mueven partes del modelo entre CPU y GPU
durante la generación. --medvram
divide la generación en fases; --lowvram
es más agresivo y permite correr modelos en GPUs de 4 GB.
# Para GPUs con 4-6 GB de VRAM python launch.py --lowvram --xformers # Para GPUs con 6-8 GB de VRAM python launch.py --medvram --xformers
Trade-off: la generación será 2-3x más lenta porque hay transferencia constante CPU-GPU. Pero permite correr modelos que de otra forma no cabrían.
4. FP16 en lugar de FP32
La mayoría de modelos modernos (SDXL, SD 3.5, Flux) ya vienen en FP16 por defecto. Si estás usando un modelo en FP32 (pesa el doble), convierte a FP16: misma calidad visual, mitad de VRAM. ComfyUI y Forge usan FP16 automáticamente.
Ahorro: 50% de VRAM si el modelo original está en FP32.
5. Reducir steps sin perder calidad
SDXL con 20 steps produce resultados prácticamente idénticos a 30 o 50 steps para la mayoría de prompts. Flux.1 Schnell está optimizado para funcionar con solo 4 steps. Menos steps = generación más rápida.
Recomendación: empieza con 20 steps para SDXL, 25 para SD 3.5, y 4 para Flux.1 Schnell. Sube solo si ves artefactos o falta de detalle.
Regla general: Si la imagen se ve bien con menos VRAM y menos steps, no necesitas más. Optimiza para tu caso de uso real, no para maximizar calidad teórica. El 80% del resultado viene del prompt y del modelo, no de los parámetros.
8. FAQ — Preguntas frecuentes
¿Cuánta VRAM necesito para correr Stable Diffusion en local?
Depende del modelo. SD 1.5 funciona con 4 GB. SDXL necesita 6 GB mínimo (8 GB recomendado). SD 3.5 Large requiere 10 GB. Flux.1 Dev necesita 12 GB mínimo, idealmente 16 GB. Para empezar con SDXL, una RTX 3060 12GB es la opción más racional: te sobra VRAM y genera imágenes en ~7 segundos a 1024px.
¿Puedo correr Stable Diffusion sin GPU dedicada?
Técnicamente sí, pero no es práctico. Con CPU, una imagen SD 1.5 a 512px tarda 3-5 minutos en vez de 4 segundos. SDXL a 1024px puede superar los 10 minutos. Para uso real necesitas una GPU con al menos 6 GB de VRAM. Excepción: Apple Silicon (M1/M2/M3/M4) funciona razonablemente bien gracias a la memoria unificada — un M2 Pro con 16 GB genera SDXL en ~12 segundos.
¿Qué interfaz es mejor: ComfyUI, AUTOMATIC1111 o Fooocus?
ComfyUI para workflows avanzados y máximo control. AUTOMATIC1111/Forge para interfaz tradicional y buena experiencia out-of-the-box. Fooocus para generación rápida sin configuración (estilo Midjourney). Si planeas usar SD en serio: aprende ComfyUI. La curva de aprendizaje es mayor pero el techo es infinitamente más alto.
¿Stable Diffusion es gratis?
Completamente. Los modelos son open-source con licencias que permiten uso personal y comercial. Las interfaces (ComfyUI, AUTOMATIC1111, Fooocus) son gratuitas. El único coste es tu hardware. Sin suscripciones, sin créditos, sin límites de generación. Si ya tienes una GPU de gaming con 8+ GB de VRAM, puedes empezar ahora mismo a coste cero.
¿Qué es mejor: Stable Diffusion local o Midjourney?
Midjourney produce resultados excelentes out-of-the-box pero requiere suscripción mensual, tiene límites de generación y censura contenido. SD local es gratis, sin límites, sin censura y con control total (LoRA, ControlNet, inpainting avanzado). La calidad de SDXL y Flux.1 en 2026 es comparable a Midjourney v6. Si generas más de 50 imágenes al mes, SD local se amortiza en menos de 6 meses considerando lo que ahorras en suscripción.
9. GPUs recomendadas para Stable Diffusion
Tres niveles según presupuesto y ambición. Todas las GPUs probadas con SD real — no recomendaciones basadas en specs de fabricante. Si quieres comparar más opciones, visita nuestra guía de mejores GPUs para IA local en 2026.
Affiliate disclosure: esta comparativa incluye enlaces de afiliado a Amazon. Si compras desde ellos, RunAIatHome puede recibir una comisión sin coste extra para ti.
Mejor GPU para Stable Diffusion: comparativa rápida
Estas tres GPUs cubren los tres escenarios que importan de verdad para generar imágenes en local: presupuesto mínimo útil, punto dulce con 16 GB y opción de trabajo intensivo.
Ganador recomendado
RTX 4060 Ti 16GB
Es la mejor compra general para Stable Diffusion en 2026: abre la puerta a Flux.1, mantiene consumo bajo y cuesta mucho menos que una GPU premium.
| GPU | Mejor para | Rendimiento | Rango | CTA |
|---|---|---|---|---|
| RTX 4060 Ti 16GB | Flux.1, SDXL y SD 3.5 | ~4.5s en SDXL 1024px | Gama media | Ver precio en Amazon |
| RTX 3060 12GB | SDXL barato y sin complicaciones | ~7s en SDXL 1024px | Budget | Ver precio en Amazon |
| RTX 4070 Ti Super | Batchs grandes y trabajo intensivo | ~12s en Flux.1 Dev | Premium | Ver precio en Amazon |
RTX 3060 12GB — Entrada (menos de 300 euros)
El punto de entrada más racional para Stable Diffusion
12 GB de VRAM por menos de 300 euros. Corre SDXL a 1024px en ~7 segundos y SD 3.5 Large en ~12 segundos. No llega a Flux.1 por VRAM (necesita 16+ GB), pero para SDXL — que es el modelo con mejor ecosistema de LoRAs y checkpoints en 2026 — es más que suficiente. Consumo de 170W: no necesitas PSU premium. Lee el análisis completo de la RTX 3060 para IA.
RTX 4060 Ti 16GB — Sweet spot (400-500 euros)
16 GB de VRAM para correr todos los modelos actuales, incluido Flux.1
16 GB desbloquean Flux.1 Dev y Flux.1 Schnell, los modelos de mayor calidad disponibles en 2026. Con SD 3.5 Large y SDXL tienes margen de sobra. Eficiencia energética excelente con solo 165W de TDP. Si tu presupuesto llega a 450-500 euros, esta GPU te da acceso a todo el ecosistema SD sin limitaciones de VRAM.
RTX 4070 Ti Super — Performance (700-800 euros)
Velocidad real de trabajo: batch de imágenes sin esperar
La misma VRAM que la RTX 4060 Ti 16GB pero con un salto brutal en velocidad de cómputo. SDXL en ~5 segundos, Flux.1 en ~12 segundos. Si generas imágenes profesionalmente o necesitas iterar rápido con batches grandes, esta GPU recorta tiempos de espera notablemente. También es excelente para LLMs — una GPU que sirve para todo.
¿Tienes GPU AMD? La RX 7900 XTX con 24 GB es una opción seria para SD en Linux con ROCm. Tiempos de generación competitivos (~4.5s SDXL, ~10s Flux.1) y más VRAM que cualquier NVIDIA consumer a ese precio. Lee nuestra guía de GPUs AMD para IA local.
10. Conclusión
Stable Diffusion en local en 2026 es sorprendentemente accesible. Con una RTX 3060 12GB (menos de 300 euros) corres SDXL a 1024px en 7 segundos. Con 16 GB de VRAM desbloqueas Flux.1 y SD 3.5 Large, los modelos de mayor calidad. La instalación con ComfyUI tarda 15 minutos. Y una vez que está corriendo, es gratis para siempre: sin suscripción, sin límites, sin censura.
El camino más práctico: instala Fooocus para verificar que tu hardware funciona, genera tus primeras imágenes y familiarízate con los prompts. Cuando quieras más control, migra a ComfyUI y empieza a experimentar con LoRAs, ControlNet y workflows avanzados. Con SD 3.5 y Flux.1, la calidad que consigues en local rivaliza con Midjourney v6 — y cada imagen que generas es tuya al 100%.
RTX 3060 12GB. SDXL cómodo, SD 3.5 Large ajustado, Flux.1 no. La mejor entrada posible.
RTX 4060 Ti 16GB. Todos los modelos SD + Flux.1 sin limitaciones de VRAM. Eficiencia máxima.
RTX 4070 Ti Super. Velocidad de trabajo profesional. Batches rápidos, todo el ecosistema SD + LLMs.
¿Quieres saber exactamente qué GPU necesitas?
La Calculadora VRAM de RunAIatHome analiza tu caso concreto: elige el modelo de SD que quieres correr y te dice qué GPUs son compatibles, con tiempos de generación estimados.
Productos recomendados
Selección verificada con ASINs reales — actualizada en 2026.
€1799
NVIDIA RTX 4090 24GB
Pros
- 24 GB VRAM — Flux.1 Dev sin compromiso
- El más rápido en generación de imágenes
- Todo el ecosistema CUDA disponible
Cons
- Precio muy elevado
€699
NVIDIA RTX 3090 24GB
Pros
- 24 GB VRAM a precio de segunda mano
- Flux.1 Dev completo en VRAM
- Excelente relación VRAM/precio
Cons
- Arquitectura Ampere más antigua
€499
NVIDIA RTX 4070 Super 12GB
Pros
- SDXL y SD 3.5 sin limitaciones
- Ada Lovelace eficiente energéticamente
- Buen equilibrio precio-rendimiento
Cons
- 12 GB limita Flux.1 Dev completo
€269
NVIDIA RTX 3060 12GB
Pros
- 12 GB VRAM — la mejor entrada para SD
- SDXL en ~7 segundos a 1024px
- Precio de entrada muy ajustado
Cons
- Flux.1 Dev no cabe completo
€799
AMD Radeon RX 7900 XTX 24GB
Pros
- 24 GB VRAM alternativa AMD
- Flux.1 completo en Linux con ROCm
- Precio inferior a RTX 4090
Cons
- Soporte de frameworks limitado vs CUDA
Como asociado de Amazon, ganamos una comisión por compras que cumplan los requisitos. Esto no afecta nuestras recomendaciones.