Skip to main content

GPU Finder: ¿Qué GPU necesito para IA local?

Selecciona el tipo de modelo que quieres ejecutar y te mostramos las GPUs recomendadas con datos reales de VRAM.

Javier Morales Especialista en Hardware e IA Local — 8 años de experiencia
GitHub: github.com/javier-morales-ia

Cómo usar esta guía: Identifica el tamaño de modelo que quieres correr, consulta la VRAM mínima necesaria y elige una GPU de la lista. Haz clic en cualquier par modelo+GPU para ver la compatibilidad exacta.

Aviso de afiliado: Los enlaces a Amazon son patrocinados. Podemos recibir una comisión sin coste adicional para ti.

8GB+ VRAM

Modelos 7B–8B

Incluye: Llama 3.1 8B, Mistral 7B, Phi-4 mini, Gemma 3 4B, Qwen2.5 7B

Los modelos de 7B son los más populares para uso diario. Requieren 4.5–6GB de VRAM en Q4, por lo que cualquier GPU con 8GB es suficiente. La mayoría ofrece velocidades cómodas de 20–80 tok/s.

RTX 3070 Ti

8GB GDDR6X · NVIDIA

Why this fits
MEDIUM

Llama 3.1 8B: 5 GB req, +3 GB de margen.

RTX 4060 Ti

8GB GDDR6 · NVIDIA

Why this fits
MEDIUM

Llama 3.1 8B: 5 GB req, +3 GB de margen.

RTX 3070

8GB GDDR6 · NVIDIA

Why this fits
MEDIUM

Llama 3.1 8B: 5 GB req, +3 GB de margen.

RTX 3060 Ti

8GB GDDR6 · NVIDIA

Why this fits
MEDIUM

Llama 3.1 8B: 5 GB req, +3 GB de margen.

RTX 4060

8GB GDDR6 · NVIDIA

Why this fits
MEDIUM

Llama 3.1 8B: 5 GB req, +3 GB de margen.

RX 7600

8GB GDDR6 · AMD

Why this fits
MEDIUM

Llama 3.1 8B: 5 GB req, +3 GB de margen.

Ver todas las GPUs de 8GB →
12–16GB VRAM

Modelos 13B–14B

Incluye: Phi-4, Qwen2.5 14B, DeepSeek R1 Distill 14B, Llama 3.2 11B

Los modelos de 13B–14B ofrecen un salto de calidad notable sobre los 7B. Requieren 8–10GB de VRAM en Q4. Una GPU de 12GB puede ejecutarlos con margen. Para mayor comodidad, 16GB es ideal.

GPUs con 12GB VRAM (mínimo recomendado)

RTX 3080 Ti

12GB GDDR6X · NVIDIA

Why this fits
MEDIUM

DeepSeek R1 Distill 14B: 8.4 GB req, +3.6 GB de margen.

RTX 5070

12GB GDDR7 · NVIDIA

Why this fits
MEDIUM

DeepSeek R1 Distill 14B: 8.4 GB req, +3.6 GB de margen.

RTX 4070

12GB GDDR6X · NVIDIA

Why this fits
MEDIUM

DeepSeek R1 Distill 14B: 8.4 GB req, +3.6 GB de margen.

RX 7700 XT

12GB GDDR6 · AMD

Why this fits
MEDIUM

DeepSeek R1 Distill 14B: 8.4 GB req, +3.6 GB de margen.

RX 6700 XT

12GB GDDR6 · AMD

Why this fits
MEDIUM

DeepSeek R1 Distill 14B: 8.4 GB req, +3.6 GB de margen.

RTX 3060

12GB GDDR6 · NVIDIA

Why this fits
MEDIUM

DeepSeek R1 Distill 14B: 8.4 GB req, +3.6 GB de margen.

GPUs con 16GB VRAM (cómodo, recomendado)

RTX 5080

16GB GDDR7 · NVIDIA

Why this fits
HIGH

DeepSeek R1 Distill 14B: 8.4 GB req, +7.6 GB de margen.

RTX 4080 Super

16GB GDDR6X · NVIDIA

Why this fits
HIGH

DeepSeek R1 Distill 14B: 8.4 GB req, +7.6 GB de margen.

RTX 5070 Ti

16GB GDDR7 · NVIDIA

Why this fits
HIGH

DeepSeek R1 Distill 14B: 8.4 GB req, +7.6 GB de margen.

RTX 4070 Ti Super

16GB GDDR6X · NVIDIA

Why this fits
HIGH

DeepSeek R1 Distill 14B: 8.4 GB req, +7.6 GB de margen.

RX 7800 XT

16GB GDDR6 · AMD

Why this fits
HIGH

DeepSeek R1 Distill 14B: 8.4 GB req, +7.6 GB de margen.

RX 6800 XT

16GB GDDR6 · AMD

Why this fits
HIGH

DeepSeek R1 Distill 14B: 8.4 GB req, +7.6 GB de margen.

24GB+ VRAM

Modelos 30B–70B

Incluye: Llama 3.1 70B, Llama 3.3 70B, Mixtral 8x7B, Qwen2.5 32B

Los modelos grandes de 30B–70B requieren 20–42GB de VRAM en Q4. Solo algunas GPUs consumer pueden ejecutarlos: RTX 4090 (24GB) puede con modelos de hasta ~32B. Para 70B completo necesitas Mac M-series con memoria unificada grande o multi-GPU.

RTX 5090

32GB GDDR7 · NVIDIA

Why this fits
TIGHT

Llama 3.1 70B: 40 GB req, ajuste justo (offload 8 GB).

RTX 4090

24GB GDDR6X · NVIDIA

Why this fits
TIGHT

Llama 3.1 70B: 40 GB req, ajuste justo (offload 16 GB).

RTX 3090

24GB GDDR6X · NVIDIA

Why this fits
TIGHT

Llama 3.1 70B: 40 GB req, ajuste justo (offload 16 GB).

Nota importante sobre modelos de 70B

Para Llama 3.1 70B Q4 necesitas 40GB de VRAM. La RTX 4090 (24GB) solo puede ejecutarlo con offloading parcial a RAM. Los sistemas Mac M4 Ultra (128GB) o setups multi-GPU son la opción más práctica.

12GB+ VRAM

Stable Diffusion XL e imagen

Incluye: Stable Diffusion XL, Flux.1 Dev, Flux.1 Schnell, SD 3.5 Large

SDXL funciona bien con 8GB de VRAM. Flux.1 y SD 3.5 Large requieren 12GB. Para generación rápida de imágenes 512px, cualquier GPU de 8GB funciona. Para resoluciones mayores o modelos más grandes, 12GB+.

RTX 3080 Ti

12GB GDDR6X · NVIDIA

Why this fits
TIGHT

Flux.1 Schnell: 12 GB req, ajuste justo (offload 0 GB).

RTX 5070

12GB GDDR7 · NVIDIA

Why this fits
TIGHT

Flux.1 Schnell: 12 GB req, ajuste justo (offload 0 GB).

RTX 4070

12GB GDDR6X · NVIDIA

Why this fits
TIGHT

Flux.1 Schnell: 12 GB req, ajuste justo (offload 0 GB).

RX 7700 XT

12GB GDDR6 · AMD

Why this fits
TIGHT

Flux.1 Schnell: 12 GB req, ajuste justo (offload 0 GB).

RX 6700 XT

12GB GDDR6 · AMD

Why this fits
TIGHT

Flux.1 Schnell: 12 GB req, ajuste justo (offload 0 GB).

RTX 3060

12GB GDDR6 · NVIDIA

Why this fits
TIGHT

Flux.1 Schnell: 12 GB req, ajuste justo (offload 0 GB).

Resumen: VRAM mínima por tipo de modelo

Tipo de modelo VRAM mínima (Q4) VRAM recomendada
Modelos 7B–8B (chat, coding) 6 GB 8 GB+
Stable Diffusion XL 8 GB 8–12 GB
Modelos 13B–14B 10 GB 12–16 GB
Flux.1 / SD 3.5 Large 12 GB 12–16 GB
Modelos 30B–70B 20–42 GB 24 GB+ (o Mac M)

¿Ya tienes una GPU? Comprueba la compatibilidad exacta

La calculadora de VRAM te dice qué modelos y cuantizaciones puede ejecutar tu GPU específica.

Calculadora VRAM →