Saltar al contenido principal
Motor local listo

RTX 3090

81 modelos de IA caben en 24 GB de VRAM en Q4 nativo. 7 más funcionan con offloading en CPU. Benchmarks reales más abajo.

81 Modelos compatibles
7 con offloading
24GB GDDR6X
350W TDP
Javier Morales
Javier Morales Especialista en Hardware de IA — 8 años de experiencia
GitHub: github.com/javier-morales-ia

llama.cpp 0.2.x · CUDA 12 · Ubuntu 22.04 · Prices verified on Amazon · metodología →

RTX 3090

Contexto de ejecución

MARCA NVIDIA
ANCHO DE BANDA 936 GB/s
FP16 TFLOPS 35.6
AI SCORE 72 / 140
RANGO DE PRECIO Gama alta
PVP LANZAMIENTO $1,499
AI SCORE (RELATIVE)
72 /140
Entrada Valor Media Alta Flagship
PVP lanzamiento: $1,499 El precio actual varía en Amazon

Consultar oferta actual

Enlace de afiliado de Amazon para RTX 3090

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

Prime

Especificaciones completas

NVIDIA · 2020-09

VRAM 24 GB GDDR6X
Ancho de banda 936 GB/s
FP16 TFLOPS 35.6
AI Score 72 / 140
CUDA Cores 10,496
Tensor Cores 328
TDP 350 W
PCIe Gen 4
Slots 3
Power Connector 2x 8-pin
Rango de precio Gama alta
Lanzamiento 2020-09

Benchmarks de IA

Mediciones reales de inferencia — llama.cpp Q4_K_M

Tarea Resultado
Llama 1B Q4 400 tok/s
Llama 3B Q4 197 tok/s
Llama 7B Q4 65 tok/s
Llama 13B Q4 44 tok/s
Llama 30B Q4 22 tok/s
Llama 70B Q4 Offload o multi-GPU
Stable Diffusion 512px 4s / img
Whisper Large RTF 0.5x

RTF < 1.0 = más rápido que tiempo real. En Stable Diffusion y Whisper cuanto menor, mejor; en tokens/s cuanto mayor, mejor.

Comparar RTX 3090 con otra GPU

¿Vale la pena el upgrade? Compara specs y benchmarks reales lado a lado.

Abrir comparador →
Comparaciones rápidas: vs RTX 5070 Ti · vs M4 Max 48GB

Modelos de IA compatibles — RTX 3090

81 modelos se ejecutan completos en VRAM · 7 con offloading en CPU

Ver los 81 modelos compatibles →

También funciona con offloading en CPU (7)

RTX 3090 · Amazon

Los precios de las GPU cambian con frecuencia entre tiendas. Consulta la oferta actual antes de comprar.

Consultar oferta actual

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

RTX 3090 para Inteligencia Artificial Local

La RTX 3090 con 24GB de GDDR6X es una GPU de alto rendimiento para IA local. Puede ejecutar modelos de 7B, 13B y hasta 70B parámetros en cuantización Q2, cubriendo la mayoría de los casos de uso prácticos: asistentes de chat, generación de código, análisis de texto y generación de imágenes con Stable Diffusion.

En benchmarks reales, la RTX 3090 alcanza 65 tokens/segundo en Llama 7B Q4 — velocidad suficiente para conversación fluida en tiempo real. Los modelos de 13B como Phi-4 o Qwen2.5 14B corren cómodamente en Q4, y modelos 70B son accesibles via Q2 con 7 opciones.

La relación rendimiento-precio de la RTX 3090 la hace una de las mejores opciones para usuarios técnicos que quieren IA local seria. Usa la calculadora de VRAM para ver exactamente qué cuantización necesita cada modelo, o consulta nuestra guía para elegir GPU.

Planifica tu build completa de IA

RTX 3090 · 24 GB VRAM — configura PSU, RAM, almacenamiento y revisa modelos compatibles.

Configura tu build →

¿No sabes qué modelo correr en tu RTX 3090?

La calculadora de VRAM te dice exactamente qué cuantización necesitas.

Abrir calculadora →

Consigue el mejor precio para RTX 3090

Abre Amazon con nuestro enlace afiliado y revisa disponibilidad, variantes y ofertas actuales.

Ver mejor precio →