Skip to main content
Guía de hardware 12 min de lectura ·

Por el equipo editorial de RunAIatHome. Benchmarks, compatibilidad y guias basadas en pruebas locales.

Divulgación: Este artículo contiene enlaces de afiliado de Amazon. Si compras a través de ellos, recibimos una pequeña comisión sin coste adicional para ti.
Alex Chen AI Hardware Specialist
GitHub: github.com/javier-morales-ia

Las mejores GPUs AMD para IA local en 2026

Sí, AMD funciona para IA local. Con matices. ROCm ha madurado, Ollama soporta Radeon de forma nativa y hay GPUs AMD con una ventaja que ninguna NVIDIA consumer puede igualar: 20 GB de VRAM en la RX 7900 XT. Esta es la guía sin marketing — datos reales, benchmarks del hardware y la respuesta honesta a cuándo AMD tiene sentido y cuándo no.

¿Tienes una AMD y quieres saber cuánta VRAM necesitas? Usa la Calculadora VRAM para tu modelo exacto — sin sobredimensionar ni quedarte corto.

TL;DR: • La RX 7900 XT (20 GB, ~500 € usada) es el sweet spot AMD sin equivalente en NVIDIA consumer • AMD funciona bien para inferencia con ROCm en Linux; el ecosistema no es tan maduro como CUDA para fine-tuning • Elige AMD si priorizas más VRAM por euro — elige NVIDIA si buscas máxima compatibilidad sin fricción

¿Qué GPU AMD es mejor para IA local?

La RX 7900 XTX con 24GB VRAM es la mejor opción AMD para IA local en 2026.

1. Tabla resumen: las 6 GPUs AMD

Las 6 Radeon que tienen sentido para IA local hoy, con sus datos clave y veredicto directo:

GPU VRAM 7B tok/s 13B tok/s Precio usado est. Veredicto
RX 7900 XTX 24 GB 80 45 ~650-750 € Top AMD, modelos 30B+
RX 7900 XT 20 GB 65 37 ~480-550 € Sweet spot, VRAM única
RX 7800 XT 16 GB 48 29 ~350-400 € 16GB moderna y eficiente
RX 6800 XT 16 GB 32 20 ~250-300 € Sleeper pick, precio/VRAM imbatible
RX 7700 XT 12 GB 30 18 ~280-320 € Solo si ya la tienes
RX 6700 XT 12 GB 22 13 ~190-230 € Solo si ya la tienes

Benchmarks en Q4 con Ollama + ROCm en Linux. Precios de segunda mano estimados, marzo 2026.

¿No sabes cuál elegir? El Comparador de GPUs te deja filtrar por VRAM, presupuesto y rendimiento — incluidas las AMD y las NVIDIA en el mismo ranking.

2. AMD vs NVIDIA para IA local: la verdad

Seré directo: para la mayoría, NVIDIA sigue siendo la opción sin fricción. CUDA lleva 15 años siendo el estándar de facto para computación GPU en IA. PyTorch, llama.cpp, Stable Diffusion — todo funciona out-of-the-box con NVIDIA. AMD ha cerrado la brecha, pero no la ha eliminado.

Dicho esto, hay escenarios donde AMD es la elección racional. Y ROCm en 2026 no es el caos que era hace dos años.

CUDA vs ROCm: estado real

NVIDIA + CUDA

  • Soporte nativo en todos los frameworks
  • Training y fine-tuning sin fricción
  • Stable Diffusion: ComfyUI, A1111 funcionan
  • Windows y Linux sin pasos extra
  • Precio premium en el mercado nuevo

AMD + ROCm

  • Inferencia LLM con Ollama: excelente
  • Mejor precio/VRAM en segunda mano
  • ROCm 6.x maduro en Linux
  • ~ Stable Diffusion: funciona, más configuración
  • Fine-tuning: ecosistema incompleto
  • Windows: soporte experimental (Vulkan como fallback)

Qué funciona bien con AMD

Inferencia LLM pura: Ollama detecta automáticamente las Radeon con ROCm en Linux. llama.cpp tiene backend Vulkan que funciona en Windows y Linux. Para correr Llama 3, Mistral, Qwen, DeepSeek en conversación o como API local — AMD funciona perfectamente y los benchmarks son competitivos.

Qué no funciona (o funciona mal) con AMD

Fine-tuning: Unsloth (la herramienta más popular para fine-tuning eficiente) no tiene soporte AMD. PyTorch + ROCm funciona pero encontrarás dependencias que fallan, kernels CUDA hardcodeados en código ajeno y documentación que asume CUDA. No imposible, pero frustrante.

Stable Diffusion: ComfyUI y AUTOMATIC1111 tienen soporte ROCm experimental. Funciona, pero con más fricción que en NVIDIA — extensiones que fallan, rendimiento variable, troubleshooting frecuente.

Conclusión honesta: Si tu objetivo es inferencia LLM en Linux, AMD es una elección legítima. Si planeas hacer fine-tuning o usar Stable Diffusion como uso principal, NVIDIA tiene ventaja real hoy. El artículo mejores GPUs para IA local 2026 cubre la alternativa NVIDIA completa.

3. RX 7900 XTX (24 GB) — La bestia AMD

960 GB/s · 355W · 61.4 TFLOPS FP16

La RX 7900 XTX es el tope de gama AMD para IA local y la única Radeon que puede medirse directamente con la RTX 4090 en capacidad de VRAM: ambas tienen 24 GB. No en velocidad bruta — la 4090 lleva ventaja —, pero sí en lo que más importa para los modelos grandes: poder cargarlos sin offloading.

Llama 7B Q4

80

tok/s

Llama 13B Q4

45

tok/s

Llama 30B Q4

22

tok/s

VRAM

24 GB

GDDR6

Qué corre y cómo

Con 24 GB de VRAM, la XTX carga cómodamente: Llama 3 8B (~5 GB), Mistral 7B (~4.5 GB), Qwen2.5 14B (~9 GB), DeepSeek 14B (~9 GB) y el exigente Llama 3.3 70B Q2_K (~26 GB — justo en el límite, posible con optimización). Para modelos 30B en Q4 (~18 GB), tienes margen de sobra.

Los benchmarks de 80 tok/s en 7B Q4 y 45 tok/s en 13B Q4 son muy sólidos. Para referencia: la RTX 4090 hace 95 tok/s y 47 tok/s respectivamente — un 15-18% más rápida, pero a más del doble de precio de segunda mano.

Para quién tiene sentido

  • • Quieres máximo VRAM en AMD y el presupuesto llega
  • • Inferencia LLM en Linux como uso principal
  • • No planeas hacer fine-tuning frecuente
  • • Precio de segunda mano (~650-750€) vs RTX 4090 (~1.700-1.900€)

Nota: el benchmark de 70B (15 tok/s en gpus.json) requiere offloading parcial a RAM del sistema — el modelo no cabe completo en 24 GB. La velocidad cae por el ancho de banda de PCIe. Posible, pero no fluido.

4. RX 7900 XT (20 GB) — El sweet spot

800 GB/s · 315W · 51.5 TFLOPS FP16

La RX 7900 XT tiene una ventaja que ninguna GPU NVIDIA consumer puede replicar: 20 GB de VRAM. En NVIDIA, saltas directamente de 16 GB (RTX 4080, 4070 Ti Super) a 24 GB (RTX 4090). Esa brecha de 4 GB importa más de lo que parece cuando intentas cargar un modelo 30B en Q4 (~18 GB).

Llama 7B Q4

65

tok/s

Llama 13B Q4

37

tok/s

Llama 30B Q4

19

tok/s

VRAM

20 GB

GDDR6

Por qué 20 GB cambia el juego

Un modelo Llama 3.1 30B en Q4 ocupa aproximadamente 18 GB. Con 16 GB no cabe. Con 24 GB tienes holgura. Con 20 GB, cabe justo — y a 19 tok/s, es perfectamente usable para una sesión de trabajo. Ninguna RTX 3080, 4060 Ti, 4070 Ti Super o 5080 consumer llega a eso.

El rendimiento baja respecto a la XTX (~19% en 7B, ~18% en 13B) por el menor bandwidth (800 vs 960 GB/s), pero la diferencia de precio en segunda mano puede ser de 150-200€. Para modelos 13B-30B, la 7900 XT es el equilibrio más inteligente del catálogo AMD.

¿Esta GPU vs otras? Compara la RX 7900 XT con las NVIDIA de rango similar en el Comparador de GPUs.

5. RX 7800 XT y RX 6800 XT (16 GB) — Mid-range potente

Dos GPUs, mismo VRAM, presupuestos distintos y una pregunta obvia: ¿nueva o segunda mano? La respuesta depende de cuánto importa el rendimiento bruto vs el precio.

RX 7800 XT — La opción moderna

624 GB/s · 263W · 36.8 TFLOPS FP16 · lanzada sept. 2023

7B Q4

48 tok/s

13B Q4

29 tok/s

Precio usado est.

~370 €

  • Arquitectura RDNA 3 — mejor soporte ROCm a futuro
  • Consumo eficiente: 263W para una 16GB es razonable
  • ~ Más cara que la 6800 XT en segunda mano (~80-100€ más)
  • 30B no cabe en 16GB — límite real en modelos grandes

RX 6800 XT — El sleeper pick Mejor precio/VRAM

512 GB/s · 300W · 20.7 TFLOPS FP16 · lanzada nov. 2020

7B Q4

32 tok/s

13B Q4

20 tok/s

Precio usado est.

~270 €

La RX 6800 XT es la compra inteligente si el presupuesto importa. Por ~270€ obtienes 16 GB de VRAM — más que cualquier NVIDIA de precio similar en segunda mano. 32 tok/s en 7B es perfectamente usable para conversación diaria. El modelo 13B en Q4 a 20 tok/s es cómodo. El límite: bandwith más bajo que la 7800 XT (512 vs 624 GB/s) se nota en los benchmarks.

  • 16 GB de VRAM por ~270€ — no existe mejor precio/VRAM en AMD
  • RDNA 2 con soporte ROCm bien establecido (más maduro que RDNA 3 inicialmente)
  • ~ 20-33% más lenta que la 7800 XT en inferencia
  • ~ 300W — ligeramente más consumo que la 7800 XT (263W)

¿Cuál elegir?

Si el presupuesto es ajustado o ya encuentras una 6800 XT por menos de 280€ — cómprala. 16 GB de VRAM es 16 GB de VRAM, y para inferencia LLM, la diferencia de 16 tok/s en 7B no cambia el flujo de trabajo diario. Si valoras la arquitectura más moderna y el ahorro de consumo, la 7800 XT justifica los ~100€ extra.

¿AMD vs NVIDIA para tu caso concreto?

Filtra por VRAM, precio y rendimiento. Las Radeon y las GeForce en el mismo ranking.

Comparador de GPUs →

6. RX 7700 XT y RX 6700 XT (12 GB) — Entrada digna

12 GB de VRAM permiten correr modelos 7B sin problema y 13B ajustado en Q4. Estas dos GPUs no son una mala elección para IA — son una elección limitada. La diferencia está en qué haces con ellas.

RX 7700 XT

432 GB/s · 245W · 34.6 TFLOPS

7B Q4

30 tok/s

13B Q4

18 tok/s

RDNA 3, arquitectura moderna. Precio nuevo ~380€ — sobreprecio respecto a la 6800 XT para IA.

RX 6700 XT

384 GB/s · 230W · 13.2 TFLOPS

7B Q4

22 tok/s

13B Q4

13 tok/s

RDNA 2, usada desde ~200€. Funciona para LLM 7B. 13B a 13 tok/s es lento pero posible.

Recomendación directa sobre las 12GB AMD

Si ya tienes una RX 7700 XT o RX 6700 XT: úsala. Instala Ollama con ROCm (o Vulkan si estás en Windows), corre Llama 3.1 8B o Mistral 7B y tendrás una experiencia perfectamente funcional a 22-30 tok/s. Sin gasto extra.

Si estás comprando GPU nueva solo para IA: no recomendamos una 12GB. Por ~270€ puedes conseguir una RX 6800 XT de 16GB usada, que añade 4GB cruciales y mejor rendimiento. El salto de 12 a 16 GB es más valioso que el salto de AMD 12GB a NVIDIA 12GB.

7. Cómo configurar AMD para IA local

Dos rutas: ROCm en Linux (máximo rendimiento) o Vulkan como fallback multiplataforma. Aquí los pasos básicos para empezar con Ollama.

ROCm en Linux (recomendado)

ROCm 6.x soporta oficialmente las GPUs RDNA 2 (RX 6000) y RDNA 3 (RX 7000). La versión mínima recomendada para un flujo de trabajo estable es ROCm 6.1.

# Ubuntu 22.04 / 24.04 — instalar ROCm

wget https://repo.radeon.com/amdgpu-install/6.1.3/ubuntu/jammy/amdgpu-install_6.1.60103-1_all.deb

sudo dpkg -i amdgpu-install_6.1.60103-1_all.deb

sudo amdgpu-install --usecase=rocm

sudo usermod -a -G render,video $USER

# Verificar

rocm-smi

Tras instalar ROCm, Ollama lo detecta automáticamente. Instala Ollama con el script oficial y verifica que reconoce tu GPU:

# Instalar Ollama

curl -fsSL https://ollama.com/install.sh | sh

# Verificar detección GPU AMD

ollama run llama3.2

# Si Ollama no detecta la GPU, verificar:

ollama ps # muestra si usa GPU o CPU

Variable de entorno clave: HSA_OVERRIDE_GFX_VERSION

Algunas GPUs AMD (especialmente las RX 6000 más antiguas o iGPUs) no son reconocidas directamente por ROCm aunque el hardware lo soportaría. La variable HSA_OVERRIDE_GFX_VERSION permite forzar la identificación:

# RX 6700 XT / RX 6800 XT (RDNA 2 = gfx1030)

HSA_OVERRIDE_GFX_VERSION=10.3.0 ollama run llama3.2

# RX 7800 XT / RX 7900 XT / RX 7900 XTX (RDNA 3 = gfx1100)

HSA_OVERRIDE_GFX_VERSION=11.0.0 ollama run llama3.2

# Para hacer permanente en ~/.bashrc o /etc/environment:

export HSA_OVERRIDE_GFX_VERSION=10.3.0

Vulkan como fallback (Linux y Windows)

Si no quieres instalar ROCm o estás en Windows, llama.cpp tiene backend Vulkan que funciona con cualquier GPU AMD moderna. El rendimiento es un 15-25% inferior a ROCm, pero la instalación es más simple:

# En Windows, Ollama usa Vulkan automáticamente si no hay ROCm

# Verificar que los drivers AMD están actualizados (Adrenalin Edition)

ollama run llama3.2

# Si quieres forzar Vulkan explícitamente en llama.cpp:

./llama-cli -m model.gguf --gpu-layers 35 -ngl 35

Para Windows con AMD, consulta la guía de Ollama en Windows — cubre la instalación completa incluyendo el setup de drivers y verificación de aceleración GPU.

Resumen de configuración

Linux + ROCm

Máximo rendimiento. Requiere instalar ROCm 6.x. Recomendado.

Linux + Vulkan

Más simple. ~15-25% más lento. Buena opción de fallback.

Windows + Vulkan

Funcional. Actualiza drivers Adrenalin. Menos rendimiento que Linux.

8. FAQ

¿AMD funciona con Ollama para IA local?

Sí. Ollama soporta GPUs AMD vía ROCm (en Linux) y Vulkan (en Linux y Windows). Las Radeon RX 6000 y RX 7000 funcionan bien para inferencia LLM con Ollama. En Linux con ROCm obtendrás mejor rendimiento; en Windows, Vulkan es el fallback funcional aunque algo más lento. La instalación requiere un paso extra (instalar ROCm o drivers Vulkan), pero no es especialmente difícil.

¿Qué GPU AMD comprar para IA local en 2026?

Depende del presupuesto y los modelos que quieras correr:

  • RX 6800 XT (16GB, ~270€ usada) — mejor precio/VRAM para presupuesto ajustado
  • RX 7800 XT (16GB, ~370€) — si quieres arquitectura moderna y menor consumo
  • RX 7900 XT (20GB, ~500€ usada) — sweet spot único: 20GB que ninguna NVIDIA consumer tiene
  • RX 7900 XTX (24GB, ~700€ usada) — para los modelos más grandes y máximo rendimiento AMD
¿Es AMD más barata que NVIDIA para IA local?

En el mercado de segunda mano, sí — especialmente en precio por GB de VRAM. Una RX 6800 XT de 16GB cuesta ~270€ usada, mientras que para conseguir 16GB en NVIDIA necesitas al menos una RTX 4060 Ti 16GB (~400€ nueva). La RX 7900 XT a ~500€ con 20GB no tiene equivalente NVIDIA consumer a ningún precio. En GPUs nuevas, NVIDIA tiene mejor relación rendimiento/precio para IA gracias al ecosistema CUDA.

¿Puedo hacer fine-tuning con una GPU AMD?

Con matices. El fine-tuning con PyTorch + ROCm es posible pero el ecosistema no está tan maduro como CUDA. Herramientas como Unsloth (muy popular para fine-tuning eficiente) no tienen soporte oficial AMD. Axolotl y trl funcionan, pero encontrarás más fricción: dependencias que asumen CUDA, kernels no portados, documentación escasa. Para inferencia pura, AMD está bien. Para fine-tuning frecuente o investigación, NVIDIA tiene ventaja real hoy.

¿ROCm funciona en Windows?

ROCm tiene soporte experimental en Windows desde 2024, pero sigue siendo limitado. En Windows, la opción más estable para IA con AMD es Vulkan (soportado por Ollama y llama.cpp). Funciona peor que ROCm en Linux — espera un 15-25% menos de rendimiento. Si tu objetivo principal es IA local en Windows con AMD, Vulkan funciona, pero Linux + ROCm es claramente la combinación ganadora.

¿AMD RX 7900 XTX vs RTX 4090 para IA local?

La RTX 4090 gana en rendimiento puro (95 tok/s vs 80 tok/s en Llama 7B Q4, datos de benchmarks reales) y en ecosistema (CUDA, herramientas de training, Stable Diffusion). La RX 7900 XTX tiene la misma VRAM (24GB) y cuesta bastante menos de segunda mano (~700€ vs ~1.800€). Si la diferencia del ~19% en velocidad no es crítica y no planeas hacer fine-tuning, la XTX es una compra inteligente. Si haces investigación, training o usas Stable Diffusion intensivamente: RTX 4090.

Comprar GPUs AMD para IA local

Las dos opciones AMD con mejor relación VRAM/precio para IA local:

RX 7600 XT 16GB

16 GB nueva · mejor valor AMD nuevo

Ver precio en Amazon

RX 7900 XT 20GB

20 GB VRAM: exclusivo AMD

Ver precio en Amazon

RTX 3060 12GB (alternativa NVIDIA)

Si prefieres zero fricción con CUDA

Ver precio en Amazon

Conclusión: ¿AMD vale la pena para IA local?

En 2026, la respuesta es: sí, con la GPU correcta y el caso de uso correcto.

Para inferencia LLM en Linux, las Radeon RX 7000 y RX 6000 son opciones legítimas. ROCm 6.x está maduro, Ollama funciona bien y el precio/VRAM en segunda mano es mejor que NVIDIA en varios rangos. La RX 6800 XT a ~270€ con 16 GB es el valor absurdo del mercado AMD. La RX 7900 XT con 20 GB tiene una ventaja que ninguna NVIDIA consumer replica.

Los límites son reales: fine-tuning con ecosistema maduro requiere CUDA, Windows tiene más fricción que Linux, y herramientas como Unsloth no soportan AMD. Si empiezas desde cero y quieres el menor número de obstáculos posibles, NVIDIA sigue siendo la elección sin complicaciones. Si ya tienes una AMD, o si la ecuación precio/VRAM te convence — adelante. Funciona.

AMD tiene sentido si...

  • • Usas Linux principalmente
  • • Tu objetivo es inferencia LLM pura
  • • El presupuesto importa (RX 6800 XT)
  • • Necesitas 20GB VRAM (solo RX 7900 XT)
  • • Ya tienes una Radeon

AMD no tiene sentido si...

  • • Planeas hacer fine-tuning frecuente
  • • Usas Windows y quieres máximo rendimiento
  • • Stable Diffusion es uso principal
  • • Empiezas y quieres zero fricción

¿Cuánta VRAM necesitas exactamente?

Introduce el modelo que quieres correr y calcula el mínimo de VRAM para tu caso. Sin adivinar, sin sobredimensionar.

Calculadora VRAM →

Productos recomendados

Selección verificada con ASINs reales — actualizada en 2026.

Product image
high Amazon Prime

AMD Radeon RX 9070 XT 16GB

4.6 (180 reviews)

Pros

  • 16 GB VRAM GDDR6
  • RDNA 4 — la arquitectura más nueva de AMD
  • ROCm compatible para IA en Linux

Cons

  • Ecosistema AMD más limitado que CUDA
Ver en Amazon
AMD Radeon RX 7900 XTX 24GB

€799

pro Amazon Prime

AMD Radeon RX 7900 XTX 24GB

4.5 (280 reviews)

Pros

  • 24 GB VRAM — máximo en AMD consumer
  • Modelos 30B+ Q4 completos en VRAM
  • Alternativa más económica a RTX 4090

Cons

  • ROCm solo funciona bien en Linux
Ver en Amazon
AMD Radeon RX 7800 XT 16GB

€449

mid Amazon Prime

AMD Radeon RX 7800 XT 16GB

4.6 (310 reviews)

Pros

  • 16 GB VRAM GDDR6
  • Buen rendimiento en ROCm con Ollama
  • Precio ajustado para gama media

Cons

  • Menor rendimiento que NVIDIA equivalente en fine-tuning
Ver en Amazon
AMD Radeon RX 7700 XT 12GB
budget Amazon Prime

AMD Radeon RX 7700 XT 12GB

4.4 (220 reviews)

Pros

  • 12 GB VRAM — entrada a modelos 13B
  • RDNA 3 eficiente energéticamente
  • Precio de entrada atractivo

Cons

  • 12 GB limita modelos 30B+
Ver en Amazon
Product image
mid Amazon Prime

AMD Radeon RX 9060 XT 16GB

4.5 (120 reviews)

Pros

  • 16 GB VRAM en RDNA 4
  • Eficiencia energética mejorada vs gen anterior
  • Compatible con ROCm en Linux

Cons

  • Stock limitado en lanzamiento
Ver en Amazon

Como asociado de Amazon, ganamos una comisión por compras que cumplan los requisitos. Esto no afecta nuestras recomendaciones.

Fuentes

RX 7900 XTX

Ver mejor precio