Skip to main content

Planificador de presupuesto para IA local

Elige tu nivel de inversión y descubre el build óptimo para ejecutar modelos de IA en casa: GPU, RAM, almacenamiento y qué modelos podrás correr.

Los presupuestos mostrados son estimaciones de planificación. Los precios reales varían según tienda, disponibilidad y región.

Javier Morales Especialista en Hardware e IA Local — 8 años de experiencia
GitHub: github.com/javier-morales-ia
Benchmarks Reales
Sin Reviews Pagadas
Seleccion Editorial
Basado en Datos
Aviso de transparencia: Algunos enlaces a productos incluyen un identificador de afiliado (tag=runaiathome-21). Si compras a través de ellos, recibimos una pequeña comisión sin coste adicional para ti. Esto nos ayuda a mantener el sitio gratuito.
Tier Entrada Presupuesto referencia: ~500 EUR

Tier Entrada: ~500 EUR

Ideal para empezar con IA local sin gastar más de 500 EUR.

Componentes recomendados

  • GPU RTX 3060 12 GB
  • RAM del sistema 32 GB DDR4
  • Almacenamiento 1 TB NVMe
  • Total estimado ~430 EUR

Casos de uso

  • Chat privado
  • Código básico
  • Análisis de texto
  • Transcripción con Whisper
Tier Gama Media Presupuesto referencia: ~900 EUR

Tier Gama Media: ~900 EUR

El punto dulce: 16 GB de VRAM a precio razonable para modelos de hasta 14B.

Componentes recomendados

  • GPU RTX 4060 Ti 16 GB
  • RAM del sistema 32 GB DDR5
  • Almacenamiento 2 TB NVMe
  • Total estimado ~680 EUR

Casos de uso

  • Chat avanzado
  • Asistente de código
  • Análisis de documentos
  • Generación de imágenes SD
Tier Gama Alta Presupuesto referencia: ~1800 EUR

Tier Gama Alta: ~1800 EUR

Rendimiento profesional. Ideal para developers que quieren correr modelos 32B o más.

Componentes recomendados

Casos de uso

  • Modelos 32B en local
  • Investigación
  • Generación de imágenes Flux
  • Servidor doméstico
Ruta Alternativa
No Hay Página Compatible Para Este Par

Llama 3.1 70B Q4 requiere 40 GB en Q4 y RTX 4070 Ti Super ofrece 16 GB. Faltan 24 GB para llegar a la compatibilidad Q4.

VRAM Q4 Requerida

40 GB

VRAM Disponible

16 GB

Diferencia

24 GB

¿Puede la RTX 4070 Ti Super correr Qwen2.5 32B?
Tier Premium Presupuesto referencia: 2500 EUR+

Tier Premium: 2500 EUR+

La GPU más potente disponible para consumidores. Corre cualquier modelo hasta 70B en Q8.

Componentes recomendados

  • GPU RTX 4090 24 GB
  • RAM del sistema 64 GB DDR5
  • Almacenamiento 4 TB NVMe
  • Total estimado ~2080 EUR

Casos de uso

  • Cualquier modelo cuantizado
  • Fine-tuning básico
  • Home Research Lab
  • Generación de imágenes 4K
Ruta Alternativa
No Hay Página Compatible Para Este Par

Llama 3.1 70B Q8 requiere 40 GB en Q4 y RTX 4090 ofrece 24 GB. Faltan 16 GB para llegar a la compatibilidad Q4.

VRAM Q4 Requerida

40 GB

VRAM Disponible

24 GB

Diferencia

16 GB

Ruta Alternativa
No Hay Página Compatible Para Este Par

Qwen2.5 72B Q4 requiere 41 GB en Q4 y RTX 4090 ofrece 24 GB. Faltan 17 GB para llegar a la compatibilidad Q4.

VRAM Q4 Requerida

41 GB

VRAM Disponible

24 GB

Diferencia

17 GB

Consejos para optimizar tu presupuesto

  • 01. Prioriza la VRAM. La GPU y su VRAM son el cuello de botella más importante. No sacrifiques VRAM por velocidad de reloj: más GB significa más modelos disponibles.
  • 02. 32 GB de RAM mínimo. Aunque los modelos corren en GPU, el sistema operativo y los servicios (Ollama, Open WebUI) consumen entre 4–8 GB de RAM. Con 16 GB puedes sufrir swapping.
  • 03. SSD NVMe para modelos. Cargar un modelo de 7 GB desde un HDD puede tardar 30+ segundos. Un SSD NVMe lo reduce a 2–5 segundos. Usa la unidad más rápida para la carpeta de modelos de Ollama.
  • 04. Compra de segunda mano con criterio. Las RTX 3080 y RTX 3090 de segunda mano son excelentes opciones para el tier gama alta. Verifica el historial de uso (minería) y compra a vendedores con reseñas.

Preguntas frecuentes

¿Cuánto cuesta montar un PC para IA local?

Puedes empezar a correr modelos de 7B con un presupuesto de entrada de unos 430–500 EUR, usando una RTX 3060 12 GB. Para modelos 14B necesitas unos 680–900 EUR. Para 70B cuantizado, el presupuesto mínimo real supera los 1800 EUR con una GPU de 24 GB como la RTX 4090.

¿Qué modelos de IA puedo correr con 500 euros?

Con un presupuesto de entrada (~430 EUR en componentes), una RTX 3060 12 GB te permite ejecutar Mistral 7B, Phi-4, Gemma 3 4B, Llama 3.1 8B en Q4, y DeepSeek R1 Distill 8B. Todos en local, sin límites y sin enviar datos a la nube.

¿Cuánta RAM necesito para IA local?

Para usar IA con GPU, la RAM del sistema solo afecta al sistema operativo y al software de interfaz (Ollama, Open WebUI). Con 16 GB funciona, pero 32 GB es el mínimo recomendado para no sufrir swapping mientras el modelo carga. Para modelos 70B con CPU offloading, 64 GB es útil.

Found this useful? Get guides like this in your inbox every week.

No spam. Unsubscribe in one click.