Elige tu nivel de inversión y descubre el build óptimo para ejecutar modelos de IA en casa: GPU, RAM, almacenamiento y qué modelos podrás correr.
Los presupuestos mostrados son estimaciones de planificación. Los precios reales varían según tienda, disponibilidad y región.
JM
Javier Morales·Especialista en Hardware e IA Local — 8 años de experiencia·
GitHub: github.com/javier-morales-ia
Benchmarks Reales
Sin Reviews Pagadas
Seleccion Editorial
Basado en Datos
Aviso de transparencia: Algunos enlaces a productos incluyen un identificador de afiliado (tag=runaiathome-21). Si compras a través de ellos, recibimos una pequeña comisión sin coste adicional para ti. Esto nos ayuda a mantener el sitio gratuito.
Tier Entrada
Presupuesto referencia: ~500 EUR
Tier Entrada: ~500 EUR
Ideal para empezar con IA local sin gastar más de 500 EUR.
01.Prioriza la VRAM. La GPU y su VRAM son el cuello de botella más importante. No sacrifiques VRAM por velocidad de reloj: más GB significa más modelos disponibles.
02.32 GB de RAM mínimo. Aunque los modelos corren en GPU, el sistema operativo y los servicios (Ollama, Open WebUI) consumen entre 4–8 GB de RAM. Con 16 GB puedes sufrir swapping.
03.SSD NVMe para modelos. Cargar un modelo de 7 GB desde un HDD puede tardar 30+ segundos. Un SSD NVMe lo reduce a 2–5 segundos. Usa la unidad más rápida para la carpeta de modelos de Ollama.
04.Compra de segunda mano con criterio. Las RTX 3080 y RTX 3090 de segunda mano son excelentes opciones para el tier gama alta. Verifica el historial de uso (minería) y compra a vendedores con reseñas.
Preguntas frecuentes
¿Cuánto cuesta montar un PC para IA local?
Puedes empezar a correr modelos de 7B con un presupuesto de entrada de unos 430–500 EUR, usando una RTX 3060 12 GB. Para modelos 14B necesitas unos 680–900 EUR. Para 70B cuantizado, el presupuesto mínimo real supera los 1800 EUR con una GPU de 24 GB como la RTX 4090.
¿Qué modelos de IA puedo correr con 500 euros?
Con un presupuesto de entrada (~430 EUR en componentes), una RTX 3060 12 GB te permite ejecutar Mistral 7B, Phi-4, Gemma 3 4B, Llama 3.1 8B en Q4, y DeepSeek R1 Distill 8B. Todos en local, sin límites y sin enviar datos a la nube.
¿Cuánta RAM necesito para IA local?
Para usar IA con GPU, la RAM del sistema solo afecta al sistema operativo y al software de interfaz (Ollama, Open WebUI). Con 16 GB funciona, pero 32 GB es el mínimo recomendado para no sufrir swapping mientras el modelo carga. Para modelos 70B con CPU offloading, 64 GB es útil.