Blog
Guides techniques et tutoriels sur l IA locale. Données réelles, pas de promesses marketing.
IA local sin GPU: corre LLMs solo con CPU en 2026 (benchmarks reales)
phi-3-mini a 14 tok/s en un i7 normal, sin GPU externa, sin drivers de CUDA. Tabla completa de modelos para CPU con benchmarks por procesador (i5/i7/i9/Ryzen), cuánta RAM necesitas, configuración Ollama paso a paso y cuándo merece la pena comprar una GPU.
IA local en Mac con Apple Silicon: qué modelos puedes correr (M2, M3, M4)
Los Macs con Apple Silicon son los mejores portátiles del mundo para IA local. Un M4 Pro con 24 GB corre Llama 3.1 8B a 45 tok/s sin GPU externa. Benchmarks reales M2/M3/M4, tabla de modelos por tier, guía de instalación con Ollama y LM Studio, y comparativa honesta con RTX 4090.
Llama vs Mistral vs DeepSeek: qué modelo descargar según tu GPU (2026)
Comparativa real de los tres modelos open source más buscados para hardware de consumidor. Tabla de VRAM por tier, benchmarks GPU reales, qué elegir para coding vs español vs razonamiento, y recomendación directa para RTX 3060, 4060 Ti 16GB, 4090 y Mac M-series.
Las mejores GPUs para IA local en 2026: comparativa real por presupuesto
Comparativa honesta de las mejores GPUs para correr IA local: RTX 3060, 4060 Ti 16GB, 4070 Ti Super, 3090 usada y 4090. Benchmarks reales (tok/s), precios actuales y recomendación directa por presupuesto. La RTX 3060 Ti tiene menos VRAM que la 3060 base — estas son las trampas que hay que evitar.
Montar un PC para IA local con presupuesto ajustado — build completo 2026
Build completo con RTX 3060 12GB + Ryzen 5 7600 + 32GB DDR5 en una banda de entrada solvente. 30 tok/s con Llama 8B Q4, benchmarks reales, tabla de componentes con precios orientativos y guía de software en 30 minutos.
RTX 3060 para inteligencia artificial: qué modelos puedes correr en 2026
Con 12 GB de VRAM y una banda usada competitiva, la RTX 3060 es el sweet spot para IA local de entrada. Benchmarks reales (30 tok/s con Llama 8B Q4), tabla de modelos compatibles, setup con Ollama y comparativa honesta vs RTX 4060 y RTX 3060 Ti.
Ollama vs LM Studio: cuál elegir para correr IA en casa (2026)
Ambas son gratuitas y usan llama.cpp. La diferencia está en el caso de uso: Ollama para developers y servidores headless, LM Studio para usuarios que prefieren GUI y AMD en Windows. Datos reales, tabla comparativa y guía por perfil de usuario.
Mistral 7B en local: instalación con Ollama, VRAM necesaria y benchmarks (2026)
Solo necesitas 4.5 GB de VRAM en Q4 — corre en cualquier GPU gaming de 8 GB o más. Benchmarks reales en 18 GPUs, tabla de quantizaciones y guía de instalación con Ollama en un solo comando.
DeepSeek R1 en local: VRAM necesaria, destilaciones y cómo instalarlo (2026)
El 671B completo necesita 403 GB en Q4 — solo para clusters. Las destilaciones 8B/14B/32B sí corren en casa: desde 4.8 GB con la RTX 3060. Datos reales, tabla de compatibilidad por GPU e instalación con Ollama paso a paso.
¿Cuánta VRAM necesito para correr IA en local? (2026)
Tablas reales de VRAM por modelo: Llama 3.1 8B necesita 5 GB en Q4, DeepSeek R1 Distill 32B necesita 19.2 GB. Comparativa de quantizaciones, guía por GPU popular y cuándo el offloading a RAM tiene sentido.
Cómo instalar Ollama en Windows: guía paso a paso (2026)
Guía completa para instalar Ollama en Windows con GPU NVIDIA, AMD o CPU. Configuración, primeros modelos y resolución de errores comunes.
Las mejores GPUs AMD para IA local en 2026
Comparativa de GPUs AMD para correr modelos locales: RX 7900 XTX, RX 7900 XT y opciones de entrada. ROCm, compatibilidad con Ollama y benchmarks reales.
Gemma 3 en local: instalación, requisitos y benchmarks (2026)
Guía completa para correr Gemma 3 en tu equipo con Ollama. VRAM necesaria por tamaño de modelo, benchmarks reales y comparativa con Llama 3.
Los mejores modelos de IA para 8 GB de VRAM (2026)
Tabla completa de modelos compatibles con 8 GB de VRAM: Llama 3.1 8B, Mistral 7B, Gemma 3 y más. Quantizaciones recomendadas y benchmarks reales por GPU.
Phi-4 en local: instalación y benchmarks (2026)
Guía para instalar y correr Phi-4 de Microsoft en local con Ollama. Requisitos de VRAM, benchmarks y comparativa con Phi-3.5.
Qwen 2.5 Coder en local: instalación y benchmarks (2026)
Guía completa para correr Qwen 2.5 Coder en local. El mejor modelo de coding open source de 2026, requisitos de hardware y configuración con Ollama.
RTX 4060 vs RTX 3060 para IA local: cuál comprar en 2026
Comparativa directa entre la RTX 4060 y la RTX 3060 para correr modelos de IA en casa. VRAM, benchmarks reales y recomendación por presupuesto.
Stable Diffusion en local: requisitos y guía de instalación (2026)
Guía completa para instalar Stable Diffusion en tu PC. VRAM mínima, comparativa de frontends (Automatic1111, ComfyUI) y configuración paso a paso.
Whisper en local: transcribir audio con IA sin internet (2026)
Guía para usar Whisper de OpenAI en local para transcripción de audio y video. Requisitos de hardware, modelos disponibles y configuración paso a paso.
Mejores builds de PC para IA local por presupuesto — 2026
Configuraciones completas para correr IA local en casa, desde entrada hasta high-end. Componentes recomendados, precios orientativos y rendimiento esperado en tokens/segundo.
Mejores deals de GPUs para IA local — Ofertas actualizadas 2026
Las mejores oportunidades de compra en GPUs para IA local: nuevas y de segunda mano. Precio por GB de VRAM, comparativa de valor y recomendaciones directas por presupuesto.
Cómo ejecutar Gemma 4 en local — guía completa con Ollama
Gemma 4 12B necesita 6.6 GB de VRAM en Q4, el modelo 27B requiere 14.9 GB. Instalación paso a paso con Ollama, benchmarks reales y lista de GPUs compatibles.
NVIDIA DGX Spark — ¿la workstation definitiva para IA local?
128 GB de memoria unificada para correr modelos frontier en tu escritorio. Análisis completo del DGX Spark: specs, precio, casos de uso y comparativa con builds RTX 5090.