Open-Source
Local AI Models
Complete guides on the best open-source AI models to run at home. Llama, Mistral, DeepSeek, Gemma, Phi, Qwen — real benchmarks, VRAM requirements, and how to pick the right model for your hardware.
9
Artículos
15+
Modelos analizados
Real
Benchmarks propios
Todos los artículos del cluster
Modelos de IA que caben en 8 GB de VRAM: tabla completa 2026
Todos los modelos de IA que puedes correr con 8 GB de VRAM: Llama, Mistral, Phi, Gemma, DeepSeek. Benchmarks reales por GPU y recomendaciones de quantización.
DeepSeek R1 local: requisitos de hardware y guía de instalación 2026
Cómo correr DeepSeek R1 en tu PC. Requisitos reales por variante (8B, 14B, 32B), instalación con Ollama y corrección al mito de los "200 GB de VRAM".
Gemma 3 local: cómo instalar y correr Gemma 3 de Google en 2026
Guía completa para correr Gemma 3 de Google en tu hardware. Requisitos de VRAM por variante (1B, 4B, 12B, 27B), benchmarks reales y comparativa con LLaMA.
Phi-4 local: cómo correr el modelo de Microsoft en tu PC (2026)
Guía completa para instalar y correr Phi-4 de Microsoft en hardware local. Requisitos de VRAM, benchmarks reales, casos de uso ideales y comparativa con LLaMA.
Mistral 7B local: guía de instalación y benchmarks en 2026
Cómo instalar Mistral 7B en tu PC con Ollama. Benchmarks reales, configuración óptima y cuándo Mistral es mejor que LLaMA para tu caso de uso.
Qwen2.5 Coder local: el mejor modelo de coding open source en 2026
Cómo instalar y usar Qwen2.5 Coder en tu PC. El modelo de coding open source más capaz del mercado: benchmarks reales, configuración con Continue.dev y VS Code.
¿Cuánta VRAM necesito para IA local? Guía completa 2026
Tabla completa de VRAM necesaria para cada modelo de IA: LLaMA, Mistral, DeepSeek, Stable Diffusion. Calculadora de VRAM y recomendaciones por presupuesto.
IA local en Mac con Apple Silicon: qué modelos puedes correr (M2, M3, M4)
Los Macs con Apple Silicon son ideales para IA local. Benchmarks reales M2/M3/M4, tabla de modelos por tier y guía de instalación con Ollama y LM Studio.
Otros clusters relacionados
¿Qué modelos caben en tu GPU?
Usa nuestro Model Browser para explorar todos los modelos disponibles y ver cuáles son compatibles con tu hardware.
Explorar Model Browser