Skip to main content
Home Modelos IA
Model Cluster v2.4

Open-Source
Local AI Models

Complete guides on the best open-source AI models to run at home. Llama, Mistral, DeepSeek, Gemma, Phi, Qwen — real benchmarks, VRAM requirements, and how to pick the right model for your hardware.

9

Artículos

15+

Modelos analizados

Real

Benchmarks propios

Todos los artículos del cluster

Referencia técnica 12 min lectura

Modelos de IA que caben en 8 GB de VRAM: tabla completa 2026

Todos los modelos de IA que puedes correr con 8 GB de VRAM: Llama, Mistral, Phi, Gemma, DeepSeek. Benchmarks reales por GPU y recomendaciones de quantización.

Guía técnica 15 min lectura

DeepSeek R1 local: requisitos de hardware y guía de instalación 2026

Cómo correr DeepSeek R1 en tu PC. Requisitos reales por variante (8B, 14B, 32B), instalación con Ollama y corrección al mito de los "200 GB de VRAM".

Guía de modelo 13 min lectura

Gemma 3 local: cómo instalar y correr Gemma 3 de Google en 2026

Guía completa para correr Gemma 3 de Google en tu hardware. Requisitos de VRAM por variante (1B, 4B, 12B, 27B), benchmarks reales y comparativa con LLaMA.

Guía de modelo 11 min lectura

Phi-4 local: cómo correr el modelo de Microsoft en tu PC (2026)

Guía completa para instalar y correr Phi-4 de Microsoft en hardware local. Requisitos de VRAM, benchmarks reales, casos de uso ideales y comparativa con LLaMA.

Guía de modelo 12 min lectura

Mistral 7B local: guía de instalación y benchmarks en 2026

Cómo instalar Mistral 7B en tu PC con Ollama. Benchmarks reales, configuración óptima y cuándo Mistral es mejor que LLaMA para tu caso de uso.

Guía de modelo 10 min lectura

Qwen2.5 Coder local: el mejor modelo de coding open source en 2026

Cómo instalar y usar Qwen2.5 Coder en tu PC. El modelo de coding open source más capaz del mercado: benchmarks reales, configuración con Continue.dev y VS Code.

Guía técnica 14 min lectura

¿Cuánta VRAM necesito para IA local? Guía completa 2026

Tabla completa de VRAM necesaria para cada modelo de IA: LLaMA, Mistral, DeepSeek, Stable Diffusion. Calculadora de VRAM y recomendaciones por presupuesto.

Guía técnica 14 min lectura

IA local en Mac con Apple Silicon: qué modelos puedes correr (M2, M3, M4)

Los Macs con Apple Silicon son ideales para IA local. Benchmarks reales M2/M3/M4, tabla de modelos por tier y guía de instalación con Ollama y LM Studio.

¿Qué modelos caben en tu GPU?

Usa nuestro Model Browser para explorar todos los modelos disponibles y ver cuáles son compatibles con tu hardware.

Explorar Model Browser