Install
Local AI
Step-by-step guides to install local AI on your PC. Ollama, LM Studio, Stable Diffusion, Whisper and more — all running on your hardware, no cloud, no subscriptions.
7
Guías
Win/Mac
Plataformas
<10 min
Setup inicial
Algunos enlaces a Amazon son de afiliado. Los precios y la disponibilidad pueden cambiar. Más información.
GPU recomendada según lo que quieres correr
Para correr IA local necesitas una GPU con suficiente VRAM. Elige según el tipo de modelo que quieres usar:
Entrada
Equilibrado
High-end Todas las guías del cluster
Ollama vs LM Studio: cuál es mejor para IA local en 2026
Comparativa real entre Ollama y LM Studio. Instalación, modelos disponibles, rendimiento, facilidad de uso y cuál elegir según tu caso de uso.
Stable Diffusion local: requisitos de hardware y guía de instalación 2026
Cómo instalar Stable Diffusion en tu PC con ComfyUI o Automatic1111. Requisitos de VRAM por modelo (SDXL, Flux, Wan2.1), benchmarks reales y configuración óptima.
Whisper local: transcribir audio con IA en tu PC (sin nube) 2026
Cómo usar Whisper de OpenAI en tu PC para transcribir audio sin enviar datos a la nube. Instalación, modelos disponibles, benchmarks de velocidad y casos de uso.
Cómo montar un PC para IA local en 2026: guía de componentes
Guía completa para ensamblar un PC dedicado a IA local. Qué CPU, RAM, almacenamiento y refrigeración elegir para maximizar el rendimiento de tu GPU en LLMs.
DeepSeek R1 local: requisitos de hardware y guía de instalación 2026
Cómo correr DeepSeek R1 en tu PC. Requisitos reales por variante (8B, 14B, 32B) y corrección al mito de los "200 GB de VRAM".
IA local en Mac con Apple Silicon: qué modelos puedes correr (M2, M3, M4)
Guía de instalación de Ollama y LM Studio en Mac con Apple Silicon. Benchmarks reales M2/M3/M4, tabla de modelos por tier y comparativa con GPU NVIDIA.