Skip to main content
Home Instalar IA local
Install Cluster v2.4

Install
Local AI

Step-by-step guides to install local AI on your PC. Ollama, LM Studio, Stable Diffusion, Whisper and more — all running on your hardware, no cloud, no subscriptions.

7

Guías

Win/Mac

Plataformas

<10 min

Setup inicial

Algunos enlaces a Amazon son de afiliado. Los precios y la disponibilidad pueden cambiar. Más información.

GPU recomendada según lo que quieres correr

Para correr IA local necesitas una GPU con suficiente VRAM. Elige según el tipo de modelo que quieres usar:

RTX 4060 Entrada

RTX 4060

8 GB VRAM

Corre modelos 7B fluidos

Ver en Amazon
RTX 4070 Equilibrado

RTX 4070

12 GB VRAM

Corre modelos 13B con contexto largo

Ver en Amazon
RTX 4090 High-end

RTX 4090

24 GB VRAM

Corre modelos 70B y generación de imagen

Ver en Amazon

Todas las guías del cluster

Comparativa 11 min lectura

Ollama vs LM Studio: cuál es mejor para IA local en 2026

Comparativa real entre Ollama y LM Studio. Instalación, modelos disponibles, rendimiento, facilidad de uso y cuál elegir según tu caso de uso.

Tutorial 20 min lectura

Stable Diffusion local: requisitos de hardware y guía de instalación 2026

Cómo instalar Stable Diffusion en tu PC con ComfyUI o Automatic1111. Requisitos de VRAM por modelo (SDXL, Flux, Wan2.1), benchmarks reales y configuración óptima.

Tutorial 16 min lectura

Whisper local: transcribir audio con IA en tu PC (sin nube) 2026

Cómo usar Whisper de OpenAI en tu PC para transcribir audio sin enviar datos a la nube. Instalación, modelos disponibles, benchmarks de velocidad y casos de uso.

Guía de compra 18 min lectura

Cómo montar un PC para IA local en 2026: guía de componentes

Guía completa para ensamblar un PC dedicado a IA local. Qué CPU, RAM, almacenamiento y refrigeración elegir para maximizar el rendimiento de tu GPU en LLMs.

Guía técnica 15 min lectura

DeepSeek R1 local: requisitos de hardware y guía de instalación 2026

Cómo correr DeepSeek R1 en tu PC. Requisitos reales por variante (8B, 14B, 32B) y corrección al mito de los "200 GB de VRAM".

Tutorial 14 min lectura

IA local en Mac con Apple Silicon: qué modelos puedes correr (M2, M3, M4)

Guía de instalación de Ollama y LM Studio en Mac con Apple Silicon. Benchmarks reales M2/M3/M4, tabla de modelos por tier y comparativa con GPU NVIDIA.