<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>RunAIatHome — IA local para todos</title>
    <link>https://www.runaiathome.com/</link>
    <description>Las últimas guías, comparativas y modelos de inteligencia artificial local. Hardware, benchmarks y herramientas para IA en casa.</description>
    <language>es</language>
    <copyright>RunAIatHome 2026</copyright>
    <lastBuildDate>Mon, 13 Apr 2026 10:50:17 GMT</lastBuildDate>
    <atom:link href="https://www.runaiathome.com/feed.xml" rel="self" type="application/rss+xml" />
    <image>
      <url>https://www.runaiathome.com/favicon.svg</url>
      <title>RunAIatHome</title>
      <link>https://www.runaiathome.com/</link>
    </image>
    <item>
      <title>IA local en Mac con Apple Silicon: M2, M3 y M4 — guía completa 2026</title>
      <link>https://www.runaiathome.com/blog/apple-silicon-ia-local/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/apple-silicon-ia-local/</guid>
      <description>Qué modelos IA puedes correr en tu Mac Apple Silicon. M4 Pro hace 45 tok/s en Llama 8B. Benchmarks reales M2/M3/M4 + guía instalación Ollama y LM Studio.</description>
      <pubDate>Fri, 20 Mar 2026 00:00:00 GMT</pubDate>
      <category>Hardware</category>
    </item>
    <item>
      <title>¿Cuánta VRAM necesito para IA local? Guía completa 2026</title>
      <link>https://www.runaiathome.com/blog/cuanta-vram-necesito-ia/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/cuanta-vram-necesito-ia/</guid>
      <description>Cuánta VRAM necesitas según el modelo de IA: 4 GB, 8 GB, 16 GB, 24 GB o 48 GB. Tablas de compatibilidad para Llama, Mistral, DeepSeek y Stable Diffusion.</description>
      <pubDate>Wed, 18 Mar 2026 00:00:00 GMT</pubDate>
      <category>Guías</category>
    </item>
    <item>
      <title>DeepSeek R1 local: requisitos de hardware y guía de instalación</title>
      <link>https://www.runaiathome.com/blog/deepseek-r1-local-requisitos/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/deepseek-r1-local-requisitos/</guid>
      <description>Cómo instalar y ejecutar DeepSeek R1 en local. Requisitos de VRAM por versión (1.5B al 671B), velocidad de inferencia y comparativa con modelos cloud.</description>
      <pubDate>Sun, 15 Mar 2026 00:00:00 GMT</pubDate>
      <category>Modelos</category>
    </item>
    <item>
      <title>Gemma 3 en local: cómo instalar el nuevo modelo de Google</title>
      <link>https://www.runaiathome.com/blog/gemma-3-local/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/gemma-3-local/</guid>
      <description>Guía para instalar Gemma 3 en local con Ollama. Requisitos VRAM para Gemma 3 4B, 12B y 27B, benchmarks y comparativa con Llama 3 y Phi-4.</description>
      <pubDate>Thu, 12 Mar 2026 00:00:00 GMT</pubDate>
      <category>Modelos</category>
    </item>
    <item>
      <title>IA local sin GPU: cómo ejecutar modelos con solo CPU y RAM</title>
      <link>https://www.runaiathome.com/blog/ia-local-sin-gpu-cpu/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/ia-local-sin-gpu-cpu/</guid>
      <description>Es posible ejecutar modelos de IA local sin GPU usando solo CPU. Qué modelos funcionan, qué velocidad esperar y cuándo vale la pena.</description>
      <pubDate>Tue, 10 Mar 2026 00:00:00 GMT</pubDate>
      <category>Guías</category>
    </item>
    <item>
      <title>Instalar Ollama en Windows: guía paso a paso 2026</title>
      <link>https://www.runaiathome.com/blog/instalar-ollama-windows/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/instalar-ollama-windows/</guid>
      <description>Cómo instalar Ollama en Windows 10/11, descargar modelos como Llama y Mistral, y usar la API local. Tutorial completo con capturas.</description>
      <pubDate>Sun, 08 Mar 2026 00:00:00 GMT</pubDate>
      <category>Tutoriales</category>
    </item>
    <item>
      <title>Llama 3 vs Mistral vs DeepSeek: ¿cuál es mejor para IA local?</title>
      <link>https://www.runaiathome.com/blog/llama-vs-mistral-vs-deepseek/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/llama-vs-mistral-vs-deepseek/</guid>
      <description>Comparativa exhaustiva Llama 3.1 vs Mistral 7B vs DeepSeek R1: calidad, velocidad, VRAM requerida y casos de uso ideales para cada modelo.</description>
      <pubDate>Thu, 05 Mar 2026 00:00:00 GMT</pubDate>
      <category>Comparativas</category>
    </item>
    <item>
      <title>Las mejores GPUs AMD para IA local 2026: RX 7900 XTX, RX 7600 y más</title>
      <link>https://www.runaiathome.com/blog/mejores-gpus-amd-ia-local/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/mejores-gpus-amd-ia-local/</guid>
      <description>Análisis de las mejores GPUs AMD para inteligencia artificial local: VRAM, ROCm, benchmarks y comparativa con NVIDIA para Ollama y Stable Diffusion.</description>
      <pubDate>Tue, 03 Mar 2026 00:00:00 GMT</pubDate>
      <category>Hardware</category>
    </item>
    <item>
      <title>Mejores GPUs para IA local 2026: guía completa de compra</title>
      <link>https://www.runaiathome.com/blog/mejores-gpus-ia-local-2026/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/mejores-gpus-ia-local-2026/</guid>
      <description>Las mejores GPUs para inteligencia artificial local en 2026: RTX 4090, RTX 3060, RX 7900 XTX. Comparativa por VRAM, velocidad y precio.</description>
      <pubDate>Sun, 01 Mar 2026 00:00:00 GMT</pubDate>
      <category>Hardware</category>
    </item>
    <item>
      <title>Mistral 7B en local: guía de instalación y benchmarks 2026</title>
      <link>https://www.runaiathome.com/blog/mistral-7b-local-guia-instalacion/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/mistral-7b-local-guia-instalacion/</guid>
      <description>Cómo instalar Mistral 7B en local con Ollama o LM Studio. Benchmarks de velocidad por GPU, cuantizaciones recomendadas y comparativa de rendimiento.</description>
      <pubDate>Sat, 28 Feb 2026 00:00:00 GMT</pubDate>
      <category>Modelos</category>
    </item>
    <item>
      <title>Los mejores modelos de IA para 8 GB VRAM en 2026</title>
      <link>https://www.runaiathome.com/blog/modelos-ia-8gb-vram/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/modelos-ia-8gb-vram/</guid>
      <description>Qué modelos de IA puedes correr con 8 GB VRAM: lista actualizada con velocidades de inferencia, cuantizaciones y GPUs compatibles.</description>
      <pubDate>Wed, 25 Feb 2026 00:00:00 GMT</pubDate>
      <category>Modelos</category>
    </item>
    <item>
      <title>Cómo montar un PC para IA local en 2026: guía completa de componentes</title>
      <link>https://www.runaiathome.com/blog/montar-pc-ia-local/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/montar-pc-ia-local/</guid>
      <description>Guía completa para montar un PC dedicado a inteligencia artificial local: GPU, CPU, RAM, almacenamiento y fuente de alimentación. Builds por presupuesto.</description>
      <pubDate>Fri, 20 Feb 2026 00:00:00 GMT</pubDate>
      <category>Guías</category>
    </item>
    <item>
      <title>Ollama vs LM Studio: ¿cuál es mejor para IA local en 2026?</title>
      <link>https://www.runaiathome.com/blog/ollama-vs-lm-studio/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/ollama-vs-lm-studio/</guid>
      <description>Comparativa Ollama vs LM Studio: interfaz, rendimiento, compatibilidad de modelos, API, características únicas y para quién es mejor cada uno.</description>
      <pubDate>Sun, 15 Feb 2026 00:00:00 GMT</pubDate>
      <category>Herramientas</category>
    </item>
    <item>
      <title>Phi-4 en local: el modelo 14B de Microsoft que cabe en 8 GB VRAM</title>
      <link>https://www.runaiathome.com/blog/phi-4-local/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/phi-4-local/</guid>
      <description>Cómo instalar Phi-4 en local. El modelo 14B de Microsoft que supera a modelos mucho más grandes con solo 8.4 GB VRAM en Q4.</description>
      <pubDate>Tue, 10 Feb 2026 00:00:00 GMT</pubDate>
      <category>Modelos</category>
    </item>
    <item>
      <title>Qwen2.5-Coder: el mejor modelo de código abierto para IA local</title>
      <link>https://www.runaiathome.com/blog/qwen25-coder-local/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/qwen25-coder-local/</guid>
      <description>Cómo instalar y usar Qwen2.5-Coder localmente. El mejor modelo de código de código abierto: supera a GPT-4o en HumanEval con 32B parámetros.</description>
      <pubDate>Thu, 05 Feb 2026 00:00:00 GMT</pubDate>
      <category>Modelos</category>
    </item>
    <item>
      <title>RTX 3060 para inteligencia artificial local: ¿vale la pena en 2026?</title>
      <link>https://www.runaiathome.com/blog/rtx-3060-inteligencia-artificial/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/rtx-3060-inteligencia-artificial/</guid>
      <description>Análisis completo de la RTX 3060 (12 GB VRAM) para IA local: qué modelos soporta, velocidad de inferencia, consumo y comparativa con alternativas.</description>
      <pubDate>Sun, 01 Feb 2026 00:00:00 GMT</pubDate>
      <category>Hardware</category>
    </item>
    <item>
      <title>RTX 4060 vs RTX 3060 para IA local: ¿cuál comprar en 2026?</title>
      <link>https://www.runaiathome.com/blog/rtx-4060-vs-rtx-3060-ia-local/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/rtx-4060-vs-rtx-3060-ia-local/</guid>
      <description>Comparativa RTX 4060 vs RTX 3060 para inteligencia artificial local. ¿Vale la pena pagar más por la RTX 4060 con solo 8 GB de VRAM?</description>
      <pubDate>Wed, 28 Jan 2026 00:00:00 GMT</pubDate>
      <category>Comparativas</category>
    </item>
    <item>
      <title>Stable Diffusion local: requisitos de hardware y guía de instalación 2026</title>
      <link>https://www.runaiathome.com/blog/stable-diffusion-local-requisitos-guia/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/blog/stable-diffusion-local-requisitos-guia/</guid>
      <description>Requisitos para Stable Diffusion local: VRAM mínima, GPU recomendada, instalación ComfyUI/Automatic1111 y primeros pasos con SDXL y Flux.1.</description>
      <pubDate>Sun, 25 Jan 2026 00:00:00 GMT</pubDate>
      <category>Guías</category>
    </item>
    <item>
      <title>Modelo: Llama 3.1 405B — 405B parámetros, 230 GB VRAM Q4</title>
      <link>https://www.runaiathome.com/modelo/llama-3.1-405b/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/modelo/llama-3.1-405b/</guid>
      <description>Llama 3.1 405B de Meta. 405B parámetros, VRAM Q4: 230 GB, quality score: 98/100.</description>
      <pubDate>Sun, 01 Mar 2026 00:00:00 GMT</pubDate>
      <category>Modelos IA</category>
    </item>
    <item>
      <title>Modelo: DeepSeek R1 — 671B parámetros, 403 GB VRAM Q4</title>
      <link>https://www.runaiathome.com/modelo/deepseek-r1/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/modelo/deepseek-r1/</guid>
      <description>DeepSeek R1 de DeepSeek. 671B parámetros, VRAM Q4: 403 GB, quality score: 97/100.</description>
      <pubDate>Sun, 01 Mar 2026 00:00:00 GMT</pubDate>
      <category>Modelos IA</category>
    </item>
    <item>
      <title>Modelo: DeepSeek V3.2 — 671B parámetros, 369.1 GB VRAM Q4</title>
      <link>https://www.runaiathome.com/modelo/deepseek-v3-2/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/modelo/deepseek-v3-2/</guid>
      <description>DeepSeek V3.2 de DeepSeek. 671B parámetros, VRAM Q4: 369.1 GB, quality score: 97/100.</description>
      <pubDate>Sun, 01 Mar 2026 00:00:00 GMT</pubDate>
      <category>Modelos IA</category>
    </item>
    <item>
      <title>Modelo: DeepSeek V3 — 685B parámetros, 411 GB VRAM Q4</title>
      <link>https://www.runaiathome.com/modelo/deepseek-v3/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/modelo/deepseek-v3/</guid>
      <description>DeepSeek V3 de DeepSeek. 685B parámetros, VRAM Q4: 411 GB, quality score: 96/100.</description>
      <pubDate>Sun, 01 Mar 2026 00:00:00 GMT</pubDate>
      <category>Modelos IA</category>
    </item>
    <item>
      <title>Modelo: Llama 3.3 70B — 70B parámetros, 42 GB VRAM Q4</title>
      <link>https://www.runaiathome.com/modelo/llama-3.3-70b/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/modelo/llama-3.3-70b/</guid>
      <description>Llama 3.3 70B de Meta. 70B parámetros, VRAM Q4: 42 GB, quality score: 95/100.</description>
      <pubDate>Sun, 01 Mar 2026 00:00:00 GMT</pubDate>
      <category>Modelos IA</category>
    </item>
    <item>
      <title>Modelo: Flux.1 Dev — 12B parámetros, 12 GB VRAM Q4</title>
      <link>https://www.runaiathome.com/modelo/flux-1-dev/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/modelo/flux-1-dev/</guid>
      <description>Flux.1 Dev de Black Forest Labs. 12B parámetros, VRAM Q4: 12 GB, quality score: 95/100.</description>
      <pubDate>Sun, 01 Mar 2026 00:00:00 GMT</pubDate>
      <category>Modelos IA</category>
    </item>
    <item>
      <title>Modelo: Whisper Large V3 — 1.55B parámetros, 1.5 GB VRAM Q4</title>
      <link>https://www.runaiathome.com/modelo/whisper-large-v3/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/modelo/whisper-large-v3/</guid>
      <description>Whisper Large V3 de OpenAI. 1.55B parámetros, VRAM Q4: 1.5 GB, quality score: 95/100.</description>
      <pubDate>Sun, 01 Mar 2026 00:00:00 GMT</pubDate>
      <category>Modelos IA</category>
    </item>
    <item>
      <title>Modelo: Qwen2.5 72B — 72B parámetros, 41 GB VRAM Q4</title>
      <link>https://www.runaiathome.com/modelo/qwen2.5-72b/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/modelo/qwen2.5-72b/</guid>
      <description>Qwen2.5 72B de Alibaba. 72B parámetros, VRAM Q4: 41 GB, quality score: 93/100.</description>
      <pubDate>Sun, 01 Mar 2026 00:00:00 GMT</pubDate>
      <category>Modelos IA</category>
    </item>
    <item>
      <title>Modelo: Stable Diffusion 3.5 Large — 8B parámetros, 10 GB VRAM Q4</title>
      <link>https://www.runaiathome.com/modelo/sd3.5-large/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/modelo/sd3.5-large/</guid>
      <description>Stable Diffusion 3.5 Large de Stability AI. 8B parámetros, VRAM Q4: 10 GB, quality score: 93/100.</description>
      <pubDate>Sun, 01 Mar 2026 00:00:00 GMT</pubDate>
      <category>Modelos IA</category>
    </item>
    <item>
      <title>Modelo: FLUX.2 Dev — 32B parámetros, 17.6 GB VRAM Q4</title>
      <link>https://www.runaiathome.com/modelo/flux-2-dev/</link>
      <guid isPermaLink="true">https://www.runaiathome.com/modelo/flux-2-dev/</guid>
      <description>FLUX.2 Dev de Black Forest Labs. 32B parámetros, VRAM Q4: 17.6 GB, quality score: 93/100.</description>
      <pubDate>Sun, 01 Mar 2026 00:00:00 GMT</pubDate>
      <category>Modelos IA</category>
    </item>
  </channel>
</rss>