Cómo correr DeepSeek R1 en local con Ollama
Correr DeepSeek R1 en local es más sencillo de lo que parece. Con Ollama puedes tener este modelo de 671B parámetros funcionando en tu PC en menos de 5 minutos. Solo necesitas 403 GB de VRAM para la versión Q4 y conexión a internet para la descarga inicial.
En esta guía cubrimos los requisitos exactos de hardware, el proceso de instalación paso a paso, los comandos necesarios y ejemplos de uso para sacarle el máximo partido a DeepSeek R1 desde tu propio hardware.
Requisitos de hardware para DeepSeek R1
| Cuantización | VRAM necesaria | Notas |
|---|---|---|
| FP16 (máxima calidad) | 1610 GB | Calidad de referencia. Solo GPUs con mucha VRAM. |
| Q8 (alta calidad) | 805 GB | Recomendado si tienes suficiente VRAM. |
| Q4 (equilibrado) | 403 GB (recomendado) | El mejor equilibrio calidad/VRAM. Recomendado. |
| Q2 (mínimo) | 201 GB | Solo si tu VRAM es muy limitada. Pérdida notable. |
Especificaciones de DeepSeek R1
Paso 1: Instalar Ollama
Ollama es la forma más sencilla de correr DeepSeek R1 en local. Disponible para Windows, macOS y Linux.
- 1 Descarga Ollama desde ollama.com (Windows, macOS o Linux)
- 2 Ejecuta el instalador y sigue las instrucciones (tarda menos de 1 minuto)
- 3 Verifica la instalación abriendo una terminal y ejecutando:
ollama --version
Paso 2: Ejecutar DeepSeek R1
Una vez instalado Ollama, abre una terminal y ejecuta el siguiente comando. Ollama descargará el modelo automáticamente la primera vez:
ollama run deepseek-r1:671b La primera ejecución descargará el modelo (~403 GB en Q4). Las ejecuciones posteriores son instantáneas. Una vez descargado, puedes chatear directamente en la terminal o usar la API local.
Paso 3: Ejemplos de uso de DeepSeek R1
Uso con la API REST local
Ollama expone una API en http://localhost:11434 compatible con OpenAI:
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:671b",
"prompt": "Explica qué es la IA local en 2 párrafos",
"stream": false
}' Integración con Python (API OpenAI)
Si tienes instalado el cliente OpenAI de Python:
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:11434/v1",
api_key="ollama",
)
response = client.chat.completions.create(
model="deepseek-r1:671b",
messages=[{"role": "user", "content": "Hola, ¿cómo puedes ayudarme?"}]
)
print(response.choices[0].message.content) GPUs compatibles con DeepSeek R1
Estas GPUs tienen suficiente VRAM para correr DeepSeek R1 en cuantización Q4 (403 GB):
¿No ves tu GPU? Consulta todas las páginas de compatibilidad en la página del modelo DeepSeek R1.
¿No sabes si tu GPU puede correr DeepSeek R1?
Usa nuestra calculadora de VRAM para comprobarlo al instante y ver las opciones de cuantización disponibles.
Comprobar compatibilidad