Skip to main content
Por Javier Morales · · Alibaba

Cómo correr Qwen3-Coder-Next 80B-A3B en local con Ollama

Transparencia: Algunos enlaces de hardware son de afiliado (Amazon). Esto no afecta nuestra evaluación.

Correr Qwen3-Coder-Next 80B-A3B en local es más sencillo de lo que parece. Con Ollama puedes tener este modelo de 80B parámetros funcionando en tu PC en menos de 5 minutos. Solo necesitas 44 GB de VRAM para la versión Q4 y conexión a internet para la descarga inicial.

En esta guía cubrimos los requisitos exactos de hardware, el proceso de instalación paso a paso, los comandos necesarios y ejemplos de uso para sacarle el máximo partido a Qwen3-Coder-Next 80B-A3B desde tu propio hardware.

Requisitos de hardware para Qwen3-Coder-Next 80B-A3B

Cuantización VRAM necesaria Notas
FP16 (máxima calidad) 176 GB Calidad de referencia. Solo GPUs con mucha VRAM.
Q8 (alta calidad) 88 GB Recomendado si tienes suficiente VRAM.
Q4 (equilibrado) 44 GB (recomendado) El mejor equilibrio calidad/VRAM. Recomendado.
Q2 (mínimo) 22 GB Solo si tu VRAM es muy limitada. Pérdida notable.
0

Especificaciones de Qwen3-Coder-Next 80B-A3B

80B
Parámetros
44 GB
VRAM Q4
262K
Contexto
Alibaba
Proveedor
Programación Razonamiento Chat general analysis

Paso 1: Instalar Ollama

Ollama es la forma más sencilla de correr Qwen3-Coder-Next 80B-A3B en local. Disponible para Windows, macOS y Linux.

  1. 1 Descarga Ollama desde ollama.com (Windows, macOS o Linux)
  2. 2 Ejecuta el instalador y sigue las instrucciones (tarda menos de 1 minuto)
  3. 3 Verifica la instalación abriendo una terminal y ejecutando: ollama --version

Paso 2: Ejecutar Qwen3-Coder-Next 80B-A3B

Una vez instalado Ollama, abre una terminal y ejecuta el siguiente comando. Ollama descargará el modelo automáticamente la primera vez:

Terminal Descarga automática
ollama run qwen3-coder-next

La primera ejecución descargará el modelo (~44 GB en Q4). Las ejecuciones posteriores son instantáneas. Una vez descargado, puedes chatear directamente en la terminal o usar la API local.

Paso 3: Ejemplos de uso de Qwen3-Coder-Next 80B-A3B

Uso con la API REST local

Ollama expone una API en http://localhost:11434 compatible con OpenAI:

curl http://localhost:11434/api/generate -d '{ "model": "qwen3-coder-next", "prompt": "Explica qué es la IA local en 2 párrafos", "stream": false }'

Integración con Python (API OpenAI)

Si tienes instalado el cliente OpenAI de Python:

from openai import OpenAI client = OpenAI( base_url="http://localhost:11434/v1", api_key="ollama", ) response = client.chat.completions.create( model="qwen3-coder-next", messages=[{"role": "user", "content": "Hola, ¿cómo puedes ayudarme?"}] ) print(response.choices[0].message.content)

GPUs compatibles con Qwen3-Coder-Next 80B-A3B

Estas GPUs tienen suficiente VRAM para correr Qwen3-Coder-Next 80B-A3B en cuantización Q4 (44 GB):

M4 Ultra
Apple 128 GB

M4 Ultra

integrated
M3 Ultra
Apple 192 GB

M3 Ultra

integrated
M4 Max 48GB
Apple 48 GB

M4 Max 48GB

integrated

¿No ves tu GPU? Consulta todas las páginas de compatibilidad en la página del modelo Qwen3-Coder-Next 80B-A3B.

¿No sabes si tu GPU puede correr Qwen3-Coder-Next 80B-A3B?

Usa nuestra calculadora de VRAM para comprobarlo al instante y ver las opciones de cuantización disponibles.

Comprobar compatibilidad

Guías relacionadas