Skip to main content

Magistral Small 24B con RTX 3080: ¿Compatible?

24B parámetros · 10GB VRAM (GDDR6X) · NVIDIA
~

Compatible con offloading — solo cuantización Q2

VRAM insuficiente para Q4 (13.2GB necesarios). Solo posible en Q2 con offloading parcial a RAM.

Análisis de VRAM por cuantización

Cuantización VRAM requerida Tu GPU ¿Funciona?
FP16 (máxima calidad) 52.8 GB 10 GB ✗ No
Q8 (alta calidad) 26.4 GB 10 GB ✗ No
Q4 (recomendado) 13.2 GB 10 GB ✗ No (3.1999999999999993 GB menos)
Q2 (mínimo) 6.6 GB 10 GB ~ Parcial

Instalar con Ollama

Ejecuta este comando en tu terminal para descargar y correr Magistral Small 24B:

ollama run magistral:24b

Requiere Ollama instalado. Descárgalo gratis en ollama.ai

Rendimiento estimado

Velocidad estimada ~112 tok/s (muy rápida (tiempo real))
Mejor cuantización disponible Q2
Ancho de banda de memoria 760 GB/s

Comprar RTX 3080

La RTX 3080 es una opción ajustada para ejecutar Magistral Small 24B.

Aviso de afiliado: Este enlace es patrocinado. Podemos recibir una comisión sin coste adicional para ti.

Ver RTX 3080 en Amazon →