Skip to main content

Llama 3.2 11B Vision con M4 Max 36GB: ¿Compatible?

11B parámetros · 36GB VRAM (Unified Memory) · Apple

Compatible — la M4 Max 36GB puede ejecutar Llama 3.2 11B Vision

Calidad máxima disponible. La M4 Max 36GB tiene suficiente VRAM para FP16 completo.

Análisis de VRAM por cuantización

Cuantización VRAM requerida Tu GPU ¿Funciona?
FP16 (máxima calidad) 26.4 GB 36 GB ✓ Sí
Q8 (alta calidad) 13.2 GB 36 GB ✓ Sí
Q4 (recomendado) Recomendado 6.6 GB 36 GB ✓ Sí
Q2 (mínimo) 3.3 GB 36 GB ~ Parcial

Instalar con Ollama

Ejecuta este comando en tu terminal para descargar y correr Llama 3.2 11B Vision:

ollama run llama3.2-vision:11b

Requiere Ollama instalado. Descárgalo gratis en ollama.ai

Rendimiento estimado

Velocidad estimada ~81 tok/s (muy rápida (tiempo real))
Margen de VRAM en Q4 +29.4 GB
Mejor cuantización disponible FP16
Ancho de banda de memoria 546 GB/s

Comprar M4 Max 36GB

La M4 Max 36GB es una opción premium para ejecutar Llama 3.2 11B Vision.

Aviso de afiliado: Este enlace es patrocinado. Podemos recibir una comisión sin coste adicional para ti.

Ver M4 Max 36GB en Amazon →