Skip to main content

CodeLlama 34B con M4 Max 36GB: ¿Compatible?

34B parámetros · 36GB VRAM (Unified Memory) · Apple

Compatible — la M4 Max 36GB puede ejecutar CodeLlama 34B

Alta calidad disponible. 17GB de margen sobre Q4.

Análisis de VRAM por cuantización

Cuantización VRAM requerida Tu GPU ¿Funciona?
FP16 (máxima calidad) 68 GB 36 GB ✗ No
Q8 (alta calidad) 34 GB 36 GB ✓ Sí
Q4 (recomendado) Recomendado 19 GB 36 GB ✓ Sí
Q2 (mínimo) 10 GB 36 GB ~ Parcial

Instalar con Ollama

Ejecuta este comando en tu terminal para descargar y correr CodeLlama 34B:

ollama run codellama:34b

Requiere Ollama instalado. Descárgalo gratis en ollama.ai

Rendimiento estimado

Velocidad estimada ~28 tok/s (rápida (cómoda para uso diario))
Margen de VRAM en Q4 +17 GB
Mejor cuantización disponible Q8
Ancho de banda de memoria 546 GB/s

Comprar M4 Max 36GB

La M4 Max 36GB es una opción sólida para ejecutar CodeLlama 34B.

Aviso de afiliado: Este enlace es patrocinado. Podemos recibir una comisión sin coste adicional para ti.

Ver M4 Max 36GB en Amazon →