Skip to main content

CodeLlama 34B con M1 Pro: ¿Compatible?

34B parámetros · 16GB VRAM (Unified Memory) · Apple
~

Compatible con offloading — solo cuantización Q2

VRAM insuficiente para Q4 (19GB necesarios). Solo posible en Q2 con offloading parcial a RAM.

Análisis de VRAM por cuantización

Cuantización VRAM requerida Tu GPU ¿Funciona?
FP16 (máxima calidad) 68 GB 16 GB ✗ No
Q8 (alta calidad) 34 GB 16 GB ✗ No
Q4 (recomendado) 19 GB 16 GB ✗ No (3 GB menos)
Q2 (mínimo) 10 GB 16 GB ~ Parcial

Instalar con Ollama

Ejecuta este comando en tu terminal para descargar y correr CodeLlama 34B:

ollama run codellama:34b

Requiere Ollama instalado. Descárgalo gratis en ollama.ai

Rendimiento estimado

Velocidad estimada ~20 tok/s (rápida (cómoda para uso diario))
Mejor cuantización disponible Q2
Ancho de banda de memoria 200 GB/s

Comprar M1 Pro

La M1 Pro es una opción ajustada para ejecutar CodeLlama 34B.

Aviso de afiliado: Este enlace es patrocinado. Podemos recibir una comisión sin coste adicional para ti.

Ver M1 Pro en Amazon →