Llama 3.2 3B con M3 Pro: ¿Compatible?
3B parámetros · 18GB VRAM (Unified Memory) · Apple
✓
Compatible — la M3 Pro puede ejecutar Llama 3.2 3B
Calidad máxima disponible. La M3 Pro tiene suficiente VRAM para FP16 completo.
Análisis de VRAM por cuantización
| Cuantización | VRAM requerida | Tu GPU | ¿Funciona? |
|---|---|---|---|
| FP16 (máxima calidad) | 7.2 GB | 18 GB | ✓ Sí |
| Q8 (alta calidad) | 3.6 GB | 18 GB | ✓ Sí |
| Q4 (recomendado) Recomendado | 1.8 GB | 18 GB | ✓ Sí |
| Q2 (mínimo) | 0.9 GB | 18 GB | ~ Parcial |
Instalar con Ollama
Ejecuta este comando en tu terminal para descargar y correr Llama 3.2 3B:
ollama run llama3.2:3b Requiere Ollama instalado. Descárgalo gratis en ollama.ai
Rendimiento estimado
Velocidad estimada
~81 tok/s
(muy rápida (tiempo real))
Margen de VRAM en Q4 +16.2 GB
Mejor cuantización disponible FP16
Ancho de banda de memoria 150 GB/s
Comprar M3 Pro
La M3 Pro es una opción premium para ejecutar Llama 3.2 3B.
Aviso de afiliado: Este enlace es patrocinado. Podemos recibir una comisión sin coste adicional para ti.
Ver M3 Pro en Amazon →