Skip to main content

CodeLlama 34B con RTX 4090: ¿Compatible?

34B parámetros · 24GB VRAM (GDDR6X) · NVIDIA

Compatible — la RTX 4090 puede ejecutar CodeLlama 34B

Cuantización Q4 recomendada. 5GB de margen disponible.

Análisis de VRAM por cuantización

Cuantización VRAM requerida Tu GPU ¿Funciona?
FP16 (máxima calidad) 68 GB 24 GB ✗ No
Q8 (alta calidad) 34 GB 24 GB ✗ No
Q4 (recomendado) Recomendado 19 GB 24 GB ✓ Sí
Q2 (mínimo) 10 GB 24 GB ~ Parcial

Instalar con Ollama

Ejecuta este comando en tu terminal para descargar y correr CodeLlama 34B:

ollama run codellama:34b

Requiere Ollama instalado. Descárgalo gratis en ollama.ai

Rendimiento estimado

Velocidad estimada ~52 tok/s (muy rápida (tiempo real))
Margen de VRAM en Q4 +5 GB
Mejor cuantización disponible Q4
Ancho de banda de memoria 1008 GB/s

Comprar RTX 4090

La RTX 4090 es una opción ajustada para ejecutar CodeLlama 34B.

Aviso de afiliado: Este enlace es patrocinado. Podemos recibir una comisión sin coste adicional para ti.

Ver RTX 4090 en Amazon →