Saltar al contenido principal
Motor local listo

Llama 3.2 90B Vision

2 GPUs de consumo pueden ejecutar Llama 3.2 90B Vision en Q4 de forma nativa. Umbrales de VRAM y benchmarks precisos abajo.

2 GPUs compatibles
3 con offloading
90B parámetros
131K contexto
Mejor opción
M4 Ultra · 128 GB VRAM Q4 nativo

Precios y disponibilidad pueden cambiar · enlace de afiliado

Javier Morales
Javier Morales Especialista en hardware IA — 8 años de experiencia
GitHub: github.com/javier-morales-ia

llama.cpp 0.2.x · CUDA 12 · ROCm 6 · actualizado mensualmente · metodología →

Contexto de ejecución

ARQUITECTURA TRANSFORMER
CONTEXTO 131K TOKENS
CUANTIZACIÓN 4-BIT GGUF
PROVEEDOR Meta
LICENCIA llama-3.2-community
REQUISITO VRAM
54 GB
4GB 8GB 12GB 16GB 24GB+
Decisión de hardware

Este modelo requiere unaGPU tope de gama (48 GB+ VRAM)

Mínimo

M4 Ultra

Funciona en Q4 — usable, con algo de espera

128 GB VRAM
Ver configuración compatible
Equilibrado

M3 Ultra

Mejor relación valor/rendimiento diario

192 GB VRAM
Ver configuración compatible
Óptimo

M4 Ultra

Máxima calidad, inferencia más rápida

128 GB VRAM
Ver configuración compatible

GPUs compatibles para Llama 3.2 90B Vision

Mejores opciones por compatibilidad, margen de VRAM y valor — precios y disponibilidad pueden cambiar.

M4 Ultra
128 GB VRAM · Q4 nativo Amazon

M4 Ultra

0.0 (0 reseñas)

Ventajas

  • Ejecuta Llama 3.2 90B Vision Q4 nativo
  • 128 GB VRAM — margen suficiente
M3 Ultra
192 GB VRAM · Q4 nativo Amazon

M3 Ultra

0.0 (0 reseñas)

Ventajas

  • Ejecuta Llama 3.2 90B Vision Q4 nativo
  • 192 GB VRAM — margen suficiente
Ver M3 Ultra en Amazon →
RTX 5090
32 GB VRAM · Offloading Amazon

RTX 5090

4.4 (234 reseñas)

Ventajas

  • Funciona con offloading CPU
  • 32 GB VRAM — margen suficiente

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

*Los precios y la disponibilidad pueden cambiar. Algunos enlaces son de afiliado.

Requisitos del sistema

VRAM GPU 54 GB GPU gama alta
RAM del sistema 81 GB 64 GB o más
Almacenamiento 54 GB Q4 · SSD recomendado
CPU Cualquier CPU moderna GPU requerida

VRAM por cuantización

Cuantización VRAM necesaria Espacio en disco Calidad
FP16 (calidad máxima) 180 GB 180 GB Máxima
Q8 (alta calidad) 90 GB 90 GB Casi sin pérdida
Q4 (recomendado) Mejor equilibrio 54 GB 54 GB Recomendada
Q2 (mínimo) 27 GB 27 GB Pérdida de calidad

Detalles del modelo

Desarrollador Meta
Parámetros 90B
Ventana de contexto 131,072 tokens
Licencia llama-3.2-community
Casos de uso vision, multimodal, chat, image-analysis
Lanzamiento 2024-09

Instalar con Ollama

ollama run llama3.2-vision:90b

Hugging Face

meta-llama/Llama-3.2-90B-Vision-Instruct
Ver en HF →
Requisitos técnicos

¿Tu GPU puede ejecutar Llama 3.2 90B Vision?

Llama 3.2 90B Vision requiere <strong class="text-primary-container">54 GB de VRAM</strong> en Q4. 2 GPUs de consumo cumplen este umbral. Por debajo de 8 GB o 52 GB verás una latencia de offload notable.

27GB Mínimo crítico
54GB Óptimo Q4
90GB Alta calidad Q8
180GB Máximo FP16

Matriz de rendimiento de hardware

2 Q4 nativo · 3 offload

GPU VRAM Compatibilidad Velocidad est. Acción
M4 Ultra 128GB Óptimo 45 tok/s Calcular →
M3 Ultra 192GB Óptimo 38 tok/s Calcular →
RTX 5090 32GB Offload Calcular →
M4 Max 48GB 48GB Offload 20 tok/s Calcular →
M4 Max 36GB 36GB Offload Calcular →

GPUs recomendadas para Llama 3.2 90B Vision

Benchmarks Reales
Sin Reviews Pagadas
Selección Editorial
Basado en Datos

Mejores opciones por compatibilidad, margen de VRAM y valor; precios y disponibilidad pueden cambiar.

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

Llama 3.2 90B Vision — Guía de compatibilidad

Llama 3.2 90B Vision con 90B parámetros solo se ejecuta completamente en configuraciones multi-GPU o de servidor. Considera versiones destiladas si existen. La calculadora de VRAM puede ayudarte a encontrar alternativas compatibles.

Compara GPUs para Llama 3.2 90B Vision

¿Qué GPU merece la pena? Especificaciones y benchmarks reales lado a lado.

Hardware compatible

GPUs que ejecutan Llama 3.2 90B Vision en Q4, ordenadas por rendimiento en IA.

Benchmarks Reales
Sin Reviews Pagadas
Basado en Datos
M4 Ultra

Apple · 128 GB VRAM

Q4 OK
45 tok/s > $1000
M3 Ultra

Apple · 192 GB VRAM

Q4 OK
38 tok/s > $1000

Algunos enlaces son enlaces de afiliado de Amazon. Podemos ganar una comisión sin coste adicional para ti. La cookie de Amazon puede durar hasta 24 horas tras tu clic.

Alternativas más prácticas

Modelos similares en la categoría vision con requisitos de VRAM comparables.

¿No sabes qué GPU necesitas para Llama 3.2 90B Vision?

La calculadora de VRAM te dice exactamente qué cuantización soporta tu hardware.

M4 Ultra

Ver disponibilidad

Los precios cambian a diario