Familia Mistral: todos los modelos y cómo correrlos en local
Los modelos Mistral para IA local son algunos de los más populares del ecosistema open-source. Mistral AI se ha ganado una reputación de excelencia en eficiencia: sus modelos ofrecen calidad comparable a modelos mucho más grandes. Mixtral 8x7B introdujo la arquitectura Mixture of Experts (MoE) para uso local, y Mistral Small 3 ofrece rendimiento de 24B con alta velocidad de inferencia.
En esta página encontrarás todos los modelos de la familia Mistral, sus requisitos de VRAM por nivel de cuantización, y las GPUs recomendadas para correrlos en casa.
Todos los modelos Mistral para IA local: lista completa
| Modelo | Parámetros | VRAM Q4 | VRAM Q8 | Contexto | Ollama |
|---|---|---|---|---|---|
| Mistral Small 4 | 119B | 65.5 GB | 130.9 GB | 256K | mistral-small4:latest |
| Mistral Small 3 | 24B | 14.4 GB | 28.8 GB | 33K | mistral-small:24b |
| Mistral Small 3.2 | 24B | 13.2 GB | 26.4 GB | 128K | mistral-small3.2:24b |
| Mistral Nemo 12B | 12B | 7 GB | 12 GB | 131K | mistral-nemo:12b |
| Mistral Small 3.1 | 24B | 13.2 GB | 26.4 GB | 128K | mistral-small3.1:24b |
| Mistral 7B | 7B | 4.5 GB | 7 GB | 33K | mistral:7b |
Modelos Mistral por requisito de VRAM
Modelos ligeros (hasta 5 GB VRAM Q4)
- Mistral 7B Q4: 4.5 GB
Modelos medios (6–15 GB VRAM Q4)
- Mistral Small 3 Q4: 14.4 GB
- Mistral Small 3.2 Q4: 13.2 GB
- Mistral Nemo 12B Q4: 7 GB
- Mistral Small 3.1 Q4: 13.2 GB
Modelos grandes (16+ GB VRAM Q4)
- Mistral Small 4 Q4: 65.5 GB
GPUs recomendadas para familia Mistral
Estas GPUs ofrecen la mejor relación rendimiento/precio para correr modelos Mistral para IA local:
¿Tu GPU puede correr modelos Mistral?
Comprueba la compatibilidad exacta entre tu GPU y cualquier modelo de la familia Mistral con nuestra herramienta gratuita.
Verificar compatibilidad