Vai al contenuto principale
Libreria modelli v2.4

Modelli IA per
inferenza locale

99 modelli con requisiti VRAM precisi in FP16, Q8, Q4 e Q2. Scegli un modello e scopri quale GPU puo eseguirlo e con quale qualita.

99 modelli indicizzati
51 girano su 8 GB
59 chat
13 codice
Raccomandazione

Stai iniziando?

Llama 3.1 8B Q4 e il miglior punto di partenza: funziona su GPU con 6 GB+ VRAM. Con 12 GB+ puoi passare a Mistral 7B o Llama 3.1 13B.

Vedi Llama 3.1 8B
Selettore percorsi modello
/modelo/livello decisionale

Scegli un percorso modello adatto al tuo hardware

Guida per obiettivo:Questi percorsi collegano il tuo obiettivo a una soglia minima di VRAM, con modello e GPU consigliati prima di entrare nel catalogo completo.

3
Scenari decisionali
9.3GB
VRAM minima media
12GB
Percorso piu alto

Chat e ragionamento (59)

LLM generali per conversazione e ragionamento complesso

Llama 3.1 405B 230 GB
Parametri 405B
Provider Meta
Contesto 131K tokens
llama-3.1-community Vedi dettagli →
DeepSeek R1 403 GB
Parametri 671B
Provider DeepSeek
Contesto 128K tokens
MIT Vedi dettagli →
DeepSeek V3.2 369.1 GB
Parametri 671B
Provider DeepSeek
Contesto 128K tokens
MIT Vedi dettagli →
DeepSeek V3 411 GB
Parametri 685B
Provider DeepSeek
Contesto 128K tokens
MIT Vedi dettagli →
Llama 3.3 70B 42 GB
Parametri 70B
Provider Meta
Contesto 128K tokens
GPU min. M4 Max 48GB
llama-3-community Vedi dettagli →
Qwen2.5 72B 41 GB
Parametri 72B
Provider Alibaba
Contesto 131K tokens
GPU min. M4 Max 48GB
Apache-2.0 Vedi dettagli →
Llama 3.1 70B 40 GB
Parametri 70B
Provider Meta
Contesto 131K tokens
GPU min. M4 Max 48GB
llama-3.1-community Vedi dettagli →
DeepSeek R1 Distill 32B 19.2 GB
Parametri 32B
Provider DeepSeek
Contesto 128K tokens
GPU min. RX 7900 XT
MIT Vedi dettagli →
Qwen3 235B-A22B 129.3 GB
Parametri 235B
Provider Alibaba
Contesto 131K tokens
GPU min. M3 Ultra
Apache 2.0 Vedi dettagli →
Qwen2.5 32B 19.2 GB
Parametri 32B
Provider Alibaba
Contesto 131K tokens
GPU min. RX 7900 XT
Apache-2.0 Vedi dettagli →
Command R+ 59 GB
Parametri 104B
Provider Cohere
Contesto 131K tokens
GPU min. M4 Ultra
CC-BY-NC-4.0 Vedi dettagli →
Qwen3.5 35B-A3B 19.3 GB
Parametri 35B
Provider Alibaba
Contesto 128K tokens
Velocita CPU 8 tok/s
Apache 2.0 Vedi dettagli →
Gemma 2 27B 15 GB
Parametri 27B
Provider Google
Contesto 8K tokens
GPU min. M1 Pro
Gemma Vedi dettagli →
Gemma 3 27B 16.2 GB
Parametri 27B
Provider Google
Contesto 128K tokens
GPU min. M3 Pro
Gemma Vedi dettagli →
Mistral Small 4 65.5 GB
Parametri 119B
Provider Mistral AI
Contesto 256K tokens
GPU min. M4 Ultra
Apache 2.0 Vedi dettagli →
Mixtral 8x7B 26 GB
Parametri 46.7B
Provider Mistral AI
Contesto 33K tokens
GPU min. RTX 5090
Apache-2.0 Vedi dettagli →
Mistral Small 3 14.4 GB
Parametri 24B
Provider Mistral AI
Contesto 33K tokens
GPU min. M1 Pro
Apache-2.0 Vedi dettagli →
Phi-4 8.4 GB
Parametri 14B
Provider Microsoft
Contesto 16K tokens
GPU min. RTX 3080
MIT Vedi dettagli →
Qwen3 32B 17.6 GB
Parametri 32B
Provider Alibaba
Contesto 128K tokens
Velocita CPU 2 tok/s
Apache 2.0 Vedi dettagli →
Qwen3 30B-A3B 16.5 GB
Parametri 30B
Provider Alibaba
Contesto 131K tokens
GPU min. M3 Pro
Apache 2.0 Vedi dettagli →
DeepSeek R1 Distill 14B 8.4 GB
Parametri 14B
Provider DeepSeek
Contesto 128K tokens
GPU min. RTX 3080
MIT Vedi dettagli →
Qwen3.5 27B 14.9 GB
Parametri 27B
Provider Alibaba
Contesto 128K tokens
Velocita CPU 3 tok/s
Apache 2.0 Vedi dettagli →
Magistral Small 24B 13.2 GB
Parametri 24B
Provider Mistral AI
Contesto 128K tokens
Velocita CPU 5 tok/s
Apache 2.0 Vedi dettagli →
Yi 1.5 34B 20 GB
Parametri 34B
Provider 01.AI
Contesto 4K tokens
GPU min. RX 7900 XT
Apache-2.0 Vedi dettagli →
Qwen2.5 14B 8.4 GB
Parametri 14B
Provider Alibaba
Contesto 131K tokens
GPU min. RTX 3080
Apache-2.0 Vedi dettagli →
Mistral Small 3.2 13.2 GB
Parametri 24B
Provider Mistral AI
Contesto 128K tokens
Velocita CPU 1 tok/s
Apache 2.0 Vedi dettagli →
Qwen3 14B 7.7 GB
Parametri 14B
Provider Alibaba
Contesto 131K tokens
Velocita CPU 5 tok/s
Apache 2.0 Vedi dettagli →
Gemma 3 12B 7.2 GB
Parametri 12B
Provider Google
Contesto 128K tokens
GPU min. RTX 3050 8GB
Gemma Vedi dettagli →
Phi-3 Medium 8 GB
Parametri 14B
Provider Microsoft
Contesto 128K tokens
GPU min. RTX 3050 8GB
MIT Vedi dettagli →
DeepSeek R1 Distill 8B 4.8 GB
Parametri 8B
Provider DeepSeek
Contesto 128K tokens
Velocita CPU 8 tok/s
MIT Vedi dettagli →
Mistral Nemo 12B 7 GB
Parametri 12B
Provider Mistral AI
Contesto 131K tokens
Velocita CPU 6 tok/s
Apache-2.0 Vedi dettagli →
Qwen3.5 9B 5 GB
Parametri 9B
Provider Alibaba
Contesto 128K tokens
Velocita CPU 12 tok/s
Apache 2.0 Vedi dettagli →
Qwen3 8B 4.4 GB
Parametri 8B
Provider Alibaba
Contesto 128K tokens
Velocita CPU 9 tok/s
Apache 2.0 Vedi dettagli →
Nous Hermes 2 Mixtral 8x7B 26 GB
Parametri 47B
Provider Nous Research
Contesto 33K tokens
Velocita CPU 2 tok/s
apache-2.0 Vedi dettagli →
Gemma 2 9B 5.5 GB
Parametri 9B
Provider Google
Contesto 8K tokens
GPU min. GTX 1660 Super
Gemma Vedi dettagli →
Phi-3.5 MoE 21 GB
Parametri 41.9B
Provider Microsoft
Contesto 131K tokens
GPU min. M4 Pro
MIT Vedi dettagli →
Phi-4 Mini 2.1 GB
Parametri 3.8B
Provider Microsoft
Contesto 128K tokens
Velocita CPU 30 tok/s
MIT Vedi dettagli →
Llama 3.1 8B 5 GB
Parametri 8B
Provider Meta
Contesto 131K tokens
Velocita CPU 7 tok/s
llama-3.1-community Vedi dettagli →
Qwen2.5 7B 4.5 GB
Parametri 7B
Provider Alibaba
Contesto 131K tokens
Velocita CPU 8 tok/s
Apache-2.0 Vedi dettagli →
DeepSeek V2 Lite 9 GB
Parametri 16B
Provider DeepSeek
Contesto 33K tokens
GPU min. RTX 3080
DeepSeek Vedi dettagli →
Mistral 7B 4.5 GB
Parametri 7B
Provider Mistral AI
Contesto 33K tokens
Velocita CPU 8 tok/s
Apache-2.0 Vedi dettagli →
Yi 1.5 9B 5.5 GB
Parametri 9B
Provider 01.AI
Contesto 4K tokens
GPU min. GTX 1660 Super
Apache-2.0 Vedi dettagli →
Phi-3 Small 4.5 GB
Parametri 7B
Provider Microsoft
Contesto 128K tokens
Velocita CPU 8 tok/s
MIT Vedi dettagli →
Qwen3.5 4B 2.6 GB
Parametri 4.66B
Provider Alibaba
Contesto 262K tokens
Velocita CPU 12 tok/s
Apache 2.0 Vedi dettagli →
Qwen3 4B 2.2 GB
Parametri 4B
Provider Alibaba
Contesto 131K tokens
Velocita CPU 15 tok/s
Apache 2.0 Vedi dettagli →
Gemma 3 4B 2.4 GB
Parametri 4B
Provider Google
Contesto 128K tokens
Velocita CPU 16 tok/s
Gemma Vedi dettagli →
Phi-3.5 Mini 2.3 GB
Parametri 3.8B
Provider Microsoft
Contesto 128K tokens
Velocita CPU 13 tok/s
MIT Vedi dettagli →
DeepSeek R1 Distill 1.5B 1 GB
Parametri 1.5B
Provider DeepSeek
Contesto 128K tokens
Velocita CPU 35 tok/s
MIT Vedi dettagli →
Yi 1.5 6B 3.7 GB
Parametri 6B
Provider 01.AI
Contesto 4K tokens
Velocita CPU 9 tok/s
Apache-2.0 Vedi dettagli →
Phi-3 Mini 2.5 GB
Parametri 3.8B
Provider Microsoft
Contesto 128K tokens
Velocita CPU 14 tok/s
MIT Vedi dettagli →
Qwen3.5 2B 1.2 GB
Parametri 2.27B
Provider Alibaba
Contesto 262K tokens
Velocita CPU 22 tok/s
Apache 2.0 Vedi dettagli →
Qwen3 1.7B 0.9 GB
Parametri 1.7B
Provider Alibaba
Contesto 131K tokens
Velocita CPU 35 tok/s
Apache 2.0 Vedi dettagli →
Gemma 2 2B 1.5 GB
Parametri 2B
Provider Google
Contesto 8K tokens
Velocita CPU 32 tok/s
Gemma Vedi dettagli →
Qwen2.5 3B 1.9 GB
Parametri 3B
Provider Alibaba
Contesto 131K tokens
Velocita CPU 20 tok/s
Apache-2.0 Vedi dettagli →
Llama 3.2 3B 1.8 GB
Parametri 3B
Provider Meta
Contesto 131K tokens
Velocita CPU 18 tok/s
llama-3.2-community Vedi dettagli →
Gemma 3 1B 0.7 GB
Parametri 1B
Provider Google
Contesto 128K tokens
Velocita CPU 42 tok/s
Gemma Vedi dettagli →
Qwen2.5 1.5B 1 GB
Parametri 1.5B
Provider Alibaba
Contesto 131K tokens
Velocita CPU 38 tok/s
Apache-2.0 Vedi dettagli →
Llama 3.2 1B 0.6 GB
Parametri 1B
Provider Meta
Contesto 131K tokens
Velocita CPU 52 tok/s
llama-3.2-community Vedi dettagli →
Qwen2.5 0.5B 0.35 GB
Parametri 0.5B
Provider Alibaba
Contesto 131K tokens
Velocita CPU 95 tok/s
Apache-2.0 Vedi dettagli →

Generazione codice (13)

Modelli specializzati per scrivere, revisionare e spiegare codice

Qwen2.5-Coder 32B 19.2 GB
Parametri 32B
Provider Alibaba
Contesto 131K tokens
GPU min. RX 7900 XT
Apache-2.0 Vedi dettagli →
Qwen3-Coder-Next 80B-A3B 44 GB
Parametri 80B
Provider Alibaba
Contesto 262K tokens
GPU min. M4 Max 48GB
Apache 2.0 Vedi dettagli →
Qwen3-Coder 30B-A3B 16.5 GB
Parametri 30B
Provider Alibaba
Contesto 262K tokens
GPU min. M3 Pro
Apache 2.0 Vedi dettagli →
Devstral Small 2 24B 13.2 GB
Parametri 24B
Provider Mistral AI
Contesto 256K tokens
Velocita CPU 5 tok/s
Apache 2.0 Vedi dettagli →
CodeLlama 34B 19 GB
Parametri 34B
Provider Meta
Contesto 16K tokens
GPU min. RX 7900 XT
llama-2-community Vedi dettagli →
DeepSeek Coder V2 9 GB
Parametri 16B
Provider DeepSeek
Contesto 131K tokens
GPU min. RTX 3080
DeepSeek Vedi dettagli →
Qwen2.5 Coder 14B 8 GB
Parametri 14B
Provider Alibaba
Contesto 131K tokens
Velocita CPU 5 tok/s
Apache-2.0 Vedi dettagli →
StarCoder 2 15B 9 GB
Parametri 15B
Provider BigCode
Contesto 16K tokens
GPU min. RTX 3080
BigCode OpenRAIL-M v1 Vedi dettagli →
Qwen2.5-Coder 7B 4.2 GB
Parametri 7B
Provider Alibaba
Contesto 131K tokens
Velocita CPU 9 tok/s
Apache-2.0 Vedi dettagli →
StarCoder 2 7B 4.5 GB
Parametri 7B
Provider BigCode
Contesto 16K tokens
Velocita CPU 8 tok/s
BigCode OpenRAIL-M v1 Vedi dettagli →
CodeGemma 7B 4.5 GB
Parametri 7B
Provider Google
Contesto 8K tokens
GPU min. GTX 1660 Super
Gemma Vedi dettagli →
CodeLlama 7B 4.5 GB
Parametri 7B
Provider Meta
Contesto 16K tokens
Velocita CPU 8 tok/s
llama-2-community Vedi dettagli →
StarCoder 2 3B 1.9 GB
Parametri 3B
Provider BigCode
Contesto 16K tokens
Velocita CPU 18 tok/s
BigCode OpenRAIL-M v1 Vedi dettagli →