RTX 5090
Pro
- Runs Qwen2.5 1.5B at Q4 natively
- 32 GB VRAM — adequate headroom
40 GPU consumer possono eseguire Qwen2.5 1.5B in Q4 nativamente. Soglie VRAM precise e benchmark qui sotto.
Prices and availability may change · affiliate link
llama.cpp 0.2.x · CUDA 12 · ROCm 6 · aggiornato mensilmente · metodologia →
Questo modello richiede unaGPU entry-level (8 GB VRAM)
GTX 1660 Super
Funziona in Q4 — utilizzabile, con qualche attesa
RTX 4060 Ti 16GB
Miglior rapporto valore/prestazioni per uso quotidiano
Le migliori opzioni per compatibilita, margine VRAM e valore: prezzi e disponibilita possono cambiare.
Pro
Pro
Pro
Alcuni link sono link di affiliazione Amazon. Potremmo ricevere una commissione senza costi aggiuntivi per te. Il cookie Amazon puo durare fino a 24 ore dopo il clic.
CPU vs GPU per Qwen2.5 1.5B →
Calcolatore VRAM — verifica compatibilita immediata
RTX 5090
32 GB · Esegue Q4 nativamente · Controlla disponibilita
*Prezzi e disponibilita possono cambiare. Alcuni link sono affiliati.
| Quantizzazione | VRAM necessaria | Spazio su disco | Qualita |
|---|---|---|---|
| FP16 (qualita massima) | 3 GB | 3 GB | Massima |
| Q8 (alta qualita) | 1.5 GB | 1.5 GB | Quasi senza perdita |
| Q4 (consigliato) Miglior equilibrio | 1 GB | 1 GB | Consigliata |
| Q2 (minimo) | 0.5 GB | 0.5 GB | Perdita di qualita |
| Sviluppatore | Alibaba |
| Parametri | 1.5B |
| Finestra di contesto | 131,072 token |
| Licenza | Apache-2.0 |
| Casi d uso | chat, edge, mobile |
| Rilasciato | 2024-09 |
Installa con Ollama
ollama run qwen2.5:1.5b Hugging Face
Qwen/Qwen2.5-1.5B-Instruct Qwen2.5 1.5B requires <strong class="text-primary-container">1 GB VRAM</strong> at Q4. 40 consumer GPUs meet this threshold. Below 8 GB or -1 GB you'll hit significant offload latency.
40 Q4 nativo · 0 offload
| Unita GPU | VRAM | Compatibilita | Velocita stimata | Azione |
|---|---|---|---|---|
| RTX 5090 | 32GB | Ottimale | 350 tok/s | Calcola → |
| RTX 4090 | 24GB | Ottimale | 350 tok/s | Calcola → |
| M4 Ultra | 128GB | Ottimale | 350 tok/s | Calcola → |
| RTX 5080 | 16GB | Ottimale | 350 tok/s | Calcola → |
| M3 Ultra | 192GB | Ottimale | 342 tok/s | Calcola → |
| RTX 4080 Super | 16GB | Ottimale | 328 tok/s | Calcola → |
| RTX 5070 Ti | 16GB | Ottimale | 347 tok/s | Calcola → |
| RTX 3090 | 24GB | Ottimale | 349 tok/s | Calcola → |
| M4 Max 48GB | 48GB | Ottimale | 244 tok/s | Calcola → |
| RX 7900 XTX | 24GB | Ottimale | 350 tok/s | Calcola → |
| M4 Max 36GB | 36GB | Ottimale | 244 tok/s | Calcola → |
| RTX 4070 Ti Super | 16GB | Ottimale | 300 tok/s | Calcola → |
| RTX 3080 Ti | 12GB | Ottimale | 345 tok/s | Calcola → |
| RX 7900 XT | 20GB | Ottimale | 342 tok/s | Calcola → |
| RTX 5070 | 12GB | Ottimale | 300 tok/s | Calcola → |
| RTX 3080 | 10GB | Ottimale | 339 tok/s | Calcola → |
| M4 Pro | 24GB | Ottimale | 122 tok/s | Calcola → |
| RX 7800 XT | 16GB | Ottimale | 279 tok/s | Calcola → |
| RX 6800 XT | 16GB | Ottimale | 230 tok/s | Calcola → |
| RTX 4070 | 12GB | Ottimale | 225 tok/s | Calcola → |
| RTX 4060 Ti 16GB | 16GB | Ottimale | 128 tok/s | Calcola → |
| RX 7700 XT | 12GB | Ottimale | 193 tok/s | Calcola → |
| RTX 3070 Ti | 8GB | Ottimale | 272 tok/s | Calcola → |
| RTX 4060 Ti | 8GB | Ottimale | 128 tok/s | Calcola → |
| RTX 3070 | 8GB | Ottimale | 200 tok/s | Calcola → |
| RX 6700 XT | 12GB | Ottimale | 172 tok/s | Calcola → |
| M3 Pro | 18GB | Ottimale | 67 tok/s | Calcola → |
| RTX 3060 Ti | 8GB | Ottimale | 201 tok/s | Calcola → |
| RTX 2080 Ti | 11GB | Ottimale | 201 tok/s | Calcola → |
| RTX 3060 | 12GB | Ottimale | 161 tok/s | Calcola → |
| M2 Pro | 16GB | Ottimale | 89 tok/s | Calcola → |
| RTX 4060 | 8GB | Ottimale | 122 tok/s | Calcola → |
| Arc A770 16GB | 16GB | Ottimale | 100 tok/s | Calcola → |
| M1 Pro | 16GB | Ottimale | 89 tok/s | Calcola → |
| RX 7600 | 8GB | Ottimale | 129 tok/s | Calcola → |
| RX 6600 XT | 8GB | Ottimale | 122 tok/s | Calcola → |
| Arc A750 8GB | 8GB | Ottimale | 91 tok/s | Calcola → |
| RX 6600 | 8GB | Ottimale | 110 tok/s | Calcola → |
| RTX 3050 8GB | 8GB | Ottimale | 100 tok/s | Calcola → |
| GTX 1660 Super | 6GB | Ottimale | 150 tok/s | Calcola → |
Le migliori opzioni per compatibilita, margine VRAM e valore: prezzi e disponibilita possono cambiare.
RTX 5090
32 GB VRAM
Controlla disponibilita →
RTX 4090
24 GB VRAM
Controlla disponibilita →
M4 Ultra
128 GB VRAM
Controlla disponibilita →
Alcuni link sono link di affiliazione Amazon. Potremmo ricevere una commissione senza costi aggiuntivi per te. Il cookie Amazon puo durare fino a 24 ore dopo il clic.
Qwen2.5 1.5B e un modello leggero che gira direttamente su CPU, senza GPU dedicata. Su un i7-13700K con llama.cpp Q4 raggiunge 38 token/s, sufficiente per chat in tempo reale. Con una GPU ottieni fino a ~137 tok/s con 6 GB di VRAM. Ideale per laptop e desktop senza scheda grafica dedicata.
Quale GPU conviene? Specifiche reali e benchmark a confronto.
GPU che eseguono Qwen2.5 1.5B in Q4, ordinate per punteggio di prestazioni IA.
Alcuni link sono link di affiliazione Amazon. Potremmo ricevere una commissione senza costi aggiuntivi per te. Il cookie Amazon puo durare fino a 24 ore dopo il clic.
Modelli simili nella categoria chat con requisiti VRAM comparabili.
Il calcolatore VRAM ti dice esattamente quale quantizzazione puo gestire il tuo hardware.
RTX 5090
Prezzi aggiornati ogni giorno