RTX 5090
Pro
- Runs Whisper Large V3 at Q4 natively
- 32 GB VRAM — adequate headroom
40 GPU consumer possono eseguire Whisper Large V3 in Q4 nativamente. Soglie VRAM precise e benchmark qui sotto.
Prices and availability may change · affiliate link
llama.cpp 0.2.x · CUDA 12 · ROCm 6 · aggiornato mensilmente · metodologia →
Questo modello richiede unaGPU entry-level (8 GB VRAM)
GTX 1660 Super
Funziona in Q4 — utilizzabile, con qualche attesa
RTX 4060 Ti 16GB
Miglior rapporto valore/prestazioni per uso quotidiano
Le migliori opzioni per compatibilita, margine VRAM e valore: prezzi e disponibilita possono cambiare.
Pro
Pro
Pro
Alcuni link sono link di affiliazione Amazon. Potremmo ricevere una commissione senza costi aggiuntivi per te. Il cookie Amazon puo durare fino a 24 ore dopo il clic.
Verifica se la tua GPU puo eseguire Whisper Large V3 →
Calcolatore VRAM — verifica compatibilita immediata
RTX 5090
32 GB · Esegue Q4 nativamente · Controlla disponibilita
*Prezzi e disponibilita possono cambiare. Alcuni link sono affiliati.
| Quantizzazione | VRAM necessaria | Spazio su disco | Qualita |
|---|---|---|---|
| FP16 (qualita massima) | 4 GB | 3.1 GB | Massima |
| Q8 (alta qualita) | 2.5 GB | 1.6 GB | Quasi senza perdita |
| Q4 (consigliato) Miglior equilibrio | 1.5 GB | 0.9 GB | Consigliata |
| Q2 (minimo) | 1 GB | 0.5 GB | Perdita di qualita |
| Sviluppatore | OpenAI |
| Parametri | 1.55B |
| Licenza | MIT |
| Casi d uso | voice |
| Rilasciato | 2023-11 |
Hugging Face
openai/whisper-large-v3 Whisper Large V3 requires <strong class="text-primary-container">1.5 GB VRAM</strong> at Q4. 40 consumer GPUs meet this threshold. Below 8 GB or -0.5 GB you'll hit significant offload latency.
40 Q4 nativo · 0 offload
| Unita GPU | VRAM | Compatibilita | Velocita stimata | Azione |
|---|---|---|---|---|
| RTX 5090 | 32GB | Ottimale | 345 tok/s | Calcola → |
| RTX 4090 | 24GB | Ottimale | 345 tok/s | Calcola → |
| M4 Ultra | 128GB | Ottimale | 345 tok/s | Calcola → |
| RTX 5080 | 16GB | Ottimale | 345 tok/s | Calcola → |
| M3 Ultra | 192GB | Ottimale | 336 tok/s | Calcola → |
| RTX 4080 Super | 16GB | Ottimale | 322 tok/s | Calcola → |
| RTX 5070 Ti | 16GB | Ottimale | 342 tok/s | Calcola → |
| RTX 3090 | 24GB | Ottimale | 344 tok/s | Calcola → |
| M4 Max 48GB | 48GB | Ottimale | 240 tok/s | Calcola → |
| RX 7900 XTX | 24GB | Ottimale | 345 tok/s | Calcola → |
| M4 Max 36GB | 36GB | Ottimale | 240 tok/s | Calcola → |
| RTX 4070 Ti Super | 16GB | Ottimale | 295 tok/s | Calcola → |
| RTX 3080 Ti | 12GB | Ottimale | 340 tok/s | Calcola → |
| RX 7900 XT | 20GB | Ottimale | 336 tok/s | Calcola → |
| RTX 5070 | 12GB | Ottimale | 295 tok/s | Calcola → |
| RTX 3080 | 10GB | Ottimale | 333 tok/s | Calcola → |
| M4 Pro | 24GB | Ottimale | 119 tok/s | Calcola → |
| RX 7800 XT | 16GB | Ottimale | 274 tok/s | Calcola → |
| RX 6800 XT | 16GB | Ottimale | 225 tok/s | Calcola → |
| RTX 4070 | 12GB | Ottimale | 221 tok/s | Calcola → |
| RTX 4060 Ti 16GB | 16GB | Ottimale | 126 tok/s | Calcola → |
| RX 7700 XT | 12GB | Ottimale | 190 tok/s | Calcola → |
| RTX 3070 Ti | 8GB | Ottimale | 267 tok/s | Calcola → |
| RTX 4060 Ti | 8GB | Ottimale | 126 tok/s | Calcola → |
| RTX 3070 | 8GB | Ottimale | 196 tok/s | Calcola → |
| RX 6700 XT | 12GB | Ottimale | 169 tok/s | Calcola → |
| M3 Pro | 18GB | Ottimale | 66 tok/s | Calcola → |
| RTX 3060 Ti | 8GB | Ottimale | 197 tok/s | Calcola → |
| RTX 2080 Ti | 11GB | Ottimale | 197 tok/s | Calcola → |
| RTX 3060 | 12GB | Ottimale | 158 tok/s | Calcola → |
| M2 Pro | 16GB | Ottimale | 88 tok/s | Calcola → |
| RTX 4060 | 8GB | Ottimale | 119 tok/s | Calcola → |
| Arc A770 16GB | 16GB | Ottimale | 98 tok/s | Calcola → |
| M1 Pro | 16GB | Ottimale | 88 tok/s | Calcola → |
| RX 7600 | 8GB | Ottimale | 127 tok/s | Calcola → |
| RX 6600 XT | 8GB | Ottimale | 119 tok/s | Calcola → |
| Arc A750 8GB | 8GB | Ottimale | 89 tok/s | Calcola → |
| RX 6600 | 8GB | Ottimale | 108 tok/s | Calcola → |
| RTX 3050 8GB | 8GB | Ottimale | 98 tok/s | Calcola → |
| GTX 1660 Super | 6GB | Ottimale | 147 tok/s | Calcola → |
Le migliori opzioni per compatibilita, margine VRAM e valore: prezzi e disponibilita possono cambiare.
RTX 5090
32 GB VRAM
Controlla disponibilita →
RTX 4090
24 GB VRAM
Controlla disponibilita →
M4 Ultra
128 GB VRAM
Controlla disponibilita →
Alcuni link sono link di affiliazione Amazon. Potremmo ricevere una commissione senza costi aggiuntivi per te. Il cookie Amazon puo durare fino a 24 ore dopo il clic.
Un modello leggero come Whisper Large V3 funziona bene su hardware consumer a partire da 6 GB di VRAM. Ideale per uso quotidiano con Ollama o LM Studio. Usa il calcolatore VRAM per verificare la tua configurazione.
Quale GPU conviene? Specifiche reali e benchmark a confronto.
GPU che eseguono Whisper Large V3 in Q4, ordinate per punteggio di prestazioni IA.
Alcuni link sono link di affiliazione Amazon. Potremmo ricevere una commissione senza costi aggiuntivi per te. Il cookie Amazon puo durare fino a 24 ore dopo il clic.
Modelli simili nella categoria voice con requisiti VRAM comparabili.
Il calcolatore VRAM ti dice esattamente quale quantizzazione puo gestire il tuo hardware.
RTX 5090
Prezzi aggiornati ogni giorno