RTX 5090
Points forts
- Exécute Whisper Large V3 en Q4 natif
- 32 GB VRAM — marge suffisante
40 GPUs grand public peuvent exécuter Whisper Large V3 en Q4 nativement. Seuils VRAM précis et benchmarks ci-dessous.
Prix et disponibilité peuvent changer · lien affilié
llama.cpp 0.2.x · CUDA 12 · ROCm 6 · mis à jour mensuellement · méthodologie →
Ce modèle nécessite unGPU d’entrée (8 GB VRAM)
GTX 1660 Super
Fonctionne en Q4 — utilisable avec un peu d’attente
RTX 4060 Ti 16GB
Meilleur équilibre valeur/performance au quotidien
Meilleures options par compatibilité, marge VRAM et valeur — prix et disponibilité peuvent varier.
Points forts
Points forts
Points forts
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Vérifiez si votre GPU peut exécuter Whisper Large V3 →
Calculateur VRAM — vérification instantanée
RTX 5090
32 GB · Exécute Q4 nativement · Voir la disponibilité
*Les prix et la disponibilité peuvent changer. Certains liens sont affiliés.
| Quantification | VRAM nécessaire | Espace disque | Qualité |
|---|---|---|---|
| FP16 (qualité maximale) | 4 GB | 3.1 GB | Maximum |
| Q8 (haute qualité) | 2.5 GB | 1.6 GB | Quasi sans perte |
| Q4 (recommandé) Meilleur équilibre | 1.5 GB | 0.9 GB | Recommandée |
| Q2 (minimum) | 1 GB | 0.5 GB | Perte de qualité |
| Développeur | OpenAI |
| Paramètres | 1.55B |
| Licence | MIT |
| Cas d’usage | voice |
| Sortie | 2023-11 |
Hugging Face
openai/whisper-large-v3 Whisper Large V3 nécessite <strong class="text-primary-container">1.5 GB de VRAM</strong> en Q4. 40 GPUs grand public atteignent ce seuil. En dessous de 8 GB ou -0.5 GB, la latence d’offload augmente fortement.
40 Q4 natif · 0 offload
| GPU | VRAM | Compatibilité | Vitesse estimée | Action |
|---|---|---|---|---|
| RTX 5090 | 32GB | Optimal | 345 tok/s | Calculer → |
| RTX 4090 | 24GB | Optimal | 345 tok/s | Calculer → |
| M4 Ultra | 128GB | Optimal | 345 tok/s | Calculer → |
| RTX 5080 | 16GB | Optimal | 345 tok/s | Calculer → |
| M3 Ultra | 192GB | Optimal | 336 tok/s | Calculer → |
| RTX 4080 Super | 16GB | Optimal | 322 tok/s | Calculer → |
| RTX 5070 Ti | 16GB | Optimal | 342 tok/s | Calculer → |
| RTX 3090 | 24GB | Optimal | 344 tok/s | Calculer → |
| M4 Max 48GB | 48GB | Optimal | 240 tok/s | Calculer → |
| RX 7900 XTX | 24GB | Optimal | 345 tok/s | Calculer → |
| M4 Max 36GB | 36GB | Optimal | 240 tok/s | Calculer → |
| RTX 4070 Ti Super | 16GB | Optimal | 295 tok/s | Calculer → |
| RTX 3080 Ti | 12GB | Optimal | 340 tok/s | Calculer → |
| RX 7900 XT | 20GB | Optimal | 336 tok/s | Calculer → |
| RTX 5070 | 12GB | Optimal | 295 tok/s | Calculer → |
| RTX 3080 | 10GB | Optimal | 333 tok/s | Calculer → |
| M4 Pro | 24GB | Optimal | 119 tok/s | Calculer → |
| RX 7800 XT | 16GB | Optimal | 274 tok/s | Calculer → |
| RX 6800 XT | 16GB | Optimal | 225 tok/s | Calculer → |
| RTX 4070 | 12GB | Optimal | 221 tok/s | Calculer → |
| RTX 4060 Ti 16GB | 16GB | Optimal | 126 tok/s | Calculer → |
| RX 7700 XT | 12GB | Optimal | 190 tok/s | Calculer → |
| RTX 3070 Ti | 8GB | Optimal | 267 tok/s | Calculer → |
| RTX 4060 Ti | 8GB | Optimal | 126 tok/s | Calculer → |
| RTX 3070 | 8GB | Optimal | 196 tok/s | Calculer → |
| RX 6700 XT | 12GB | Optimal | 169 tok/s | Calculer → |
| M3 Pro | 18GB | Optimal | 66 tok/s | Calculer → |
| RTX 3060 Ti | 8GB | Optimal | 197 tok/s | Calculer → |
| RTX 2080 Ti | 11GB | Optimal | 197 tok/s | Calculer → |
| RTX 3060 | 12GB | Optimal | 158 tok/s | Calculer → |
| M2 Pro | 16GB | Optimal | 88 tok/s | Calculer → |
| RTX 4060 | 8GB | Optimal | 119 tok/s | Calculer → |
| Arc A770 16GB | 16GB | Optimal | 98 tok/s | Calculer → |
| M1 Pro | 16GB | Optimal | 88 tok/s | Calculer → |
| RX 7600 | 8GB | Optimal | 127 tok/s | Calculer → |
| RX 6600 XT | 8GB | Optimal | 119 tok/s | Calculer → |
| Arc A750 8GB | 8GB | Optimal | 89 tok/s | Calculer → |
| RX 6600 | 8GB | Optimal | 108 tok/s | Calculer → |
| RTX 3050 8GB | 8GB | Optimal | 98 tok/s | Calculer → |
| GTX 1660 Super | 6GB | Optimal | 147 tok/s | Calculer → |
Meilleurs choix selon compatibilité, marge VRAM et valeur; prix et disponibilité peuvent varier.
RTX 5090
32 GB VRAM
Voir disponibilité →
RTX 4090
24 GB VRAM
Voir disponibilité →
M4 Ultra
128 GB VRAM
Voir disponibilité →
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Un modèle léger comme Whisper Large V3 fonctionne bien sur du matériel grand public à partir de 6 GB de VRAM. Idéal au quotidien avec Ollama ou LM Studio. Utilisez le calculateur VRAM pour vérifier votre configuration.
Quel GPU vaut le coup ? Spécifications et benchmarks réels côte à côte.
GPUs qui exécutent Whisper Large V3 en Q4, triés par score de performance IA.
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Modèles similaires dans la catégorie voice avec des besoins VRAM comparables.
Le calculateur VRAM vous indique exactement quelle quantification votre matériel peut supporter.
RTX 5090
Prix mis à jour quotidiennement