Aller au contenu principal
Moteur local prêt

Whisper Large V3

40 GPUs grand public peuvent exécuter Whisper Large V3 en Q4 nativement. Seuils VRAM précis et benchmarks ci-dessous.

40 GPUs compatibles
1.55B paramètres
Meilleur choix
RTX 5090 · 32 GB VRAM Q4 natif

Prix et disponibilité peuvent changer · lien affilié

Javier Morales
Javier Morales Spécialiste matériel IA — 8 ans d’expérience
GitHub: github.com/javier-morales-ia

llama.cpp 0.2.x · CUDA 12 · ROCm 6 · mis à jour mensuellement · méthodologie →

Contexte d’exécution

ARCHITECTURE TRANSFORMER
QUANTIFICATION 4-BIT GGUF
FOURNISSEUR OpenAI
LICENCE MIT
BESOIN VRAM
1.5 GB
4GB 8GB 12GB 16GB 24GB+
Décision matérielle

Ce modèle nécessite unGPU d’entrée (8 GB VRAM)

Minimum

GTX 1660 Super

Fonctionne en Q4 — utilisable avec un peu d’attente

6 GB VRAM
Voir config compatible
Équilibré

RTX 4060 Ti 16GB

Meilleur équilibre valeur/performance au quotidien

16 GB VRAM
Voir config compatible
Optimal

RTX 5090

Qualité maximale, inférence la plus rapide

32 GB VRAM
Voir config compatible

GPUs compatibles pour Whisper Large V3

Meilleures options par compatibilité, marge VRAM et valeur — prix et disponibilité peuvent varier.

RTX 5090
32 GB VRAM · Q4 natif Amazon

RTX 5090

0.0 (0 avis)

Points forts

  • Exécute Whisper Large V3 en Q4 natif
  • 32 GB VRAM — marge suffisante
RTX 4090
24 GB VRAM · Q4 natif Amazon

RTX 4090

4.8 (2,100 avis)

Points forts

  • Exécute Whisper Large V3 en Q4 natif
  • 24 GB VRAM — marge suffisante
M4 Ultra
128 GB VRAM · Q4 natif Amazon

M4 Ultra

0.0 (0 avis)

Points forts

  • Exécute Whisper Large V3 en Q4 natif
  • 128 GB VRAM — marge suffisante

Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.

*Les prix et la disponibilité peuvent changer. Certains liens sont affiliés.

Configuration requise

VRAM GPU 1.5 GB GPU d’entrée
RAM système 16 GB DDR4/DDR5
Stockage 0.9 GB Q4 · SSD recommandé
CPU Tout CPU moderne GPU requis

VRAM par quantification

Quantification VRAM nécessaire Espace disque Qualité
FP16 (qualité maximale) 4 GB 3.1 GB Maximum
Q8 (haute qualité) 2.5 GB 1.6 GB Quasi sans perte
Q4 (recommandé) Meilleur équilibre 1.5 GB 0.9 GB Recommandée
Q2 (minimum) 1 GB 0.5 GB Perte de qualité

Détails du modèle

Développeur OpenAI
Paramètres 1.55B
Licence MIT
Cas d’usage voice
Sortie 2023-11

Hugging Face

openai/whisper-large-v3
Voir sur HF →
Exigences techniques

Votre GPU peut-il exécuter Whisper Large V3 ?

Whisper Large V3 nécessite <strong class="text-primary-container">1.5 GB de VRAM</strong> en Q4. 40 GPUs grand public atteignent ce seuil. En dessous de 8 GB ou -0.5 GB, la latence d’offload augmente fortement.

1GB Minimum critique
1.5GB Optimal Q4
2.5GB Haute qualité Q8
4GB Max FP16

Matrice de performance matérielle

40 Q4 natif · 0 offload

GPU VRAM Compatibilité Vitesse estimée Action
RTX 5090 32GB Optimal 345 tok/s Calculer →
RTX 4090 24GB Optimal 345 tok/s Calculer →
M4 Ultra 128GB Optimal 345 tok/s Calculer →
RTX 5080 16GB Optimal 345 tok/s Calculer →
M3 Ultra 192GB Optimal 336 tok/s Calculer →
RTX 4080 Super 16GB Optimal 322 tok/s Calculer →
RTX 5070 Ti 16GB Optimal 342 tok/s Calculer →
RTX 3090 24GB Optimal 344 tok/s Calculer →
M4 Max 48GB 48GB Optimal 240 tok/s Calculer →
RX 7900 XTX 24GB Optimal 345 tok/s Calculer →
M4 Max 36GB 36GB Optimal 240 tok/s Calculer →
RTX 4070 Ti Super 16GB Optimal 295 tok/s Calculer →
RTX 3080 Ti 12GB Optimal 340 tok/s Calculer →
RX 7900 XT 20GB Optimal 336 tok/s Calculer →
RTX 5070 12GB Optimal 295 tok/s Calculer →
RTX 3080 10GB Optimal 333 tok/s Calculer →
M4 Pro 24GB Optimal 119 tok/s Calculer →
RX 7800 XT 16GB Optimal 274 tok/s Calculer →
RX 6800 XT 16GB Optimal 225 tok/s Calculer →
RTX 4070 12GB Optimal 221 tok/s Calculer →
RTX 4060 Ti 16GB 16GB Optimal 126 tok/s Calculer →
RX 7700 XT 12GB Optimal 190 tok/s Calculer →
RTX 3070 Ti 8GB Optimal 267 tok/s Calculer →
RTX 4060 Ti 8GB Optimal 126 tok/s Calculer →
RTX 3070 8GB Optimal 196 tok/s Calculer →
RX 6700 XT 12GB Optimal 169 tok/s Calculer →
M3 Pro 18GB Optimal 66 tok/s Calculer →
RTX 3060 Ti 8GB Optimal 197 tok/s Calculer →
RTX 2080 Ti 11GB Optimal 197 tok/s Calculer →
RTX 3060 12GB Optimal 158 tok/s Calculer →
M2 Pro 16GB Optimal 88 tok/s Calculer →
RTX 4060 8GB Optimal 119 tok/s Calculer →
Arc A770 16GB 16GB Optimal 98 tok/s Calculer →
M1 Pro 16GB Optimal 88 tok/s Calculer →
RX 7600 8GB Optimal 127 tok/s Calculer →
RX 6600 XT 8GB Optimal 119 tok/s Calculer →
Arc A750 8GB 8GB Optimal 89 tok/s Calculer →
RX 6600 8GB Optimal 108 tok/s Calculer →
RTX 3050 8GB 8GB Optimal 98 tok/s Calculer →
GTX 1660 Super 6GB Optimal 147 tok/s Calculer →

GPUs recommandés pour Whisper Large V3

Benchmarks réels
Sans avis sponsorisés
Sélection éditoriale
Basé sur les données

Meilleurs choix selon compatibilité, marge VRAM et valeur; prix et disponibilité peuvent varier.

Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.

Whisper Large V3 — Guide de compatibilité

Un modèle léger comme Whisper Large V3 fonctionne bien sur du matériel grand public à partir de 6 GB de VRAM. Idéal au quotidien avec Ollama ou LM Studio. Utilisez le calculateur VRAM pour vérifier votre configuration.

Comparez les GPUs pour Whisper Large V3

Quel GPU vaut le coup ? Spécifications et benchmarks réels côte à côte.

Matériel compatible

GPUs qui exécutent Whisper Large V3 en Q4, triés par score de performance IA.

Benchmarks réels
Sans avis sponsorisés
Basé sur les données
RTX 5090

NVIDIA · 32 GB VRAM

Q4 OK
345 tok/s > $1000
RTX 4090

NVIDIA · 24 GB VRAM

Q4 OK
345 tok/s > $1000
M4 Ultra

Apple · 128 GB VRAM

Q4 OK
345 tok/s > $1000
RTX 5080

NVIDIA · 16 GB VRAM

Q4 OK
345 tok/s $600–1000
M3 Ultra

Apple · 192 GB VRAM

Q4 OK
336 tok/s > $1000
RTX 4080 Super

NVIDIA · 16 GB VRAM

Q4 OK
322 tok/s $600–1000

Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.

Alternatives plus pratiques

Modèles similaires dans la catégorie voice avec des besoins VRAM comparables.

Vous ne savez pas quel GPU il vous faut pour Whisper Large V3 ?

Le calculateur VRAM vous indique exactement quelle quantification votre matériel peut supporter.

RTX 5090

Voir disponibilité

Prix mis à jour quotidiennement