RTX 5090
Points forts
- Exécute Qwen2.5 0.5B en Q4 natif
- 32 GB VRAM — marge suffisante
40 GPUs grand public peuvent exécuter Qwen2.5 0.5B en Q4 nativement. Seuils VRAM précis et benchmarks ci-dessous.
Prix et disponibilité peuvent changer · lien affilié
llama.cpp 0.2.x · CUDA 12 · ROCm 6 · mis à jour mensuellement · méthodologie →
Ce modèle nécessite unGPU d’entrée (8 GB VRAM)
GTX 1660 Super
Fonctionne en Q4 — utilisable avec un peu d’attente
RTX 4060 Ti 16GB
Meilleur équilibre valeur/performance au quotidien
Meilleures options par compatibilité, marge VRAM et valeur — prix et disponibilité peuvent varier.
Points forts
Points forts
Points forts
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
CPU vs GPU pour Qwen2.5 0.5B →
Calculateur VRAM — vérification instantanée
RTX 5090
32 GB · Exécute Q4 nativement · Voir la disponibilité
*Les prix et la disponibilité peuvent changer. Certains liens sont affiliés.
| Quantification | VRAM nécessaire | Espace disque | Qualité |
|---|---|---|---|
| FP16 (qualité maximale) | 1 GB | 1 GB | Maximum |
| Q8 (haute qualité) | 0.5 GB | 0.5 GB | Quasi sans perte |
| Q4 (recommandé) Meilleur équilibre | 0.35 GB | 0.3 GB | Recommandée |
| Q2 (minimum) | 0.2 GB | 0.15 GB | Perte de qualité |
| Développeur | Alibaba |
| Paramètres | 0.5B |
| Fenêtre de contexte | 131,072 tokens |
| Licence | Apache-2.0 |
| Cas d’usage | chat, edge, mobile |
| Sortie | 2024-09 |
Installer avec Ollama
ollama run qwen2.5:0.5b Hugging Face
Qwen/Qwen2.5-0.5B-Instruct Qwen2.5 0.5B nécessite <strong class="text-primary-container">0.35 GB de VRAM</strong> en Q4. 40 GPUs grand public atteignent ce seuil. En dessous de 8 GB ou -1.65 GB, la latence d’offload augmente fortement.
40 Q4 natif · 0 offload
| GPU | VRAM | Compatibilité | Vitesse estimée | Action |
|---|---|---|---|---|
| RTX 5090 | 32GB | Optimal | 400 tok/s | Calculer → |
| RTX 4090 | 24GB | Optimal | 400 tok/s | Calculer → |
| M4 Ultra | 128GB | Optimal | 400 tok/s | Calculer → |
| RTX 5080 | 16GB | Optimal | 400 tok/s | Calculer → |
| M3 Ultra | 192GB | Optimal | 400 tok/s | Calculer → |
| RTX 4080 Super | 16GB | Optimal | 386 tok/s | Calculer → |
| RTX 5070 Ti | 16GB | Optimal | 400 tok/s | Calculer → |
| RTX 3090 | 24GB | Optimal | 400 tok/s | Calculer → |
| M4 Max 48GB | 48GB | Optimal | 287 tok/s | Calculer → |
| RX 7900 XTX | 24GB | Optimal | 400 tok/s | Calculer → |
| M4 Max 36GB | 36GB | Optimal | 287 tok/s | Calculer → |
| RTX 4070 Ti Super | 16GB | Optimal | 353 tok/s | Calculer → |
| RTX 3080 Ti | 12GB | Optimal | 400 tok/s | Calculer → |
| RX 7900 XT | 20GB | Optimal | 400 tok/s | Calculer → |
| RTX 5070 | 12GB | Optimal | 353 tok/s | Calculer → |
| RTX 3080 | 10GB | Optimal | 399 tok/s | Calculer → |
| M4 Pro | 24GB | Optimal | 143 tok/s | Calculer → |
| RX 7800 XT | 16GB | Optimal | 328 tok/s | Calculer → |
| RX 6800 XT | 16GB | Optimal | 270 tok/s | Calculer → |
| RTX 4070 | 12GB | Optimal | 265 tok/s | Calculer → |
| RTX 4060 Ti 16GB | 16GB | Optimal | 151 tok/s | Calculer → |
| RX 7700 XT | 12GB | Optimal | 227 tok/s | Calculer → |
| RTX 3070 Ti | 8GB | Optimal | 320 tok/s | Calculer → |
| RTX 4060 Ti | 8GB | Optimal | 151 tok/s | Calculer → |
| RTX 3070 | 8GB | Optimal | 235 tok/s | Calculer → |
| RX 6700 XT | 12GB | Optimal | 202 tok/s | Calculer → |
| M3 Pro | 18GB | Optimal | 79 tok/s | Calculer → |
| RTX 3060 Ti | 8GB | Optimal | 236 tok/s | Calculer → |
| RTX 2080 Ti | 11GB | Optimal | 236 tok/s | Calculer → |
| RTX 3060 | 12GB | Optimal | 189 tok/s | Calculer → |
| M2 Pro | 16GB | Optimal | 105 tok/s | Calculer → |
| RTX 4060 | 8GB | Optimal | 143 tok/s | Calculer → |
| Arc A770 16GB | 16GB | Optimal | 118 tok/s | Calculer → |
| M1 Pro | 16GB | Optimal | 105 tok/s | Calculer → |
| RX 7600 | 8GB | Optimal | 152 tok/s | Calculer → |
| RX 6600 XT | 8GB | Optimal | 143 tok/s | Calculer → |
| Arc A750 8GB | 8GB | Optimal | 107 tok/s | Calculer → |
| RX 6600 | 8GB | Optimal | 129 tok/s | Calculer → |
| RTX 3050 8GB | 8GB | Optimal | 118 tok/s | Calculer → |
| GTX 1660 Super | 6GB | Optimal | 176 tok/s | Calculer → |
Meilleurs choix selon compatibilité, marge VRAM et valeur; prix et disponibilité peuvent varier.
RTX 5090
32 GB VRAM
Voir disponibilité →
RTX 4090
24 GB VRAM
Voir disponibilité →
M4 Ultra
128 GB VRAM
Voir disponibilité →
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Qwen2.5 0.5B est un modèle léger qui s’exécute directement sur CPU, sans GPU dédié. Sur un i7-13700K avec llama.cpp Q4, il atteint 95 tokens/s, suffisant pour du chat en temps réel. Avec un GPU, vous obtenez jusqu’à ~342 tok/s avec 6 GB de VRAM. Idéal pour les laptops et PC sans carte graphique dédiée.
Quel GPU vaut le coup ? Spécifications et benchmarks réels côte à côte.
GPUs qui exécutent Qwen2.5 0.5B en Q4, triés par score de performance IA.
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Modèles similaires dans la catégorie chat avec des besoins VRAM comparables.
Le calculateur VRAM vous indique exactement quelle quantification votre matériel peut supporter.
RTX 5090
Prix mis à jour quotidiennement