RTX 5090
Points forts
- Exécute Qwen2.5 1.5B en Q4 natif
- 32 GB VRAM — marge suffisante
40 GPUs grand public peuvent exécuter Qwen2.5 1.5B en Q4 nativement. Seuils VRAM précis et benchmarks ci-dessous.
Prix et disponibilité peuvent changer · lien affilié
llama.cpp 0.2.x · CUDA 12 · ROCm 6 · mis à jour mensuellement · méthodologie →
Ce modèle nécessite unGPU d’entrée (8 GB VRAM)
GTX 1660 Super
Fonctionne en Q4 — utilisable avec un peu d’attente
RTX 4060 Ti 16GB
Meilleur équilibre valeur/performance au quotidien
Meilleures options par compatibilité, marge VRAM et valeur — prix et disponibilité peuvent varier.
Points forts
Points forts
Points forts
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
CPU vs GPU pour Qwen2.5 1.5B →
Calculateur VRAM — vérification instantanée
RTX 5090
32 GB · Exécute Q4 nativement · Voir la disponibilité
*Les prix et la disponibilité peuvent changer. Certains liens sont affiliés.
| Quantification | VRAM nécessaire | Espace disque | Qualité |
|---|---|---|---|
| FP16 (qualité maximale) | 3 GB | 3 GB | Maximum |
| Q8 (haute qualité) | 1.5 GB | 1.5 GB | Quasi sans perte |
| Q4 (recommandé) Meilleur équilibre | 1 GB | 1 GB | Recommandée |
| Q2 (minimum) | 0.5 GB | 0.5 GB | Perte de qualité |
| Développeur | Alibaba |
| Paramètres | 1.5B |
| Fenêtre de contexte | 131,072 tokens |
| Licence | Apache-2.0 |
| Cas d’usage | chat, edge, mobile |
| Sortie | 2024-09 |
Installer avec Ollama
ollama run qwen2.5:1.5b Hugging Face
Qwen/Qwen2.5-1.5B-Instruct Qwen2.5 1.5B nécessite <strong class="text-primary-container">1 GB de VRAM</strong> en Q4. 40 GPUs grand public atteignent ce seuil. En dessous de 8 GB ou -1 GB, la latence d’offload augmente fortement.
40 Q4 natif · 0 offload
| GPU | VRAM | Compatibilité | Vitesse estimée | Action |
|---|---|---|---|---|
| RTX 5090 | 32GB | Optimal | 350 tok/s | Calculer → |
| RTX 4090 | 24GB | Optimal | 350 tok/s | Calculer → |
| M4 Ultra | 128GB | Optimal | 350 tok/s | Calculer → |
| RTX 5080 | 16GB | Optimal | 350 tok/s | Calculer → |
| M3 Ultra | 192GB | Optimal | 342 tok/s | Calculer → |
| RTX 4080 Super | 16GB | Optimal | 328 tok/s | Calculer → |
| RTX 5070 Ti | 16GB | Optimal | 347 tok/s | Calculer → |
| RTX 3090 | 24GB | Optimal | 349 tok/s | Calculer → |
| M4 Max 48GB | 48GB | Optimal | 244 tok/s | Calculer → |
| RX 7900 XTX | 24GB | Optimal | 350 tok/s | Calculer → |
| M4 Max 36GB | 36GB | Optimal | 244 tok/s | Calculer → |
| RTX 4070 Ti Super | 16GB | Optimal | 300 tok/s | Calculer → |
| RTX 3080 Ti | 12GB | Optimal | 345 tok/s | Calculer → |
| RX 7900 XT | 20GB | Optimal | 342 tok/s | Calculer → |
| RTX 5070 | 12GB | Optimal | 300 tok/s | Calculer → |
| RTX 3080 | 10GB | Optimal | 339 tok/s | Calculer → |
| M4 Pro | 24GB | Optimal | 122 tok/s | Calculer → |
| RX 7800 XT | 16GB | Optimal | 279 tok/s | Calculer → |
| RX 6800 XT | 16GB | Optimal | 230 tok/s | Calculer → |
| RTX 4070 | 12GB | Optimal | 225 tok/s | Calculer → |
| RTX 4060 Ti 16GB | 16GB | Optimal | 128 tok/s | Calculer → |
| RX 7700 XT | 12GB | Optimal | 193 tok/s | Calculer → |
| RTX 3070 Ti | 8GB | Optimal | 272 tok/s | Calculer → |
| RTX 4060 Ti | 8GB | Optimal | 128 tok/s | Calculer → |
| RTX 3070 | 8GB | Optimal | 200 tok/s | Calculer → |
| RX 6700 XT | 12GB | Optimal | 172 tok/s | Calculer → |
| M3 Pro | 18GB | Optimal | 67 tok/s | Calculer → |
| RTX 3060 Ti | 8GB | Optimal | 201 tok/s | Calculer → |
| RTX 2080 Ti | 11GB | Optimal | 201 tok/s | Calculer → |
| RTX 3060 | 12GB | Optimal | 161 tok/s | Calculer → |
| M2 Pro | 16GB | Optimal | 89 tok/s | Calculer → |
| RTX 4060 | 8GB | Optimal | 122 tok/s | Calculer → |
| Arc A770 16GB | 16GB | Optimal | 100 tok/s | Calculer → |
| M1 Pro | 16GB | Optimal | 89 tok/s | Calculer → |
| RX 7600 | 8GB | Optimal | 129 tok/s | Calculer → |
| RX 6600 XT | 8GB | Optimal | 122 tok/s | Calculer → |
| Arc A750 8GB | 8GB | Optimal | 91 tok/s | Calculer → |
| RX 6600 | 8GB | Optimal | 110 tok/s | Calculer → |
| RTX 3050 8GB | 8GB | Optimal | 100 tok/s | Calculer → |
| GTX 1660 Super | 6GB | Optimal | 150 tok/s | Calculer → |
Meilleurs choix selon compatibilité, marge VRAM et valeur; prix et disponibilité peuvent varier.
RTX 5090
32 GB VRAM
Voir disponibilité →
RTX 4090
24 GB VRAM
Voir disponibilité →
M4 Ultra
128 GB VRAM
Voir disponibilité →
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Qwen2.5 1.5B est un modèle léger qui s’exécute directement sur CPU, sans GPU dédié. Sur un i7-13700K avec llama.cpp Q4, il atteint 38 tokens/s, suffisant pour du chat en temps réel. Avec un GPU, vous obtenez jusqu’à ~137 tok/s avec 6 GB de VRAM. Idéal pour les laptops et PC sans carte graphique dédiée.
Quel GPU vaut le coup ? Spécifications et benchmarks réels côte à côte.
GPUs qui exécutent Qwen2.5 1.5B en Q4, triés par score de performance IA.
Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.
Modèles similaires dans la catégorie chat avec des besoins VRAM comparables.
Le calculateur VRAM vous indique exactement quelle quantification votre matériel peut supporter.
RTX 5090
Prix mis à jour quotidiennement