Aller au contenu principal
Moteur local prêt

RTX 3090

81 modèles IA tiennent dans 24 GB de VRAM en Q4 natif. 7 autres fonctionnent avec offloading CPU. Benchmarks réels ci-dessous.

81 Modèles compatibles
7 avec offloading
24GB GDDR6X
350W TDP
Javier Morales
Javier Morales Spécialiste matériel IA — 8 ans d’expérience
GitHub: github.com/javier-morales-ia

llama.cpp 0.2.x · CUDA 12 · Ubuntu 22.04 · Prices verified on Amazon · méthodologie →

RTX 3090

Contexte d’exécution

MARQUE NVIDIA
BANDE PASSANTE 936 GB/s
FP16 TFLOPS 35.6
AI SCORE 72 / 140
FOURCHETTE PRIX Haut de gamme
PRIX LANCEMENT $1,499
AI SCORE (RELATIVE)
72 /140
Entrée Valeur Milieu Haut Flagship
Prix de lancement: $1,499 Le prix actuel varie sur Amazon

Vérifier l'offre actuelle

Lien affilié Amazon pour RTX 3090

Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.

Prime

Spécifications complètes

NVIDIA · 2020-09

VRAM 24 GB GDDR6X
Bande passante 936 GB/s
FP16 TFLOPS 35.6
AI Score 72 / 140
CUDA Cores 10,496
Tensor Cores 328
TDP 350 W
PCIe Gen 4
Slots 3
Power Connector 2x 8-pin
Fourchette de prix Haut de gamme
Sortie 2020-09

Benchmarks IA

Mesures réelles d’inférence — llama.cpp Q4_K_M

Tâche Résultat
Llama 1B Q4 400 tok/s
Llama 3B Q4 197 tok/s
Llama 7B Q4 65 tok/s
Llama 13B Q4 44 tok/s
Llama 30B Q4 22 tok/s
Llama 70B Q4 Offloading ou multi-GPU
Stable Diffusion 512px 4s / img
Whisper Large RTF 0.5x

RTF < 1.0 = plus rapide que le temps réel. Pour Stable Diffusion et Whisper, plus bas est meilleur ; pour les tokens/s, plus haut est meilleur.

Comparer RTX 3090 avec un autre GPU

Mise à niveau utile ? Comparez les specs et benchmarks réels côte à côte.

Ouvrir le comparateur →
Comparaisons rapides : vs RTX 5070 Ti · vs M4 Max 48GB

Modèles IA compatibles — RTX 3090

81 modèles fonctionne entièrement en VRAM · 7 avec offloading CPU

Voir les 81 modèles compatibles →

Fonctionne aussi avec offloading CPU (7)

RTX 3090 · Amazon

Les prix des GPU changent souvent selon les vendeurs. Verifiez l offre actuelle avant achat.

Vérifier l'offre actuelle

Certains liens sont des liens d'affiliation Amazon. Nous pouvons toucher une commission sans coût supplémentaire pour vous. Le cookie Amazon peut durer jusqu'à 24 heures après votre clic.

RTX 3090 pour l’intelligence artificielle locale

RTX 3090 avec 24GB de GDDR6X est une option solide pour l'IA locale. Cette carte couvre les modèles populaires en quantification Q4 et permet d'aller plus loin selon la VRAM disponible.

En benchmarks réels, RTX 3090 atteint 65 tokens/seconde sur Llama 7B Q4. Vous pouvez aussi exécuter 81 modèles entièrement en VRAM, avec 7 modèles supplémentaires en offloading CPU.

Pour vérifier précisément la compatibilité de chaque modèle, utilisez le calculateur VRAM. Vous pouvez également consulter les guides de démarrage pour configurer votre environnement local.

Planifiez votre build IA complet

RTX 3090 · 24 GB VRAM — configurez PSU, RAM, stockage et vérifiez les modèles compatibles.

Configurer votre build →

Vous ne savez pas quel modèle exécuter sur votre RTX 3090 ?

Le calculateur VRAM vous indique exactement quelle quantification utiliser.

Ouvrir le calculateur →

Obtenez le meilleur prix pour RTX 3090

Ouvrez Amazon via notre lien affilié et vérifiez la disponibilité, les variantes et les offres actuelles.

Voir le meilleur prix →