Vai al contenuto principale
Motore locale pronto

RTX 4090

81 modelli IA entrano in 24 GB di VRAM in Q4 nativo. 7 altri funzionano con offloading CPU. Benchmark reali qui sotto.

81 Modelli compatibili
7 con offloading
24GB GDDR6X
450W TDP
Javier Morales
Javier Morales Specialista hardware IA — 8 anni di esperienza
GitHub: github.com/javier-morales-ia

llama.cpp 0.2.x · CUDA 12 · Ubuntu 22.04 · Prices verified on Amazon · metodologia →

RTX 4090

Contesto di esecuzione

MARCA NVIDIA
BANDA 1008 GB/s
FP16 TFLOPS 82.6
AI SCORE 100 / 140
FASCIA PREZZO Top di gamma
MSRP (LAUNCH) $1,599
AI SCORE (RELATIVE)
100 /140
Ingresso Valore Media Alta Flagship
MSRP at launch: $1,599 Current street price varies on Amazon

Controlla l'offerta attuale

Link affiliato Amazon per RTX 4090

Alcuni link sono link di affiliazione Amazon. Potremmo ricevere una commissione senza costi aggiuntivi per te. Il cookie Amazon puo durare fino a 24 ore dopo il clic.

Prime

Specifiche complete

NVIDIA · 2022-10

VRAM 24 GB GDDR6X
Banda 1008 GB/s
FP16 TFLOPS 82.6
AI Score 100 / 140
CUDA Cores 16,384
Tensor Cores 512
TDP 450 W
PCIe Gen 4
Slots 3
Power Connector 16-pin
Fascia di prezzo Top di gamma
Rilascio 2022-10

Benchmark IA

Misurazioni reali di inferenza — llama.cpp Q4_K_M

Attivita Risultato
Llama 1B Q4 400 tok/s
Llama 3B Q4 200 tok/s
Llama 7B Q4 95 tok/s
Llama 13B Q4 47 tok/s
Llama 30B Q4 24 tok/s
Llama 70B Q4 Offload o multi-GPU
Stable Diffusion 512px 2.1s / img
Whisper Large RTF 0.3x

RTF < 1.0 = piu veloce del tempo reale. Per Stable Diffusion e Whisper, piu basso e meglio; per tokens/s, piu alto e meglio.

Confronta RTX 4090 con un altra GPU

Vale la pena fare l upgrade? Confronta specifiche e benchmark reali fianco a fianco.

Apri comparatore →
Confronti rapidi: vs M4 Ultra · vs RTX 5080

Modelli IA compatibili — RTX 4090

81 modelli entrano interamente in VRAM · 7 con offloading CPU

Vedi tutti i 81 modelli compatibili →

Funziona anche con offloading CPU (7)

RTX 4090 · Amazon

I prezzi delle GPU cambiano spesso tra i rivenditori. Controlla l offerta attuale prima di acquistare.

Controlla l'offerta attuale

Alcuni link sono link di affiliazione Amazon. Potremmo ricevere una commissione senza costi aggiuntivi per te. Il cookie Amazon puo durare fino a 24 ore dopo il clic.

RTX 4090 per IA locale

RTX 4090 con 24GB di GDDR6X e un'opzione solida per IA locale. Questa GPU copre i modelli piu usati in quantizzazione Q4 e permette carichi piu grandi in base alla VRAM disponibile.

Nei benchmark reali, RTX 4090 raggiunge 95 token/secondo su Llama 7B Q4. Puoi eseguire 81 modelli interamente in VRAM, con altri 7 modelli in offloading CPU.

Per verificare in dettaglio la compatibilita di ogni modello, usa il calcolatore VRAM. Puoi anche consultare le guide introduttive per configurare il tuo ambiente locale.

Pianifica la tua build IA completa

RTX 4090 · 24 GB VRAM — configura PSU, RAM, storage e verifica i modelli compatibili.

Configura la tua build →

Non sai quale modello eseguire sulla tua RTX 4090?

Il calcolatore VRAM ti dice esattamente quale quantizzazione ti serve.

Apri calcolatore →

Ottieni il miglior prezzo per RTX 4090

Open Amazon with our affiliate link and check availability, variants, and current deals.

Ottieni il miglior prezzo →