RTX 4060 Ti
51 modelli IA entrano in 8 GB di VRAM in Q4 nativo. 17 altri funzionano con offloading CPU. Benchmark reali qui sotto.
llama.cpp 0.2.x · CUDA 12 · Ubuntu 22.04 · Prices verified on Amazon · metodologia →
Contesto di esecuzione
Controlla l'offerta attuale
Link affiliato Amazon per RTX 4060 Ti
Alcuni link sono link di affiliazione Amazon. Potremmo ricevere una commissione senza costi aggiuntivi per te. Il cookie Amazon puo durare fino a 24 ore dopo il clic.
Specifiche complete
NVIDIA · 2023-05
| VRAM | 8 GB GDDR6 |
| Banda | 288 GB/s |
| FP16 TFLOPS | 22.1 |
| AI Score | 40 / 140 |
| CUDA Cores | 4,352 |
| Tensor Cores | 136 |
| TDP | 160 W |
| PCIe | Gen 4 |
| Slots | 2 |
| Power Connector | 8-pin |
| Fascia di prezzo | Buon rapporto qualita-prezzo |
| Rilascio | 2023-05 |
Benchmark IA
Misurazioni reali di inferenza — llama.cpp Q4_K_M
| Attivita | Risultato |
|---|---|
| Llama 1B Q4 | 151 tok/s |
| Llama 3B Q4 | 60 tok/s |
| Llama 7B Q4 | 35 tok/s |
| Llama 13B Q4 | VRAM N/D |
| Llama 30B Q4 | VRAM N/D |
| Llama 70B Q4 | Offload o multi-GPU |
| Stable Diffusion 512px | 5.5s / img |
| Whisper Large RTF | 0.7x |
RTF < 1.0 = piu veloce del tempo reale. Per Stable Diffusion e Whisper, piu basso e meglio; per tokens/s, piu alto e meglio.
Confronta RTX 4060 Ti con un altra GPU
Vale la pena fare l upgrade? Confronta specifiche e benchmark reali fianco a fianco.
Apri comparatore →Modelli IA compatibili — RTX 4060 Ti
51 modelli entrano interamente in VRAM · 17 con offloading CPU
Whisper Large V3
Stable Diffusion 3.5 Medium
Stable Diffusion 3 Medium
Gemma 4 12B
Stable Diffusion XL
Qwen2.5 Coder 14B
Qwen3 14B
Gemma 3 12B
Vedi tutti i 51 modelli compatibili →
Funziona anche con offloading CPU (17)
- Flux.1 Dev 8 GB Q2
- Stable Diffusion 3.5 Large 8 GB Q2
- Gemma 4 27B 7.4 GB Q2 Come installare →
- Gemma 2 27B 8 GB Q2 Come installare →
- Mistral Small 3 7.2 GB Q2 Come installare →
- Phi-4 4.2 GB Q2 Come installare →
- Flux.1 Schnell 8 GB Q2
- Devstral Small 2 24B 6.6 GB Q2 Come installare →
- DeepSeek R1 Distill 14B 4.2 GB Q2 Come installare →
- Qwen3.5 27B 7.4 GB Q2 Come installare →
- Magistral Small 24B 6.6 GB Q2 Come installare →
- Qwen2.5 14B 4.2 GB Q2 Come installare →
- DeepSeek Coder V2 5 GB Q2 Come installare →
- Mistral Small 3.2 6.6 GB Q2 Come installare →
- StarCoder 2 15B 4.5 GB Q2 Come installare →
- Mistral Small 3.1 6.6 GB Q2 Come installare →
- DeepSeek V2 Lite 5 GB Q2 Come installare →
RTX 4060 Ti · Amazon
I prezzi delle GPU cambiano spesso tra i rivenditori. Controlla l offerta attuale prima di acquistare.
Controlla l'offerta attualeAlcuni link sono link di affiliazione Amazon. Potremmo ricevere una commissione senza costi aggiuntivi per te. Il cookie Amazon puo durare fino a 24 ore dopo il clic.
RTX 4060 Ti per IA locale
RTX 4060 Ti con 8GB di GDDR6 e un'opzione solida per IA locale. Questa GPU copre i modelli piu usati in quantizzazione Q4 e permette carichi piu grandi in base alla VRAM disponibile.
Nei benchmark reali, RTX 4060 Ti raggiunge 35 token/secondo su Llama 7B Q4. Puoi eseguire 51 modelli interamente in VRAM, con altri 17 modelli in offloading CPU.
Per verificare in dettaglio la compatibilita di ogni modello, usa il calcolatore VRAM. Puoi anche consultare le guide introduttive per configurare il tuo ambiente locale.
Pianifica la tua build IA completa
RTX 4060 Ti · 8 GB VRAM — configura PSU, RAM, storage e verifica i modelli compatibili.
Articoli correlati
Non sai quale modello eseguire sulla tua RTX 4060 Ti?
Il calcolatore VRAM ti dice esattamente quale quantizzazione ti serve.
Ottieni il miglior prezzo per RTX 4060 Ti
Open Amazon with our affiliate link and check availability, variants, and current deals.