Assistente IA locale personale
Utenti che vogliono privacy ed evitare abbonamenti cloud
99 modelli con requisiti VRAM precisi in FP16, Q8, Q4 e Q2. Scegli un modello e scopri quale GPU puo eseguirlo e con quale qualita.
Llama 3.1 8B Q4 e il miglior punto di partenza: funziona su GPU con 6 GB+ VRAM. Con 12 GB+ puoi passare a Mistral 7B o Llama 3.1 13B.
Vedi Llama 3.1 8BGuida per obiettivo:Questi percorsi collegano il tuo obiettivo a una soglia minima di VRAM, con modello e GPU consigliati prima di entrare nel catalogo completo.
Utenti che vogliono privacy ed evitare abbonamenti cloud
Giornalisti, ricercatori e professionisti sanitari
Creator e artisti digitali
LLM generali per conversazione e ragionamento complesso
Modelli specializzati per scrivere, revisionare e spiegare codice
Modelli che elaborano immagini e testo insieme
Modelli di diffusione per generare e modificare immagini in locale
Modelli per trascrizione e traduzione