Assistente pessoal de IA local
Utilizadores que querem privacidade e evitar subscricoes cloud
99 modelos com requisitos exatos de VRAM em FP16, Q8, Q4 e Q2. Escolha um modelo e descubra que GPU o consegue executar e com que qualidade.
Llama 3.1 8B Q4 é o melhor ponto de partida: funciona em qualquer GPU com 6 GB+ de VRAM. Com 12 GB+, pode avançar para Mistral 7B ou Llama 3.1 13B.
Ver Llama 3.1 8BGuia por intencao:Estas rotas ligam a sua intencao a uma meta minima de VRAM, mais modelo e GPU recomendados, antes de entrar no catalogo completo.
Utilizadores que querem privacidade e evitar subscricoes cloud
Jornalistas, investigadores e profissionais de saude
Criadores e artistas digitais
LLMs de uso geral para conversa e raciocínio complexo
Modelos especializados para escrever, rever e explicar código
Modelos que processam imagem e texto em conjunto
Modelos de difusão para gerar e editar imagens localmente
Modelos de transcrição e tradução