Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Um conjunto de modelos realmente bons para a borda foi lançado esta semana
- Jan lançando um modelo de 4B otimizado para executar tarefas agentivas localmente - superando o Perplexity Pro em várias avaliações
- LiquidAI lançando modelos multimodais para texto+imagem com versões de 450M e 1.6B otimizadas para baixa latência

12/08, 15:55
Apresentando Jan-v1: modelo 4B para busca na web, uma alternativa de código aberto ao Perplexity Pro.
Em nossas avaliações, Jan v1 entrega 91% de precisão no SimpleQA, superando ligeiramente o Perplexity Pro enquanto roda totalmente localmente.
Casos de uso:
- Busca na web
- Pesquisa profunda
Construído na nova versão do Qwen's Qwen3-4B-Thinking (até 256k de comprimento de contexto), ajustado para raciocínio e uso de ferramentas no Jan.
Você pode executar o modelo no Jan, llama.cpp ou vLLM. Para habilitar a busca no Jan, vá para Configurações → Recursos Experimentais → Ativar, depois Configurações → Servidores MCP → habilite um MCP relacionado à busca, como o Serper.
Use o modelo:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Créditos à equipe @Alibaba_Qwen pelo Qwen3 4B Thinking e @ggerganov pelo llama.cpp.
10,66K
Top
Classificação
Favoritos