Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Un insieme di modelli davvero interessanti per l'edge rilasciato questa settimana
- Jan rilascia un modello da 4B ottimizzato per eseguire compiti agentici localmente - supera Perplexity Pro in diverse valutazioni
- LiquidAI rilascia modelli multimodali per testo+immagine con versioni da 450M e 1.6B ottimizzate per bassa latenza

12 ago, 15:55
Presentiamo Jan-v1: modello 4B per la ricerca web, un'alternativa open-source a Perplexity Pro.
Nei nostri test, Jan v1 offre un'accuratezza del 91% in SimpleQA, superando leggermente Perplexity Pro mentre funziona completamente in locale.
Casi d'uso:
- Ricerca web
- Ricerca approfondita
Costruito sulla nuova versione di Qwen's Qwen3-4B-Thinking (fino a 256k di lunghezza del contesto), ottimizzato per il ragionamento e l'uso degli strumenti in Jan.
Puoi eseguire il modello in Jan, llama.cpp o vLLM. Per abilitare la ricerca in Jan, vai su Impostazioni → Funzioni Sperimentali → Attiva, poi Impostazioni → Server MCP → abilita un MCP relativo alla ricerca come Serper.
Usa il modello:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Credito al team @Alibaba_Qwen per Qwen3 4B Thinking e a @ggerganov per llama.cpp.
10,39K
Principali
Ranking
Preferiti