Un insieme di modelli davvero interessanti per l'edge rilasciato questa settimana - Jan rilascia un modello da 4B ottimizzato per eseguire compiti agentici localmente - supera Perplexity Pro in diverse valutazioni - LiquidAI rilascia modelli multimodali per testo+immagine con versioni da 450M e 1.6B ottimizzate per bassa latenza
👋 Jan
👋 Jan12 ago, 15:55
Presentiamo Jan-v1: modello 4B per la ricerca web, un'alternativa open-source a Perplexity Pro. Nei nostri test, Jan v1 offre un'accuratezza del 91% in SimpleQA, superando leggermente Perplexity Pro mentre funziona completamente in locale. Casi d'uso: - Ricerca web - Ricerca approfondita Costruito sulla nuova versione di Qwen's Qwen3-4B-Thinking (fino a 256k di lunghezza del contesto), ottimizzato per il ragionamento e l'uso degli strumenti in Jan. Puoi eseguire il modello in Jan, llama.cpp o vLLM. Per abilitare la ricerca in Jan, vai su Impostazioni → Funzioni Sperimentali → Attiva, poi Impostazioni → Server MCP → abilita un MCP relativo alla ricerca come Serper. Usa il modello: - Jan-v1-4B: - Jan-v1-4B-GGUF: Credito al team @Alibaba_Qwen per Qwen3 4B Thinking e a @ggerganov per llama.cpp.
10,39K