本週發布了一組非常不錯的邊緣模型 - Jan發布了一款優化用於本地運行代理任務的4B模型 - 在多個評估中超越了Perplexity Pro - LiquidAI發布了文本+圖像的多模態模型,提供450M和1.6B版本,優化了低延遲
👋 Jan
👋 Jan8月12日 15:55
介紹 Jan-v1:用於網路搜尋的 4B 模型,是 Perplexity Pro 的開源替代品。 在我們的評估中,Jan v1 提供了 91% 的 SimpleQA 準確率,略微超越了 Perplexity Pro,同時完全在本地運行。 使用案例: - 網路搜尋 - 深度研究 基於 Qwen 的新版本 Qwen3-4B-Thinking(支持高達 256k 的上下文長度),針對推理和工具使用進行了微調。 您可以在 Jan、llama.cpp 或 vLLM 中運行該模型。要在 Jan 中啟用搜尋,請轉到設定 → 實驗功能 → 開啟,然後設定 → MCP 伺服器 → 啟用與搜尋相關的 MCP,例如 Serper。 使用該模型: - Jan-v1-4B: - Jan-v1-4B-GGUF: 感謝 @Alibaba_Qwen 團隊提供的 Qwen3 4B Thinking 和 @ggerganov 提供的 llama.cpp。
10.28K