今週リリースされたエッジ用の本当に素敵なモデルのセット - Jan は、エージェント タスクをローカルで実行するために最適化された 4B モデルをリリースしました - いくつかの評価で Perplexity Pro を上回るパフォーマンスを発揮します。 - LiquidAIが低遅延に最適化された450Mおよび1.6Bバージョンのテキスト+画像のマルチモーダルモデルをリリース
👋 Jan
👋 Jan8月12日 15:55
Jan-v1 の紹介: Perplexity Pro のオープンソースの代替手段である Web 検索用の 4B モデル。 私たちの評価では、Jan v1 は 91% の SimpleQA 精度を実現し、完全にローカルで実行しながら Perplexity Pro をわずかに上回ります。 使用例: - ウェブ検索 - ディープリサーチ Qwen の Qwen3-4B-Thinking (最大 256k コンテキスト長) の新しいバージョンに基づいて構築され、1 月に推論とツールの使用のために微調整されました。 モデルは、Jan、llama.cpp、または vLLM で実行できます。1 月に検索を有効にするには、[設定] → [実験的な機能] → [オン] に移動し、[設定] → [MCP サーバー] に移動し→、Serper などの検索関連の MCP を有効にします。 モデルを使用します。 - 1月-v1-4B: - 1月-v1-4B-GGUF: Qwen3 4B Thinkingの@Alibaba_Qwenチームとllama.cppの@ggerganovに感謝します。
10.39K