Satu set model yang sangat bagus untuk edge dirilis minggu ini - Jan merilis model 4B yang dioptimalkan untuk menjalankan tugas agen secara lokal - mengungguli Perplexity Pro pada beberapa eval - LiquidAI merilis model multimoda untuk teks+gambar dengan versi 450M dan 1.6B yang dioptimalkan untuk latensi rendah
👋 Jan
👋 Jan12 Agu, 15.55
Memperkenalkan model Jan-v1: 4B untuk pencarian web, alternatif sumber terbuka untuk Perplexity Pro. Dalam evals kami, Jan v1 memberikan akurasi SimpleQA 91%, sedikit mengungguli Perplexity Pro saat berjalan sepenuhnya secara lokal. Kasus penggunaan: - Pencarian web - Penelitian Mendalam Dibangun di atas versi baru Qwen3-4B-Thinking Qwen (hingga 256k panjang konteks), disesuaikan untuk penalaran dan penggunaan alat pada bulan Jan. Anda dapat menjalankan model dalam Jan, llama.cpp, atau vLLM. Untuk mengaktifkan pencarian pada bulan Jan, buka Pengaturan → Fitur Eksperimental → Aktif, lalu Pengaturan → Server MCP → mengaktifkan MCP terkait pencarian seperti Serper. Gunakan modelnya: - Jan-v1-4B: - Jan-v1-4B-GGUF: Kredit untuk tim @Alibaba_Qwen untuk Qwen3 4B Thinking & @ggerganov untuk llama.cpp.
10,28K