Zestaw naprawdę ładnych modeli dla edge został wydany w tym tygodniu - Jan wydaje model 4B zoptymalizowany do lokalnego wykonywania zadań agentowych - przewyższa Perplexity Pro w kilku ocenach - LiquidAI wydaje multimodalne modele dla tekstu + obrazu z wersjami 450M i 1.6B zoptymalizowanymi pod kątem niskiej latencji
👋 Jan
👋 Jan12 sie, 15:55
Przedstawiamy Jan-v1: model 4B do wyszukiwania w sieci, otwartoźródłowa alternatywa dla Perplexity Pro. W naszych ocenach, Jan v1 osiąga 91% dokładności SimpleQA, nieznacznie przewyższając Perplexity Pro, działając w pełni lokalnie. Przykłady zastosowania: - Wyszukiwanie w sieci - Głębokie badania Zbudowany na nowej wersji Qwen's Qwen3-4B-Thinking (do 256k długości kontekstu), dostosowany do rozumowania i użycia narzędzi w Jan. Możesz uruchomić model w Jan, llama.cpp lub vLLM. Aby włączyć wyszukiwanie w Jan, przejdź do Ustawienia → Funkcje eksperymentalne → Włączone, a następnie Ustawienia → Serwery MCP → włącz powiązany z wyszukiwaniem MCP, taki jak Serper. Użyj modelu: - Jan-v1-4B: - Jan-v1-4B-GGUF: Podziękowania dla zespołu @Alibaba_Qwen za Qwen3 4B Thinking i @ggerganov za llama.cpp.
10,28K