Eine Reihe wirklich schöner Modelle für den Edge wurde diese Woche veröffentlicht - Jan veröffentlicht ein 4B-Modell, das für die Ausführung agentischer Aufgaben lokal optimiert ist - übertrifft Perplexity Pro in mehreren Bewertungen - LiquidAI veröffentlicht multimodale Modelle für Text+Bild mit einer 450M- und einer 1,6B-Version, die für niedrige Latenz optimiert sind
👋 Jan
👋 Jan12. Aug., 15:55
Einführung von Jan-v1: 4B-Modell für die Websuche, eine Open-Source-Alternative zu Perplexity Pro. In unseren Bewertungen liefert Jan v1 eine Genauigkeit von 91 % bei SimpleQA, was Perplexity Pro leicht übertrifft, während es vollständig lokal läuft. Anwendungsfälle: - Websuche - Tiefenforschung Basierend auf der neuen Version von Qwens Qwen3-4B-Thinking (bis zu 256k Kontextlänge), feinabgestimmt für das Denken und die Nutzung von Werkzeugen in Jan. Sie können das Modell in Jan, llama.cpp oder vLLM ausführen. Um die Suche in Jan zu aktivieren, gehen Sie zu Einstellungen → Experimentelle Funktionen → Aktivieren, dann Einstellungen → MCP-Server → aktivieren Sie einen suchbezogenen MCP wie Serper. Verwenden Sie das Modell: - Jan-v1-4B: - Jan-v1-4B-GGUF: Dank an das @Alibaba_Qwen-Team für Qwen3 4B Thinking & @ggerganov für llama.cpp.
10,28K