Цього тижня вийшов набір дійсно симпатичних моделей для краю - Ян випустив модель 4B, оптимізовану для локального виконання агентських завдань - перевершити Perplexity Pro на кількох рівнях - LiquidAI випускає мультимодальні моделі для текст+зображення з версіями 450M і 1.6B, оптимізованими для низької затримки
👋 Jan
👋 Jan12 серп., 15:55
Представляємо модель Jan-v1: 4B для веб-пошуку, альтернативу Perplexity Pro з відкритим вихідним кодом. У наших тестах, Jan v1 забезпечує 91% точності SimpleQA, трохи перевершуючи Perplexity Pro при повністю локальній роботі. Випадки використання: - Пошук в Інтернеті - Глибокі дослідження Побудований на новій версії Qwen Qwen3-4B-Thinking (до 256k довжини контексту), доопрацьованій для міркувань та використання інструментів у січні. Ви можете запустити модель у форматі Jan, llama.cpp або vLLM. Щоб увімкнути пошук у січні, перейдіть у меню «Налаштування» → «Експериментальні функції» → «Увімкнено», а потім «Налаштування» → сервери MCP, → активувати пов'язаний із пошуком MCP, наприклад Serper. Використовуйте модель: - Січень-v1-4B: - Січень-v1-4B-GGUF: Подяка команді @Alibaba_Qwen за Qwen3 4B Thinking & @ggerganov за llama.cpp.
10,39K