Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Thomas Wolf
Co-founder på @HuggingFace - open-source and open-science
Ett set med riktigt fina modeller för edge släpptes i veckan
- Jan släpper en 4B-modell optimerad för att köra agentiska uppgifter lokalt - överträffa Perplexity Pro på flera nivåer
- LiquidAI släpper multimodala modeller för text+bild med en 450M- och en 1.6B-version optimerad för låg latens

👋 Jan12 aug. 15:55
Vi presenterar Jan-v1: 4B-modell för webbsökning, ett alternativ med öppen källkod till Perplexity Pro.
I våra utvärderingar levererar Jan v1 91 % SimpleQA-noggrannhet, vilket är något bättre än Perplexity Pro samtidigt som den körs helt lokalt.
Användningsområden:
- Sökning på webben
- Djup forskning
Byggd på den nya versionen av Qwens Qwen3-4B-Thinking (upp till 256k kontextlängd), finjusterad för resonemang och verktygsanvändning i januari.
Du kan köra modellen i Jan, llama.cpp eller vLLM. Om du vill aktivera sökning i januari går du till Inställningar → Experimentella funktioner → På och sedan Inställningar → MCP-servrar → aktiverar en sökrelaterad MCP som Serper.
Använd modellen:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Tack till @Alibaba_Qwen-teamet för Qwen3 4B Thinking & @ggerganov för llama.cpp.
10,27K
OpenAI-teamet har lagat mat! GPT-OSS är ett odjur
Välkommen tillbaka gott folk, det är fantastiskt att ha dig i öppen källkodsgemenskapen igen. Spännande att se vad folk kommer att bygga ovanpå gpt-oss.
På den personliga sidan har det varit ett nöje att arbeta med OpenAI-teamet och vännerna under de senaste månaderna, de har varit otroligt mottagliga för feedback från communityn. Jag är glad att tro att det gjorde modellen ännu bättre för många användningsfall.
Gå nu och prova det på

10,89K
Lång AI-läsning är tillbaka och vi har precis släppt den ultimata sommarläsningen.
Inspirerad av bland annat Stripe Press är vi stolta över att kunna presentera den första boken från HF Press: en noggrant utformad PDF-utgåva av Ultra-Scale Playbook i boklängd.
Över 200 täta sidor för att lära sig grunderna och avancerade i:
- 5D-parallellitet (DP, TP, PP, EP, FSDP)
-Noll
- Blixt uppmärksamhet
- Överlappning och flaskhalsar i beräkning/kommunikation
Alla med tillgängliga teoriintron och 4 000+ skalningsexperiment.
Allt du behöver veta för att träna din egen DeepSeek V3 eller LLama 5 :)
Gratis att ladda ner med ditt HF PRO-abonnemang ✨
Hämta det på:

50,24K
Jag minns att jag var så imponerad när jag lade till transformators XL-modellen av Yang Zhilin som den tredje modellen i transformatorbiblioteket i början av 2019
inte förvånad över att han nu levererar galet imponerande grejer med Moonshot AI
det är en lång historia jag borde berätta en dag, men på ett sätt var det här lilla Google-teamet bland de första som verkligen förstod kraften i att skala träningsdata
14,78K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda