Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Thomas Wolf
Co-fondatore presso @HuggingFace - open-source e open-science
Sono così orgoglioso di vedere Hugging Face FineWeb alimentare alcuni dei migliori LLM disponibili.
L'ho appena notato nel nuovo rapporto tecnico GLM 4.5 (il modello llm agentic appena open-sourced competitivo con Claude 4, Grok 4, o3) e ne ho sentito parlare in molti altri casi:
Condividere apertamente strumenti e conoscenze per costruire modelli AI SOTA è una missione fondamentale per @huggingface. Crediamo sia essenziale garantire diversità nel campo e prevenire una troppo grande concentrazione di potere nelle mani di poche aziende.
Grandi congratulazioni al team di FineWeb! 🎉
6,5K
Un insieme di modelli davvero interessanti per l'edge rilasciato questa settimana
- Jan rilascia un modello da 4B ottimizzato per eseguire compiti agentici localmente - supera Perplexity Pro in diverse valutazioni
- LiquidAI rilascia modelli multimodali per testo+immagine con versioni da 450M e 1.6B ottimizzate per bassa latenza

👋 Jan12 ago, 15:55
Presentiamo Jan-v1: modello 4B per la ricerca web, un'alternativa open-source a Perplexity Pro.
Nei nostri test, Jan v1 offre un'accuratezza del 91% in SimpleQA, superando leggermente Perplexity Pro mentre funziona completamente in locale.
Casi d'uso:
- Ricerca web
- Ricerca approfondita
Costruito sulla nuova versione di Qwen's Qwen3-4B-Thinking (fino a 256k di lunghezza del contesto), ottimizzato per il ragionamento e l'uso degli strumenti in Jan.
Puoi eseguire il modello in Jan, llama.cpp o vLLM. Per abilitare la ricerca in Jan, vai su Impostazioni → Funzioni Sperimentali → Attiva, poi Impostazioni → Server MCP → abilita un MCP relativo alla ricerca come Serper.
Usa il modello:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Credito al team @Alibaba_Qwen per Qwen3 4B Thinking e a @ggerganov per llama.cpp.
10,89K
Il team di OpenAI ha lavorato sodo! gpt-oss è una bestia
Bentornati a tutti, è fantastico avervi di nuovo nella comunità open-source. Sono entusiasta di vedere cosa costruiranno le persone su gpt-oss.
Dal punto di vista personale, è stato un vero piacere lavorare con il team di OpenAI e gli amici negli ultimi mesi, sono stati incredibilmente ricettivi ai feedback della comunità. Oso pensare che questo abbia reso il modello ancora migliore per molti casi d'uso.
Ora provatelo su

11,01K
La lettura AI di lunga durata è tornata e abbiamo appena rilasciato la lettura estiva definitiva.
Ispirati da artisti del calibro di Stripe Press, siamo orgogliosi di annunciare il primo libro di HF Press: un'edizione PDF della lunghezza di un libro accuratamente realizzata dell'Ultra-Scale Playbook.
Oltre 200 pagine dense per apprendere i fondamenti e avanzati di:
- Parallelismo 5D (DP, TP, PP, EP, FSDP)
-Zero
- Attenzione flash
- Sovrapposizioni e colli di bottiglia tra calcolo e comunicazione
Il tutto con introduzioni teoriche accessibili e 4.000+ esperimenti di scalabilità.
Tutto quello che devi sapere per addestrare il tuo DeepSeek V3 o LLama 5 :)
Scaricabile gratuitamente con il tuo abbonamento ✨ HF PRO
Scaricalo su:

50,4K
Ricordo di essere rimasto così colpito quando ho aggiunto il modello XL dei trasformatori di Yang Zhilin come terzo modello nella libreria dei trasformatori all'inizio del 2019
non sorprende che ora stia distribuendo cose pazzesche e impressionanti con Moonshot AI
è una lunga storia che un giorno dovrei raccontare, ma in un certo senso questo piccolo team di Google è stato tra i primi a capire davvero il potere del ridimensionamento dei dati di addestramento
14,88K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari