Introducendo DeepConf: Pensa in Profondità con Fiducia 🚀 Primo metodo per raggiungere il 99,9% su AIME 2025 con modelli open-source! Utilizzando GPT-OSS-120B anche senza strumenti, abbiamo raggiunto questa precisione quasi perfetta risparmiando fino all'85% dei token generati. Offre anche molti forti vantaggi per il pensiero parallelo: 🔥 Aumento delle prestazioni: ~10% di precisione su modelli e dataset ⚡ Ultra-efficiente: Fino all'85% in meno di token generati 🔧 Plug & play: Funziona con QUALSIASI modello esistente - nessun addestramento necessario (niente ottimizzazione degli iperparametri!) ⭐ Facile da implementare: Solo ~50 righe di codice in vLLM (vedi PR qui sotto) 📚 Documento: 🌐 Progetto: lavoro congiunto con: @FuYichao123 , xuewei_wang, @tydsh (vedi dettagli nei commenti qui sotto)
255,04K