Vi introduserer DeepConf: Tenk dypt med selvtillit 🚀 Første metode for å oppnå 99.9 % på AIME 2025 med åpen kildekode-modeller! Ved å bruke GPT-OSS-120B selv uten verktøy, nådde vi denne nesten perfekte nøyaktigheten samtidig som vi sparte opptil 85 % genererte tokens. Det gir også mange sterke fordeler for parallell tenkning: 🔥 Ytelsesøkning: ~10 % nøyaktighet på tvers av modeller og datasett ⚡ Ultraeffektiv: Opptil 85 % færre tokens generert 🔧 Plug & play: Fungerer med ALLE eksisterende modeller - null trening nødvendig (ingen hyperparameterjustering også!) ⭐ Enkel å distribuere: Bare ~50 linjer med kode i vLLM (se PR nedenfor) 📚 Papir: 🌐 Prosjekt: Felles arbeid med: @FuYichao123, xuewei_wang, @tydsh (se detaljer i kommentarene nedenfor)
255,03K