Présentation de DeepConf : Pensez profondément avec confiance 🚀 Première méthode pour atteindre 99,9 % sur AIME 2025 avec des modèles open-source ! En utilisant GPT-OSS-120B même sans outils, nous avons atteint cette précision presque parfaite tout en économisant jusqu'à 85 % de tokens générés. Cela offre également de nombreux avantages pour la pensée parallèle : 🔥 Amélioration des performances : ~10 % de précision en plus sur les modèles et les ensembles de données ⚡ Ultra-efficace : Jusqu'à 85 % de tokens générés en moins 🔧 Plug & play : Fonctionne avec N'IMPORTE quel modèle existant - aucune formation nécessaire (pas de réglage d'hyperparamètres non plus !) ⭐ Facile à déployer : Juste ~50 lignes de code dans vLLM (voir PR ci-dessous) 📚 Article : 🌐 Projet : travail conjoint avec : @FuYichao123 , xuewei_wang, @tydsh (voir les détails dans les commentaires ci-dessous)
255,04K