RIP l'ajustement fin ☠️ Ce nouvel article de Stanford vient de le tuer. Il s'appelle 'Agentic Context Engineering (ACE)' et il prouve que vous pouvez rendre les modèles plus intelligents sans toucher à un seul poids. Au lieu de réentraîner, l'ACE fait évoluer le contexte lui-même. Le modèle écrit, réfléchit et édite son propre prompt encore et encore jusqu'à ce qu'il devienne un système d'auto-amélioration. Pensez-y comme si le modèle tenait un carnet croissant de ce qui fonctionne. Chaque échec devient une stratégie. Chaque succès devient une règle. Les résultats sont absurdes : +10,6 % meilleur que les agents alimentés par GPT-4 sur AppWorld. +8,6 % en raisonnement financier. 86,9 % de coûts et de latence en moins. Pas d'étiquettes. Juste des retours. Tout le monde a été obsédé par des prompts "courts et clairs". L'ACE renverse cela. Il construit des manuels évolutifs longs et détaillés qui n'oublient jamais. Et ça fonctionne parce que les LLM ne veulent pas de simplicité, ils veulent *la densité de contexte. Si cela se développe, la prochaine génération d'IA ne sera pas "ajustée finement". Elle sera auto-ajustée. Nous entrons dans l'ère des prompts vivants.