RIP ajuste fino ☠️ Este nuevo artículo de Stanford acaba de acabar con eso. Se llama 'Ingeniería de Contexto Agente (ACE)' y demuestra que puedes hacer que los modelos sean más inteligentes sin tocar un solo peso. En lugar de reentrenar, ACE evoluciona el contexto mismo. El modelo escribe, reflexiona y edita su propio prompt una y otra vez hasta que se convierte en un sistema de auto-mejora. Piénsalo como si el modelo mantuviera un cuaderno en crecimiento de lo que funciona. Cada fallo se convierte en una estrategia. Cada éxito se convierte en una regla. Los resultados son absurdos: +10.6% mejor que los agentes impulsados por GPT-4 en AppWorld. +8.6% en razonamiento financiero. 86.9% menos costo y latencia. Sin etiquetas. Solo retroalimentación. Todos han estado obsesionados con prompts “cortos y limpios”. ACE invierte eso. Construye manuales evolutivos largos y detallados que nunca olvidan. Y funciona porque los LLMs no quieren simplicidad, quieren *densidad de contexto. Si esto escala, la próxima generación de IA no será “ajustada fino”. Será auto-ajustada. Estamos entrando en la era de los prompts vivos.