Ajuste ☠️ fino de RIP Este nuevo periódico de Stanford simplemente lo mató. Se llama 'Ingeniería de contexto agencial (ACE)' y demuestra que puede hacer que los modelos sean más inteligentes sin tocar un solo peso. En lugar de volver a entrenar, ACE evoluciona el contexto en sí. El modelo escribe, reflexiona y edita su propio mensaje una y otra vez hasta que se convierte en un sistema que se mejora a sí mismo. Piense en ello como el modelo que lleva un cuaderno en crecimiento de lo que funciona. Cada fracaso se convierte en una estrategia. Cada éxito se convierte en una regla. Los resultados son absurdos: +10,6% mejor que los agentes con tecnología GPT-4 en AppWorld. +8,6% en razonamiento financiero. 86,9% menos de costo y latencia. Sin etiquetas. Solo comentarios. Todo el mundo ha estado obsesionado con las indicaciones "cortas y limpias". ACE le da la vuelta a eso. Crea libros de jugadas en evolución largos y detallados que nunca olvidan. Y funciona porque los LLM no quieren simplicidad, quieren *densidad de contexto. Si esto escala, la próxima generación de IA no se "ajustará". Será auto-tuneado. Estamos entrando en la era de las indicaciones vivas.