Ajuste ☠️ fino do RIP Este novo artigo de Stanford acabou de matá-lo. Chama-se 'Engenharia de Contexto Agêntico (ACE)' e prova que você pode tornar os modelos mais inteligentes sem tocar em um único peso. Em vez de reciclar, o ACE evolui o próprio contexto. O modelo escreve, reflete e edita seu próprio prompt repetidamente até se tornar um sistema de autoaperfeiçoamento. Pense nisso como o modelo mantendo um caderno crescente do que funciona. Cada falha se torna uma estratégia. Cada sucesso se torna uma regra. Os resultados são absurdos: +10,6% melhor do que os agentes com tecnologia GPT-4 no AppWorld. +8,6% no raciocínio financeiro. Custo e latência 86,9% menores. Sem rótulos. Apenas feedback. Todo mundo está obcecado com prompts "curtos e limpos". ACE inverte isso. Ele cria manuais longos e detalhados em evolução que nunca esquecem. E funciona porque os LLMs não querem simplicidade, eles querem * densidade de contexto. Se isso for dimensionado, a próxima geração de IA não será "ajustada". Será auto-ajustado. Estamos entrando na era dos prompts vivos.