RIP ajuste fino ☠️ Este novo artigo de Stanford acabou com isso. Chama-se 'Engenharia de Contexto Agente (ACE)' e prova que se pode tornar os modelos mais inteligentes sem tocar em um único peso. Em vez de re-treinar, o ACE evolui o próprio contexto. O modelo escreve, reflete e edita seu próprio prompt repetidamente até se tornar um sistema autoaperfeiçoável. Pense nisso como o modelo mantendo um caderno crescente do que funciona. Cada falha se torna uma estratégia. Cada sucesso se torna uma regra. Os resultados são absurdos: +10,6% melhor do que agentes alimentados por GPT-4 no AppWorld. +8,6% em raciocínio financeiro. 86,9% menos custo e latência. Sem rótulos. Apenas feedback. Todos têm estado obcecados com prompts "curtos e limpos". O ACE inverte isso. Ele constrói manuais evolutivos longos e detalhados que nunca esquecem. E funciona porque os LLMs não querem simplicidade, eles querem *densidade de contexto. Se isso escalar, a próxima geração de IA não será "ajustada finamente". Ela será autoajustada. Estamos entrando na era dos prompts vivos.