Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ajuste ☠️ fino do RIP
Este novo artigo de Stanford acabou de matá-lo.
Chama-se 'Engenharia de Contexto Agêntico (ACE)' e prova que você pode tornar os modelos mais inteligentes sem tocar em um único peso.
Em vez de reciclar, o ACE evolui o próprio contexto.
O modelo escreve, reflete e edita seu próprio prompt repetidamente até se tornar um sistema de autoaperfeiçoamento.
Pense nisso como o modelo mantendo um caderno crescente do que funciona.
Cada falha se torna uma estratégia. Cada sucesso se torna uma regra.
Os resultados são absurdos:
+10,6% melhor do que os agentes com tecnologia GPT-4 no AppWorld.
+8,6% no raciocínio financeiro.
Custo e latência 86,9% menores.
Sem rótulos. Apenas feedback.
Todo mundo está obcecado com prompts "curtos e limpos".
ACE inverte isso. Ele cria manuais longos e detalhados em evolução que nunca esquecem. E funciona porque os LLMs não querem simplicidade, eles querem * densidade de contexto.
Se isso for dimensionado, a próxima geração de IA não será "ajustada".
Será auto-ajustado.
Estamos entrando na era dos prompts vivos.

Melhores
Classificação
Favoritos