Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Finjustering ☠️ av RIP
Den här nya Stanford-tidningen dödade det bara.
Det kallas "Agentic Context Engineering (ACE)" och bevisar att du kan göra modeller smartare utan att röra en enda vikt.
I stället för omträning utvecklar ACE själva kontexten.
Modellen skriver, reflekterar och redigerar sin egen prompt om och om igen tills den blir ett självförbättrande system.
Tänk på det som att modellen har en växande anteckningsbok om vad som fungerar.
Varje misslyckande blir en strategi. Varje framgång blir en regel.
Resultaten är absurda:
+10,6 % bättre än GPT-4-drivna agenter på AppWorld.
+8,6 % på ekonomiresonemang.
86.9% lägre kostnad och latens.
Inga etiketter. Bara feedback.
Alla har varit besatta av "korta, rena" uppmaningar.
ACE vänder på det. Det bygger långa, detaljerade utvecklande spelböcker som aldrig glömmer. Och det fungerar eftersom LLM:er inte vill ha enkelhet, de vill ha *kontextdensitet.
Om detta skalas upp kommer nästa generation av AI inte att vara "finjusterad".
Den kommer att vara självinställd.
Vi är på väg in i en era av levande uppmaningar.

Topp
Rankning
Favoriter