Reglarea fină ☠️ RIP Acest nou ziar de la Stanford tocmai a ucis-o. Se numește "Agentic Context Engineering (ACE)" și dovedește că puteți face modele mai inteligente fără a atinge o singură greutate. În loc să se recalifice, ACE evoluează contextul în sine. Modelul scrie, reflectă și editează propriul prompt din nou și din nou până când devine un sistem de auto-îmbunătățire. Gândiți-vă la asta ca la modelul care ține un caiet în creștere cu ceea ce funcționează. Fiecare eșec devine o strategie. Fiecare succes devine o regulă. Rezultatele sunt absurde: +10.6% mai bun decât agenții alimentați de GPT-4 pe AppWorld. +8,6% la raționamentul financiar. Costuri și latență cu 86,9% mai mici. Fără etichete. Doar feedback. Toată lumea a fost obsedată de solicitări "scurte și curate". ACE răstoarnă asta. Construiește cărți de joc lungi și detaliate care nu uită niciodată. Și funcționează pentru că LLM-urile nu vor simplitate, vor *densitate de context. Dacă acest lucru se scalează, următoarea generație de AI nu va fi "reglată fin". Va fi auto-reglat. Intrăm în era îndemnurilor vii.