Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
RIP fine-tuning ☠️
Dit nieuwe Stanford-paper heeft het gewoon verpulverd.
Het heet 'Agentic Context Engineering (ACE)' en het bewijst dat je modellen slimmer kunt maken zonder een enkel gewicht aan te raken.
In plaats van opnieuw te trainen, evolueert ACE de context zelf.
Het model schrijft, reflecteert en bewerkt zijn eigen prompt keer op keer totdat het een zelfverbeterend systeem wordt.
Zie het als het model dat een groeiend notitieboek bijhoudt van wat werkt.
Elke mislukking wordt een strategie. Elke succes wordt een regel.
De resultaten zijn absurd:
+10,6% beter dan GPT-4-aangedreven agents op AppWorld.
+8,6% op financiële redenering.
86,9% lagere kosten en latentie.
Geen labels. Gewoon feedback.
Iedereen is geobsedeerd door "korte, schone" prompts.
ACE draait dat om. Het bouwt lange, gedetailleerde evoluerende playbooks die nooit vergeten. En het werkt omdat LLM's geen eenvoud willen, ze willen *contextdichtheid.
Als dit opschaalt, zal de volgende generatie AI niet "fine-tuned" zijn.
Het zal zelf-tuned zijn.
We betreden het tijdperk van levende prompts.

Boven
Positie
Favorieten