Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
.@athamzafarooq over waarom contextengineering nu belangrijker is dan promptengineering
De meeste AI PM's richten zich op promptengineering—betere instructies schrijven om betere output te krijgen.
Maar dat werkt alleen voor generieke antwoorden. Op het moment dat je personalisatie nodig hebt, valt promptengineering uit elkaar.
Neem een financiële agent. De ene gebruiker wil conservatieve S&P 500-investeringen. Een andere wil hoog-risico crypto-transacties. Hoe geeft dezelfde LLM beide gebruikers relevante adviezen?
Contextengineering lost dit op door meerdere informatiebronnen te combineren: systeem prompts, gebruikersprompts, langetermijngeheugen van eerdere interacties en relevante gegevens uit RAG.
"Promptengineering is wat je tegen een LLM zegt. Contextengineering is hoe je de instructies voor je LLM ontwerpt. Dat is de schoonheid van het hebben van kennis over contextengineering, omdat het je hele ecosysteem laat dansen."
Fijn-tuning werkt anders—het is taakadaptatie. Je traint de LLM op duizenden voorbeelden om het te specialiseren voor specifieke output, zoals het genereren van Python-code of het begrijpen van vocabulaire uit de farmaceutische industrie.
Les: Contextengineering is nu belangrijker dan promptengineering omdat moderne AI-producten personalisatie op schaal vereisen. Je moet geheugen, retrieval en prompts gelijktijdig orkestreren om relevante antwoorden aan elke gebruiker te leveren.
Boven
Positie
Favorieten

