Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Andrej Karpathy unterstützt die Einführung eines neuen Begriffs im Zusammenhang mit "Kontextengineering" in der KI-Softwareentwicklung unter Verwendung von LLMs.
Und dieser Begriff scheint schon lange sehr notwendig zu sein. Jedes Mal, wenn ich den Leuten erkläre, wie wir unseren Nethermind AuditAgent entwickeln, ist einer der Schlüsselaspekte, neben der Nutzung von Fachwissen (Web3-Sicherheit) und der Verwendung der besten verfügbaren KI-Modelle (von OpenAI, Anthropic und Google) sowie Tools für LLM, genau das "Kontextengineering".
Es gibt manchmal den Ausdruck "Kontext ist König", und das ist wirklich wahr. LLMs, ob riesige fortschrittliche oder optimierte kleine LLMs, sind ein mächtiges Werkzeug, aber wie jedes Werkzeug, wenn es in den falschen Händen ist, erhält man viel weniger vielversprechende Ergebnisse, als man könnte, wenn man richtig mit ihnen arbeitet. Und das Kontextmanagement (oder -engineering) ist in der Tat ein komplexes und nicht sehr gut beschriebenes Gebiet, das sich ständig weiterentwickelt und wirklich als Erweiterung des Konzepts des Prompt-Engineerings entstanden ist, das bereits einige negative Konnotationen hat.
Insgesamt hat Andrej die Hauptaspekte im Zusammenhang mit dem Kontextengineering aufgelistet (auf dem zweiten Screenshot), aber in jeder spezifischen Aufgabe erzielen die Menschen hervorragende Ergebnisse größtenteils durch Versuch und Irrtum, indem sie jedes Mal monoton versuchen, die richtigen Kontextelemente auszuwählen, die in dieser Phase der Problemlösung wirklich benötigt werden, Benchmarks für jede Phase sammeln, Metriken betrachten, Datensätze in Test-, Validierungs- usw. unterteilen und so weiter.
Was haltet ihr von "Kontextengineering"?

25. Juni 2025
+1 für "Kontext-Engineering" gegenüber "Prompt-Engineering".
Die Leute assoziieren Prompts mit kurzen Aufgabenbeschreibungen, die man einem LLM im täglichen Gebrauch geben würde. In jeder industrietauglichen LLM-Anwendung ist Kontext-Engineering jedoch die feine Kunst und Wissenschaft, das Kontextfenster mit genau den richtigen Informationen für den nächsten Schritt zu füllen. Wissenschaft, weil es richtig zu machen, Aufgabenbeschreibungen und Erklärungen, wenige Beispielanfragen, RAG, verwandte (möglicherweise multimodale) Daten, Werkzeuge, Zustand und Geschichte, Komprimierung... erfordert. Zu wenig oder in der falschen Form und das LLM hat nicht den richtigen Kontext für optimale Leistung. Zu viel oder zu irrelevant und die Kosten des LLM könnten steigen und die Leistung könnte sinken. Das gut zu machen, ist äußerst anspruchsvoll. Und Kunst, wegen der leitenden Intuition rund um die Psychologie von LLMs und den Geistern der Menschen.
Neben dem Kontext-Engineering selbst muss eine LLM-Anwendung:
- Probleme genau richtig in Kontrollflüsse aufteilen
- die Kontextfenster genau richtig packen
- Anrufe an LLMs der richtigen Art und Fähigkeit dispatchen
- Generierung-Verifizierung UIUX-Flüsse handhaben
- viel mehr - Sicherheitsvorkehrungen, Sicherheit, Bewertungen, Parallelität, Vorababruf, ...
Kontext-Engineering ist also nur ein kleines Stück eines sich entwickelnden dicken Schicht von anspruchsvoller Software, die individuelle LLM-Anrufe (und viel mehr) in vollständige LLM-Anwendungen koordiniert. Der Begriff "ChatGPT-Wrapper" ist müde und wirklich, wirklich falsch.
502
Top
Ranking
Favoriten