.@athamzafarooq erklärt, warum KI-PMs über Prompt-Engineering hinausdenken müssen Die meisten KI-PMs konzentrieren sich auf Prompt-Engineering – bessere Anweisungen zu schreiben, um bessere Ergebnisse zu erzielen. Aber das ist nur die halbe Miete. Die eigentliche Herausforderung ist das Kontext-Engineering: Wie stellt man sicher, dass zwei verschiedene Benutzer personalisierte, relevante Antworten vom gleichen LLM erhalten? Die Lösung schichtet mehrere Komponenten: System-Prompts, Benutzer-Prompts, Erinnerungen aus vergangenen Interaktionen und relevante Informationen, die durch RAG abgerufen werden. "Akash möchte sich auf den S&P 500 konzentrieren. Ich bin eine andere Person, ich werde in Krypto investieren. Wie stellen wir sicher, dass du die richtigen Informationen erhältst und ich die richtigen Informationen bekomme? Das ist der Punkt, an dem das Kontext-Engineering eine Rolle spielt." Wenn man diese Elemente richtig kombiniert, bewegt man sich von einem generischen Chatbot zu einem personalisierten KI-Erlebnis. Lehre: Prompt-Engineering ist das, was man einem LLM sagt. Kontext-Engineering ist, wie man das gesamte Anweisungsspektrum gestaltet – einschließlich Erinnerung, Abruf und Personalisierung – das dein KI-Produkt so erscheinen lässt, als ob es jeden Benutzer tatsächlich versteht.