Vom Prompt zum Kontext – wie KI jetzt wirklich versteht, worum es geht
Warum Context Engineering das neue Prompt Engineering ist
05.11.2025 5 min
Zusammenfassung & Show Notes
Die Art, wie wir mit KI arbeiten, verändert sich grundlegend. Statt immer neue Prompts zu schreiben, lernen wir, den gesamten Kontext zu gestalten, in dem KI arbeitet – also das, was sie weiß, bevor sie antwortet. In dieser Folge der KI Kantine erklärt Buschi seinem Kollegen Thomas, warum „Context Engineering“ das neue „Prompt Engineering“ ist, wie Entwickler davon profitieren und welche Rolle IDEs wie Cursor oder Copilot dabei spielen.
Von Langzeitgedächtnis und „Company Knowledge“ über Just-in-Time-Retrieval bis zu RAG-Techniken: Buschi zeigt, wie KI-Agenten den menschlichen Arbeitskontext zunehmend verstehen – und warum das unsere Produktivität revolutionieren könnte.
Von Langzeitgedächtnis und „Company Knowledge“ über Just-in-Time-Retrieval bis zu RAG-Techniken: Buschi zeigt, wie KI-Agenten den menschlichen Arbeitskontext zunehmend verstehen – und warum das unsere Produktivität revolutionieren könnte.
Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.
Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.
Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.
Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.
Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.
📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an podcast@ki-kantine.de
Alle Folgen & mehr: https://ki-kantine.letscast.fm/
Alle Folgen & mehr: https://ki-kantine.letscast.fm/
Transkript
(Transkribiert von TurboScribe.ai. Upgrade auf Unbegrenzt, um diese Nachricht zu entfernen.) Mahlzeit!
Mahlzeit!
Sag mal, kannst du dich noch erinnern, dass
ich dir mal von Prompt Engineering was erzählt
habe?
Also, wie man so einen perfekten Satz formuliert,
um ChatGPT dazu zu bringen, das Richtige zu
tun?
Klar, so vergesslich bin ich nun auch wieder
nicht.
Das war ja irgendwie wie mit einem sturen
Praktikanten, dem man jeden Morgen erklären muss, was
er zu tun hat.
Aber das ändert sich ja jetzt gerade komplett,
denn heute reden die Leute nicht mehr von
Prompt Engineering, sondern von Context Engineering.
Aha.
So, ein Prompt ist nur die eigentliche Frage,
aber der Kontext ist alles drumrum, was du
vorher gemacht hast, woran du arbeitest, welche Dateien,
Notizen und Regeln relevant sind.
Das ist also, als würdest du deinem Praktikanten
nicht nur sagen, was er tun soll, sondern
ihm auch deinen ganzen Schreibtisch, deine To-Do
-Liste und dein Postfach zeigen.
Interessant.
Das ist also so eine Art Gedächtnis für
die KI.
Und das war nämlich bisher die große Achillesferse.
Die KIs haben ständig vergessen, worum es ging.
Bei jedem neuen Chat war alles weg.
Kontextverlust.
Aber jetzt kommt da Bewegung rein.
Clot, Copilot, ChatGPT, die bekommen echt ein Langzeitgedächtnis.
Also zum Beispiel bei Anthropic gibt es so
etwas, das nennt sich Projektbasierte Gedächtnisräume.
Das heißt, deine KI weiß, was zum Kundenprojekt
A gehört und was zum Projekt B gehört.
Bei Microsoft heißt es Deeper Memory.
Das ist so eine Art zweites Gehirn für
wichtige Informationen.
Und bei OpenAI geht es sogar noch weiter.
Die bauen eine Company Knowledge Base direkt auf.
Das heißt, ChatGPT kann Zugriff auf dein Filmwissen
bekommen, auf GitHub, Slack, SharePoint, Google Drive.
Da wird also alles dann zum Kontext.
Und wenn du also fragst, wie war nochmal
die Architektur von unserem API-Projekt, dann zieht
ChatGPT die Infos aus den echten Dateien und
kann dir Quellenangaben machen und alles.
Das ist also nicht mehr Raten, sondern das
ist kontextduelles Denken.
Das Ganze zieht sogar in dein Betriebssystem ein.
OpenAI hat neulich so ein Startup gekauft.
Damit kann ChatGPT quasi sehen, was auf deinem
Bildschirm gerade passiert.
Dadurch weiß die KI, in welchem Tool du
gerade arbeitest oder welche App offen ist.
Und der Wechsel zwischen den Tools, das merkt
man dann eigentlich gar nicht, weil es im
Hintergrund passiert.
Dadurch musst du natürlich viel weniger Copy &
Paste machen.
Da läuft also dann im Hintergrund ein Kontext
-Engineering.
Also der Kontext wird immer wieder dynamisch zusammengestellt.
System-Prompts, Tool-Beschreibungen, Beispiel-Code, Suchergebnisse, alles
kommt im richtigen Moment in den Kontext.
Und weil das Kontextfenster von so einem Modell
begrenzt ist, also nur eine bestimmte Menge an
Informationen reinpassen, muss das System schon sehr schlau
agieren und entscheiden, was ist jetzt hierfür wirklich
relevant.
Der Begriff, der sich da jetzt so einbürgert,
ist Compaction.
Das ist also sowas wie ein Packer in
einem Lager, der nur das Nötigste reinpackt, was
er braucht.
Und wenn dann noch was fehlt, dann holen
die sich das Just-in-Time, also nur
nach Bedarf.
Das nennt man dann Retrieval Augmented Generation Rack,
das hast du vielleicht schon mal gehört.
Und da kommen dann wieder die Vektoren, die
Embeddings zum Einsatz.
Und die KI sucht dann halt blitzschnell die
passenden Codestellen und Dokumente über eine semantische Suche,
falls du dich erinnerst, da haben wir vor
kurzem schon mal drüber geredet.
Und Ziel ist es halt, dass die KI
versteht, was ich mache und ich das nicht
jeden Tag immer wieder neu erklären muss.
Und jetzt habe ich halt dafür einen Agenten,
der sich an mich, an mein Projekt und
auch an meinen Stil erinnert.
Und dafür braucht es halt eben weniger Magic
Prompts und mehr Context Design.
Und du musst dann halt nicht wieder solche
Konstrukte machen, imprompt, wie du bist ein Experte
für irgendwas.
Sondern er weiß schon, dass er ein Experte
für die Dinge ist, die jetzt notwendig sind.
Es geht jetzt also weniger darum, die richtigen
Worte zu finden, sondern das richtige Umfeld zu
schaffen.
Und das ist dann die neue Kunst.
Nicht, was du schreibst, sondern was die KI
weiß, bevor du überhaupt anfängst.
Und das verändert natürlich, wie wir entwickeln.
Von der Einzelfrage hin zu einem dauerhaften Dialog
zwischen Mensch, Code und Kontext.
Können wir jetzt endlich mal essen?
Die KI-Kantine ist ein Projekt von Michael
Busch, der auch beim nächsten Mal wieder ein
frisches KI-Gericht auftischt mit einer Prise Prompts
und einer Beilage Skepsis.
Die KI-Kantine.
Hier ist die KI-Kantine.