Die KI Kantine - Der Podcast

Michael Busch

Vom Prompt zum Kontext – wie KI jetzt wirklich versteht, worum es geht

Warum Context Engineering das neue Prompt Engineering ist

05.11.2025 5 min

Zusammenfassung & Show Notes

Die Art, wie wir mit KI arbeiten, verändert sich grundlegend. Statt immer neue Prompts zu schreiben, lernen wir, den gesamten Kontext zu gestalten, in dem KI arbeitet – also das, was sie weiß, bevor sie antwortet. In dieser Folge der KI Kantine erklärt Buschi seinem Kollegen Thomas, warum „Context Engineering“ das neue „Prompt Engineering“ ist, wie Entwickler davon profitieren und welche Rolle IDEs wie Cursor oder Copilot dabei spielen.
Von Langzeitgedächtnis und „Company Knowledge“ über Just-in-Time-Retrieval bis zu RAG-Techniken: Buschi zeigt, wie KI-Agenten den menschlichen Arbeitskontext zunehmend verstehen – und warum das unsere Produktivität revolutionieren könnte.

Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.

Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.

Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.

📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an podcast@ki-kantine.de

Alle Folgen & mehr: https://ki-kantine.letscast.fm/

Transkript

(Transkribiert von TurboScribe.ai. Upgrade auf Unbegrenzt, um diese Nachricht zu entfernen.) Mahlzeit! Mahlzeit! Sag mal, kannst du dich noch erinnern, dass ich dir mal von Prompt Engineering was erzählt habe? Also, wie man so einen perfekten Satz formuliert, um ChatGPT dazu zu bringen, das Richtige zu tun? Klar, so vergesslich bin ich nun auch wieder nicht. Das war ja irgendwie wie mit einem sturen Praktikanten, dem man jeden Morgen erklären muss, was er zu tun hat. Aber das ändert sich ja jetzt gerade komplett, denn heute reden die Leute nicht mehr von Prompt Engineering, sondern von Context Engineering. Aha. So, ein Prompt ist nur die eigentliche Frage, aber der Kontext ist alles drumrum, was du vorher gemacht hast, woran du arbeitest, welche Dateien, Notizen und Regeln relevant sind. Das ist also, als würdest du deinem Praktikanten nicht nur sagen, was er tun soll, sondern ihm auch deinen ganzen Schreibtisch, deine To-Do -Liste und dein Postfach zeigen. Interessant. Das ist also so eine Art Gedächtnis für die KI. Und das war nämlich bisher die große Achillesferse. Die KIs haben ständig vergessen, worum es ging. Bei jedem neuen Chat war alles weg. Kontextverlust. Aber jetzt kommt da Bewegung rein. Clot, Copilot, ChatGPT, die bekommen echt ein Langzeitgedächtnis. Also zum Beispiel bei Anthropic gibt es so etwas, das nennt sich Projektbasierte Gedächtnisräume. Das heißt, deine KI weiß, was zum Kundenprojekt A gehört und was zum Projekt B gehört. Bei Microsoft heißt es Deeper Memory. Das ist so eine Art zweites Gehirn für wichtige Informationen. Und bei OpenAI geht es sogar noch weiter. Die bauen eine Company Knowledge Base direkt auf. Das heißt, ChatGPT kann Zugriff auf dein Filmwissen bekommen, auf GitHub, Slack, SharePoint, Google Drive. Da wird also alles dann zum Kontext. Und wenn du also fragst, wie war nochmal die Architektur von unserem API-Projekt, dann zieht ChatGPT die Infos aus den echten Dateien und kann dir Quellenangaben machen und alles. Das ist also nicht mehr Raten, sondern das ist kontextduelles Denken. Das Ganze zieht sogar in dein Betriebssystem ein. OpenAI hat neulich so ein Startup gekauft. Damit kann ChatGPT quasi sehen, was auf deinem Bildschirm gerade passiert. Dadurch weiß die KI, in welchem Tool du gerade arbeitest oder welche App offen ist. Und der Wechsel zwischen den Tools, das merkt man dann eigentlich gar nicht, weil es im Hintergrund passiert. Dadurch musst du natürlich viel weniger Copy & Paste machen. Da läuft also dann im Hintergrund ein Kontext -Engineering. Also der Kontext wird immer wieder dynamisch zusammengestellt. System-Prompts, Tool-Beschreibungen, Beispiel-Code, Suchergebnisse, alles kommt im richtigen Moment in den Kontext. Und weil das Kontextfenster von so einem Modell begrenzt ist, also nur eine bestimmte Menge an Informationen reinpassen, muss das System schon sehr schlau agieren und entscheiden, was ist jetzt hierfür wirklich relevant. Der Begriff, der sich da jetzt so einbürgert, ist Compaction. Das ist also sowas wie ein Packer in einem Lager, der nur das Nötigste reinpackt, was er braucht. Und wenn dann noch was fehlt, dann holen die sich das Just-in-Time, also nur nach Bedarf. Das nennt man dann Retrieval Augmented Generation Rack, das hast du vielleicht schon mal gehört. Und da kommen dann wieder die Vektoren, die Embeddings zum Einsatz. Und die KI sucht dann halt blitzschnell die passenden Codestellen und Dokumente über eine semantische Suche, falls du dich erinnerst, da haben wir vor kurzem schon mal drüber geredet. Und Ziel ist es halt, dass die KI versteht, was ich mache und ich das nicht jeden Tag immer wieder neu erklären muss. Und jetzt habe ich halt dafür einen Agenten, der sich an mich, an mein Projekt und auch an meinen Stil erinnert. Und dafür braucht es halt eben weniger Magic Prompts und mehr Context Design. Und du musst dann halt nicht wieder solche Konstrukte machen, imprompt, wie du bist ein Experte für irgendwas. Sondern er weiß schon, dass er ein Experte für die Dinge ist, die jetzt notwendig sind. Es geht jetzt also weniger darum, die richtigen Worte zu finden, sondern das richtige Umfeld zu schaffen. Und das ist dann die neue Kunst. Nicht, was du schreibst, sondern was die KI weiß, bevor du überhaupt anfängst. Und das verändert natürlich, wie wir entwickeln. Von der Einzelfrage hin zu einem dauerhaften Dialog zwischen Mensch, Code und Kontext. Können wir jetzt endlich mal essen? Die KI-Kantine ist ein Projekt von Michael Busch, der auch beim nächsten Mal wieder ein frisches KI-Gericht auftischt mit einer Prise Prompts und einer Beilage Skepsis. Die KI-Kantine. Hier ist die KI-Kantine.