Vom Prompt Engineering zum Context Engineering

Warum nicht nur die Eingabe, sondern das ganze Umfeld zählt – und wie man KI-Systeme auf das nächste Level hebt 🚀

Kategorie: KI · 7/9/2025

1 | Die Evolution verstehen: Von statischen Prompts zu dynamischen Kontexten

1.1 Was ist Prompt Engineering?

Prompt Engineering beschreibt die Kunst, eine einzelne Texteingabe („Prompt") so zu gestalten, dass ein Large Language Model (LLM) bestmöglich reagiert. Seit dem Aufkommen von GPT-3.5 haben Entwickler unzählige Stunden damit verbracht, an Formulierungen zu feilen, die Reihenfolge Prompt-Bestandteilen zu optimieren oder System-Instruktionen zu verfeinern.

Klassische Prompt-Engineering-Techniken:

  • Few-Shot Learning: Beispiele im Prompt bereitstellen
  • Chain-of-Thought: Schritt-für-Schritt-Denken anregen
  • Role Playing: Dem Modell eine spezifische Rolle zuweisen
  • Structured Output: Formatvorgaben für die Antwort definieren
Prompt Engineering Techniken

1.2 Die Erfolge und Grenzen

Prompt Engineering hat uns weit gebracht – es ermöglichte erste produktive Anwendungen von LLMs. Doch mit steigender Komplexität der Aufgaben - insbesondere beim Einbeziehen umfangreicher externer Daten wie aus Firmendatenbanken - stoßen wir an fundamentale Grenzen.

2 | Die Grenzen des reinen Prompt Engineerings

2.1 Statisch & Fragil

Ein sorgfältig optimierter Prompt funktioniert oft nur unter sehr spezifischen Bedingungen. Schon kleine Änderungen – ein anderer Nutzer mit abweichendem Sprachstil, neue Datenformate oder ein Modell-Update – können die Leistung drastisch verschlechtern. Was gestern funktionierte, versagt heute bzw. liefert keine optimalen Resultate.

2.2 Kontextfenster-Limits

Moderne LLMs haben zwar größere Kontextfenster (Claude: 200k Tokens, GPT-4: 128k Token, Gemini: 2MB), aber in der Praxis explodieren die Anforderungen schnell - insbesondere bei der Nutzung von Coding Tools wie Cursor, Windsurf, Claude Code und co.:

  • Längere Konversationsverläufe
  • Multiple Tool-Aufrufe mit Responses
  • Umfangreiche Dokumentenanalysen
  • Komplexe Code-Repositories

2.3 Fehlende Werkzeuge & Aktualität

Viele reale Aufgaben erfordern:

  • Externe Wissensquellen: Unternehmensdatenbanken, APIs
  • Aktuelle Informationen: Web-Suche, News-Feeds
  • Aktionen: E-Mails senden, Tickets erstellen, Code deployen

Ein statischer Prompt kann diese Dynamik oft nicht abbilden.

2.4 Skalierbarkeit & Wartbarkeit

Ein clever formulierter Prompt mag für eine spezifische Aufgabe funktionieren, aber:

  • Wie passt er sich an verschiedene Nutzergruppen an?
  • Wie integriert er neue Features ohne Breaking Changes?
  • Wie bleibt er über Modell-Updates hinweg stabil?

2.5 Beobachtbarkeit & Debugging

Ohne systematische Nachvollziehbarkeit wird Fehlersuche wie so oft in der DV zum Ratespiel:

  • Warum hat das Modell diese Entscheidung getroffen?
  • Welche Informationen fehlten?
  • An welcher Stelle des Prozesses ging etwas schief?

3 | Der Paradigmenwechsel: Context Engineering

3.1 Die neue Definition

Laut einer prägnanten Definition von LangChain (siehe Quellen) bedeutet Context Engineering:

„Dynamische Systeme zu bauen, die dem LLM genau die richtigen Informationen und Werkzeuge in der richtigen Form zur richtigen Zeit geben, sodass es die Aufgabe zuverlässig und effizient lösen kann."

Es geht nicht mehr nur um die Eingabe, sondern um das gesamte Informationsökosystem, in dem das Modell operiert.

3.2 Warum Context > Prompt

Aktuelle Studien zeigen: Wenn KI-Agenten scheitern, liegt es in über 80% der Fälle daran, dass sie den falschen, unvollständigen, widersprüchlichen oder veralteten Kontext erhalten – nicht daran, dass das Modell selbst unzureichend wäre.

Beispiel aus der Praxis: Ein Support-Agent soll eine technische Kundenanfrage beantworten. Mit reinem Prompt Engineering würden wir versuchen, alle möglichen Szenarien im Prompt abzudecken. Mit Context Engineering:

  1. Analysiert der Agent den Prompt
  2. Prüft die Kommunikationshistorie (“Short Term Memory”)
  3. Lädt dynamisch relevante Dokumentation (z.B. per RAG noch vor dem LLM Aufruf)
  4. Prüft die Kundenhistorie (z.B. per MCP Client, “Long Term Memory“)
  5. Konsultiert den aktuellen System-Status z.B. per “Tool Use” bzw. “Function Calling”
  6. Wählt passende Response-Templates

D.h. Prompt-Engineering ist nur ein Teilaspekt des Context Engineering.

3.3 Die vier Kernstrategien des Context Engineerings

LangChain (Verweis siehe unten) identifiziert vier fundamentale Muster für effektives Context Management:

Strategie

Zweck

Praktisches Beispiel

Implementierung

Write

Kontext außerhalb des Token-Fensters persistent speichern

Scratchpad für Zwischenergebnisse bei komplexen Berechnungen

LangGraph Memory, Redis, PostgreSQL

Select

Nur relevante Informationen dynamisch nachladen

Top-3 relevante Code-Snippets via Embedding-Suche

Datenbanken für schnelle, relevante Suche (z. B. Qdrant, Pinecone, Weaviate), RAG-Pipelines

Compress

Token-Effizienz durch intelligente Zusammenfassung

Automatische Konversations-Zusammenfassungen bei 80% Token-Auslastung (des Kontext-Fensters)

LLM-basierte Summarization, Extractive Compression

Isolate

Komplexe Aufgaben in spezialisierte Sub-Agenten aufteilen

Research-Agent → Analysis-Agent → Writing-Agent

Multi-Agent Orchestration, LangGraph

Context Management Strategien

4 | Best Practices für modernes Context Engineering

4.1 Empfehlungen

Hier einige Möglichkeiten, die sich (relativ) einfach nutzen lassen, um das Kontext-Fenster eines LLMs bestmöglich zu füllen:

  1. System- & Rollen-Instruktionen klar trennen (z. B. per YAML-Block).
  2. Retrieval-Augmented Generation (RAG) für aktuelle oder proprietäre Daten - z.B. Dokumentationen.
  3. Tool-Aufrufe deklarativ beschreiben (z.B. über JSON-Schemas), damit das Modell sie zuverlässig verwendet.
  4. Speicher-Schichten einführen – Kurzzeit (Thread) vs. Langzeit (User-Profil).
  5. Auf widerspruchsfreie Informationen achten - z.B. nicht bei Dokumentationen zu einer Programmbibliothek Versionen vermischen, so dass z.B. das LLM Zugriff auf Dokumention V-4 und V-5 gleichzeitig hat.
  6. Telemetry & Evals (z. B. LangSmith) nutzen, um Token-Kosten und Fehlerraten sichtbar zu machen

Hier noch einige Beispiele, welche Metriken interessant sein können:

  • Context Utilization Rate: Wie viel des bereitgestellten Kontexts wird tatsächlich genutzt?
  • Retrieval Precision: Waren die nachgeladenen Informationen relevant?
  • Token Efficiency: Verhältnis von Information zu Token-Verbrauch
  • Context Switching Overhead: Zeit für Kontext-Updates
  • Error Attribution: Welcher Kontext-Teil führte zu Fehlern?

5 | Praktischer Leitfaden: Starten mit Context Engineering

Hier einige Anhaltspunkte für eine strukturierte Vorgehensweise:

Als Vorbereitung den benötigten Kontext ermitteln:

  • Welche Informationen braucht dein System wirklich?
  • Welche Datenquellen sind verfügbar?
  • Wie aktuell müssen die Daten sein?

Welche Anwendungsfälle gibt es im Detail?

  • Identifiziere die Top-5 Anwendungsfälle
  • Dokumentiere den benötigten Kontext pro Use Case
  • Erkenne Überschneidungen und Muster

Schritte für die Implementierung:

  • Relevante Daten sammeln (“collect”)
  • Daten für LLM aufbereiten (“transform”)
  • Auf Vollständigkeit, Korrektheit und Widerspruchsfreiheit prüfen (“validate”)
  • Bereitstellungswege für die Daten prüfen - z.B. per RAG oder per MCP Server?
  • Finalen Prompt / Kontext zusammenfügen (“assemble”)
Datenvorbereitung für LLMs

Iterative Verbesserung:

  • Starte mit statischem Kontext

  • Füge schrittweise dynamische Elemente hinzu

  • Messe nach Möglichkeit den Impact jeder Änderung

6 | Zukunftsausblick: Wohin geht die Reise?

Aktuelle Trends sind z.B.:

  • Adaptive Context Windows: Modelle, die ihr Kontextfenster dynamisch anpassen
  • Multi-Modal Context: Integration von Text, Bildern, Audio, Video
  • Federated Context: Verteilte Kontextquellen - aber unter Wahrung des Datenschutzes
  • Self-Organizing Context: KI-Systeme, die ihren eigenen Kontext optimieren

Die aber mit einigen Herausforderungen verbunden sind:

  • Context Coherence: Konsistenz über multiple Kontextquellen
  • Privacy-Aware Context: DSGVO-konforme Kontext-Verarbeitung
  • Real-Time Context Updates: Millisekunden-schnelle Kontext-Aktualisierung
  • Cross-Model Context: Kontext-Sharing zwischen verschiedenen KI-Modellen
  • usw.

7 | Fazit: Der Weg nach vorn

Prompt Engineering war der erste Schritt – es lehrte uns, wie wir mit KI-Modellen kommunizieren. Context Engineering ist der nächste evolutionäre Sprung: Es geht darum, intelligente Informationsökosysteme zu schaffen, in denen KI ihr volles Potential entfalten kann.

Die Zukunft gehört nicht dem cleversten Prompt, sondern dem smartesten Kontext-System. Unternehmen, die diesen Wandel verstehen und umsetzen, werden einen entscheidenden Wettbewerbsvorteil haben.

Die Kernbotschaft: Denke nicht mehr in einzelnen Prompts, sondern in dynamischen Kontext-Systemen. Deine KI ist nur so gut wie der Kontext, den du ihr gibst.

Hinweis: In Kürze wird's von uns einen neuen Beitrag geben, der Context Engineering in einer .NET Lösung mit MCP Servern umsetzt.

Literatur & Weiterführende Ressourcen

Primärquellen

Ergänzende Literatur


Hast du bereits Erfahrungen mit Context Engineering gemacht? Welche Herausforderungen siehst du in deinem Anwendungsfall? Lass es uns in den Kommentaren diskutieren!

Über uns

Ein erfahrenes Entwicklerteam, das mit Leib und Seele Software erstellt.

evanto logo

Kontaktdaten

Brunnstr. 25,
Regensburg

+49 (941) 94592-0
+49 (941) 94592-22

Statistik