TL;DR? Warum Sie trotzdem weiterlesen sollten.
Unternehmen schulen ihre Mitarbeitenden auf „besseres Prompten“ – und wundern sich dann, warum die KI-Ergebnisse trotzdem mäßig bleiben. Das Kunst ist nicht mehr alleine der gut aufgebaute Prompt: Nicht der Satz entscheidet, sondern was drumherum der KI mitgegeben wird. Der Kontext.
Wer das versteht, bekommt nicht nur bessere Antworten – sondern bringt KI-Ergebnisse auf ein vollkommen anderes Niveau.
Was das für Ihr Unternehmen konkret bedeutet, lesen Sie in den nächsten zwölf Minuten. Lohnt sich.
In den Workshops, die ich mit Unternehmen durchführe, erlebe ich es regelmäßig: Jemand hat einen langen, sorgfältig formulierten Prompt vorbereitet. Rolle zugewiesen, Ton definiert, Aufgabe erklärt. Und trotzdem kommt am Ende etwas heraus, das nicht den Punkt trifft. Zu allgemein. Zu theoretisch. Oder einfach nicht das, was gebraucht wurde.
Die Reaktion ist meist: „Ich muss wohl noch besser prompten lernen.“
Nicht unbedingt, meistens liegt das Problem woanders.
Vom Prompt zur Arbeitsumgebung
Prompt-Engineering – also die Kunst, KI-Systeme durch gut formulierte Eingaben zu steuern – galt lange als die Schlüsselkompetenz im Umgang mit generativer KI. Wer die richtigen Worte findet, so die Überzeugung, bekommt auch die besten Antworten. Das war nie ganz falsch. Aber es ist zu kurz gedacht.
Je mehr KI-Systeme in reale Arbeitsprozesse hineinwachsen, desto deutlicher wird: Nicht der perfekte Prompt entscheidet über den Nutzen, sondern der richtige Kontext.
Tobi Lütke, CEO von Shopify, hat das mit einer Formulierung auf den Punkt gebracht, die seitdem durch die KI-Welt kreist. Context Engineering sei „the art of providing all the context for the task to be plausibly solvable by the LLM“ – „die Kunst, all jenen Kontext bereitzustellen, der nötig ist, damit das Sprachmodell eine Aufgabe überhaupt plausibel lösen kann.“ Der Entwickler und KI-Kommentator Simon Willison hat diesen Begriff aufgegriffen und als deutlich treffenderen Namen für das verteidigt, was die eigentliche Arbeit mit großen Sprachmodellen ausmacht.
Der Unterschied klingt vielleicht klein. Er ist es nicht.
Prompt-Engineering konzentriert sich auf die Formulierung einer Eingabe: Systemrolle, Arbeitsauftrag, ein paar Beispiele, Formatvorgaben. Das ist wichtig, vor allem für den Einstieg. Wer unklar fragt, bekommt oft auch unklare Antworten.
In der Praxis zeigt sich aber schnell: Viele schwache KI-Ergebnisse sind keine Prompt-Probleme, sondern Kontext-Probleme. Es fehlen relevante Informationen, klare Ziele, passende Beispiele oder der strukturierte Zugang zu den Daten und Werkzeugen, die das Modell eigentlich bräuchte. Anthropic – das Unternehmen hinter dem KI-System Claude – beschreibt Context Engineering deshalb als „the emerging art of curating and maintaining the optimal set of tokens during LLM inference“ – „die entstehende Kunst, während der Verarbeitung durch ein Sprachmodell den optimalen Informationsbestand auszuwählen und zu pflegen.“
Das ist der entscheidende Perspektivwechsel: Nicht die einzelne Nutzereingabe steht im Zentrum, sondern die Arbeitsumgebung, in der das Modell operiert.
Warum der Kontext plötzlich im Mittelpunkt steht
Der Wandel hat mehrere Ursachen – und keine davon ist rein technischer Natur.
KI übernimmt mehrstufige Aufgaben. Recherche, Zusammenfassung, Analyse, Code, Planung, Nachbearbeitung – immer häufiger werden KI-Systeme nicht für eine einzelne Frage eingesetzt, sondern für ganze Aufgabenketten. Anthropic betont in seiner Veröffentlichung „Building Effective AI Agents“, dass leistungsfähige Agenten auf „ground truth“ aus ihrer Umgebung angewiesen sind – also auf echte Zwischenergebnisse aus Werkzeugen, Datenbanken, Schnittstellen oder ausgeführtem Code. Die Gestaltung dieses Informationsflusses ist zentral für ihre Zuverlässigkeit.
Größere Kontextfenster sind kein Freifahrtschein. Die Menge an Text, die ein KI-System auf einmal verarbeiten kann, ist in den letzten Jahren massiv gewachsen. Aber damit steigt auch die Gefahr, diese Kapazität einfach mit „mehr Text“ zu füllen. Anthropic hat früh gezeigt, dass für lange Kontexte nicht nur die Länge entscheidend ist, sondern der Umgang mit Relevanz, Platzierung und Verdichtung von Informationen. Ein Kommentar trifft es gut: „Context is a tiny desk“ – jeder zusätzliche Token kann helfen oder stören. Ein zu voller Schreibtisch macht niemanden produktiver.
Wissensarbeit lebt von Rahmenbedingungen. KI ist keine isolierte Textmaschine, sondern ein Werkzeug für Wissensarbeit. Und Wissensarbeit lebt von Vorwissen, Zielen, Prioritäten, Zuständigkeiten und Rahmenbedingungen. Wer diese Aspekte nicht sauber in den Kontext bringt, produziert zwar viele Antworten – aber wenig echten Nutzen.
Was Context-Engineering wirklich meint
Context-Engineering ist die bewusste Gestaltung dessen, was ein Modell wissen, sehen und berücksichtigen soll, bevor es eine Aufgabe bearbeitet. Es umfasst deutlich mehr als einen schön formulierten Prompt.
Der Kontext eines Sprachmodells umfasst typischerweise:
- die Systeminstruktionen (Rolle, Leitplanken, konstanter Auftrag)
- die konkrete Nutzeranfrage
- den bisherigen Gesprächsverlauf
- relevante Hintergrundinformationen
- externe Wissensquellen über Abruf oder Schnittstellen
- verfügbare Werkzeuge und deren Funktionen
- Formatvorgaben für den Output
- ggf. längerfristigen Speicher oder Notizen
Anthropic fasst das zusammen als „the set of strategies for curating and maintaining the optimal set of tokens during LLM inference“ – „die Gesamtheit der Strategien zur Auswahl und Pflege des optimalen Informationsbestands während der Verarbeitung durch ein Sprachmodell.“ Der KI-Forscher Andrej Karpathy hat es noch anschaulicher formuliert: Das Modell ist die CPU, der Kontext ist der RAM. Das Modell kann nur mit dem arbeiten, was gerade geladen ist.
Philipp Schmid, AI Lead bei Google, formuliert es praxisnah: „Context Engineering is the discipline of designing and building dynamic systems that provides the right information and tools, in the right format, at the right time, to give a LLM everything it needs to accomplish a task“ – „Context Engineering ist die Disziplin, dynamische Systeme zu entwerfen und zu bauen, die der KI die richtigen Informationen und Werkzeuge, im richtigen Format, zum richtigen Zeitpunkt bereitstellen – alles, was sie braucht, um eine Aufgabe zu erfüllen.“ Entscheidend sind nicht nur die Informationen selbst, sondern auch Zeitpunkt, Format und die verfügbaren Werkzeuge.
Warum Rollenzuweisungen allein nicht reichen
Viele Menschen haben gelernt, KI so zu verwenden: „Du bist jetzt ein erfahrener Berater.“ Oder: „Du bist eine Marketingexpertin.“ Das kann helfen, weil Rollen Ton und Fokus leicht verschieben. Aber es bleibt an der Oberfläche.
Eine Rollenzuweisung beantwortet nicht die wirklich wichtigen Fragen:
- Für wen ist die Antwort gedacht – Fachpublikum, Geschäftsführung, Endkunden?
- Welche Datenbasis darf genutzt werden – öffentliche Quellen, interne Dokumente, nur bestimmte Systeme?
- Wie tief soll die Analyse gehen, wie viel Unsicherheit darf offen benannt werden?
- Was gilt als Erfolg – ein Impuls, eine Entscheidungsvorlage, eine fertige Lösung?
- Welche regulatorischen, rechtlichen oder organisatorischen Grenzen müssen respektiert werden?
Context-Engineering zwingt dazu, genau diese Fragen vorab zu klären. Statt zu schreiben „Du bist ein XY-Experte“ und zu hoffen, dass das Modell „den Rest schon versteht“, geht es darum, Aufgabe, Rahmenbedingungen und Informationslage so zu modellieren, dass eine gute Lösung überhaupt möglich wird.
Der Unterschied in der Praxis: Prompt vs. Kontext
Ein klassischer Prompt könnte lauten:
„Du bist ein erfahrener Unternehmensberater. Analysiere die Situation und gib Empfehlungen.“
Das klingt ordentlich. Aber es lässt fast alles offen: Branche, Unternehmensgröße, Ressourcen, Zeithorizont, Kultur, Zielkonflikte, Datenlage, Risikobereitschaft.
Ein kontextstarker Ansatz würde eher so aussehen:
„Analysiere folgende Situation für ein mittelständisches Maschinenbauunternehmen mit ca. 180 Mitarbeitenden in Europa. Ziel ist eine realistisch umsetzbare Verbesserung innerhalb von sechs Monaten, nicht eine umfassende Transformation. Berücksichtige: begrenzte interne KI-Kompetenz, hohe Datenschutzanforderungen, eine eher skeptische Geschäftsführung und bestehende ERP- sowie Wissensdaten. Erarbeite drei Handlungsoptionen mit Aufwand, erwartbarem Nutzen, Risiken und einem kurzen Umsetzungspfad.“
Das ist kein „besserer Prompt“ im engeren Sinn. Es ist ein besser gebauter Kontext. Und genau deshalb ist die Wahrscheinlichkeit deutlich höher, dass die Antworten wirklich brauchbar sind.
Kennen Sie das Gefühl, wenn Sie einem neuen Mitarbeitenden eine Aufgabe erklären – und ihm dabei alle nötigen Informationen zum Unternehmen, den Kunden geben, wie sie Angebote schreiben, Preise berechnen, Verhandlungen führen, bevor er anfängt? Genau das ist Context-Engineering. Nur dass Ihr Gegenüber kein Gedächtnis hat und bei jeder Aufgabe neu informiert werden muss. (Es sei denn sie fassen die Informationen in Projects, CustomGPTs, Skills zusammen. Wenn sie dazu tiefer einsteigen wollen, lesen sie ##)
Typische Kontextfehler – und warum sie wehtun
Wo Kontext eine begrenzte Ressource ist, entstehen auch typische Fehler. Simon Willison beschreibt im Umfeld von Agentensystemen vier besonders relevante Problemtypen:
Context poisoning – irrelevante oder fehlerhafte Informationen im Kontext beeinflussen die Ausgabe. Das Modell arbeitet mit dem, was es bekommt. Auch wenn es falsch ist.
Context distraction – zu viel Nebensächliches überlagert das Wesentliche. Wer zu viel hineingibt, bekommt zu wenig Fokus heraus.
Context confusion – widersprüchliche Signale machen das Verhalten unvorhersehbar. Systemprompt sagt dies, spätere Anweisung sagt jenes. Das Modell wählt – nicht immer richtig.
Context clash – mehrere Quellen oder Ziele widersprechen sich, ohne dass das explizit geklärt wurde.
Anthropic spricht in diesem Zusammenhang von „context pollution“ und schlägt unter anderem Komprimierungsstrategien, strukturiertes Notieren und Mehrfach-Agenten-Architekturen vor, um mit langen Interaktionen umzugehen. Die Kernaussage: Große Kontextfenster sind kein Freifahrtschein für unsauberes Arbeiten mit Informationen.
Was das für Unternehmen bedeutet
Die Verschiebung von Prompt- zu Context-Engineering bedeutet für Unternehmen vor allem eines: KI kann nicht isoliert betrachtet werden. Es reicht nicht, Mitarbeitende in „besseren Prompts“ zu schulen – und dann zu hoffen, dass schon etwas Sinnvolles dabei herauskommt.
Die Organisation muss ihre Aufgaben, Daten und Prozesse so gestalten, dass KI darin überhaupt sinnvoll arbeiten kann.
Konkret heißt das:
- Klare, wiederverwendbare Kontextvorlagen für typische Aufgaben entwickeln – statt jedes Mal neu zu improvisieren
- Definierte Wissensquellen, auf die KI-Systeme zugreifen dürfen – und solche, auf die nicht
- Saubere Schnittstellen zu Werkzeugen, Systemen und Datenbanken, die tatsächlich gebraucht werden
- Compliance-Regeln, welche Informationen nicht in den Kontext dürfen – aus Datenschutz- oder Sicherheitsgründen
- Prozesse zur Qualitätssicherung, damit KI-Ergebnisse geprüft und korrigiert werden, bevor sie in den Arbeitsfluss zurückfließen
Das Unternehmen instinctools bringt es so auf den Punkt: Context Engineering sei die Praxis, zu kontrollieren, welche Information ein KI-Modell erhält, bevor es eine Antwort generiert – und damit letztlich das Design der Infrastruktur, die für jede Aufgabe dynamisch den relevanten Kontext zusammenstellt.
Kurz: Context-Engineering ist nicht nur ein Prompt-Trick. Es ist eine Organisationsaufgabe.
Die eigentliche Kompetenzverschiebung
Wenn man die aktuelle Debatte zusammenfasst, zeichnen sich drei Ebenen ab:
Ebene 1 – Prompt-Engineering: Wie formuliere ich eine klare, hilfreiche Aufgabe?
Ebene 2 – Context-Engineering: Welche Informationen, Regeln, Beispiele, Werkzeuge und Ausgangszustände braucht das Modell, um die Aufgabe überhaupt robust lösen zu können?
Ebene 3 – System- und Architekturdesign: Wie baue ich Prozesse und Infrastruktur so, dass Kontext dynamisch, zuverlässig und sicher bereitgestellt wird?
Prompt-Engineering verschwindet nicht. Es bleibt wichtig, vor allem als Einstieg und als sichtbare Schnittstelle zur KI. Aber der eigentliche Hebel liegt immer stärker auf Ebene 2 – und in professionellen Umgebungen zusätzlich auf Ebene 3.
Drew Breunig formuliert es im Kontext der Systemarchitektur so: Die eigentliche Aufgabe bestehe zunehmend darin, „die Quellen und Senken von Kontext zu verrohrern“ – weil Kontext nicht dort entsteht, wo das Modell läuft, sondern in der Umwelt des Nutzers. Oder anders gesagt: Es geht darum, den Kontext dorthin zu bringen, wo das Modell ihn braucht.
Was ich sofort anders mache
Für Entscheider, die KI in ihrem Unternehmen ernsthaft nutzen oder einführen wollen, leiten sich aus diesem Thema fünf konkrete Ansätze ab:
1. Kontextvorlagen für wiederkehrende Aufgaben entwickeln. Identifizieren Sie die fünf bis zehn KI-Aufgaben, die in Ihrem Unternehmen am häufigsten vorkommen. Entwickeln Sie dafür feste Kontextrahmen – mit Hintergrundinformationen, Zieldefinition und Formatvorgaben. Einmal gut gebaut, spart das täglich Zeit und verbessert die Ergebnisqualität.
2. Aufhören, schlechte Ergebnisse allein dem Prompt zuzuschreiben. Wenn eine KI-Antwort nicht passt, fragen Sie zuerst: Was wusste das Modell – und was hätte es wissen müssen? Oft liegt die Lösung nicht in einer anderen Formulierung, sondern in einer besseren Informationsgrundlage.
3. Interne Wissensquellen systematisch zugänglich machen. KI-Systeme können nur mit dem arbeiten, was sie kennen. Wer seine internen Dokumente, Prozessbeschreibungen und Erfahrungswissen strukturiert bereitstellt, bekommt deutlich präzisere und relevantere Ergebnisse als jemand, der die KI nur auf öffentliche Informationen ansetzt.
4. Klare Regeln festlegen, was nicht in den Kontext darf. Datenschutz, Betriebsgeheimnisse, personenbezogene Daten – nicht alles, was intern existiert, darf in ein KI-System eingespeist werden. Diese Grenzen müssen vor dem produktiven Einsatz definiert, nicht nachträglich geflickt werden.
5. KI-Ergebnisse als Ausgangspunkt, nicht als Endprodukt behandeln. Kontext-Engineering verbessert die Qualität der Ergebnisse erheblich – aber es macht menschliche Prüfung nicht überflüssig. Bauen Sie Qualitätsstufen ein, bei denen KI-Outputs bewertet, korrigiert und – wo sinnvoll – wieder in den Wissensbestand des Unternehmens zurückgespielt werden.
Fazit: Vom Prompt zur Kontext-Kompetenz
Prompt-Engineering war der notwendige Einstieg in die Arbeit mit großen Sprachmodellen. Es hat geholfen, ein erstes Gefühl dafür zu entwickeln, wie diese Systeme funktionieren. Aber je weiter wir in Richtung produktiver Nutzung, KI-Agenten und integrierter Arbeitsabläufe gehen, desto klarer wird: Die eigentliche Schlüsselkompetenz ist Context-Engineering.
Wer nur an Prompts denkt, optimiert Worte. Wer an Kontext denkt, optimiert Arbeit.
Die zentrale Frage lautet daher nicht mehr: „Wie lautet der perfekte Prompt?“
Sondern: „Was muss ich dieser KI alles mitgeben – und wie – damit sie diese Aufgabe überhaupt sinnvoll lösen kann?“
Genau diese Frage ist die Kernaufgabe des Context-Engineering. Und sie ist, das sei hier klar gesagt, keine Frage für IT-Abteilungen allein. Sie ist eine Führungsaufgabe.
Zu diesem Themengebiet bieten wir im Rahmen des Mittelstand-Digital Zentrums Berlin Workshops an, in denen wir gemeinsam mit Ihnen praxisnahe KI-Einsatzszenarien entwickeln – von der ersten Aufgabendefinition bis zur strukturierten Kontextgestaltung. Jetzt informieren und anmelden.
Ich bringe Kontext für Unternehmen in den täglichen KI-Lärm – auf LinkedIn, im Blog, in Keynotes, Workshops und Coaching.
