Pentagon vs. Open AI vs. Anthropic. Wie Abhängigkeiten der „Großen“ auch ihr Unternehmen beeinflussen

TL;DR? Warum Sie trotzdem weiterlesen sollten.

Seit Ende Februar 2026 hat sich die Debatte um KI und Militär ungewöhnlich zugespitzt und zu Kampagnen wie „Cancel ChatGPT“2“ geführt. OpenAI verzeichnet eine Anhäufung von Abo-Kündigungen.

Worum geht es? OpenAI, Anthropic, xAI und das US-Verteidigungsministerium ringen öffentlich um Formulierungen wie „all lawful purposes“, um rote Linien bei Überwachung und autonomen Waffen – und um die Frage, wer wem Bedingungen bei der Nutzung der KI-Modelle diktiert.

Auf den ersten Blick wirkt das wie ein amerikanisches Spezialthema: Pentagon, Trump-Regierung, „Cancel ChatGPT“.

Aber tatsächlich ist es ein Lehrstück über die Abhängigkeiten und Einflüsse im AI-Ökosystem. Es zeigt, wie abhängig selbst die größten KI-Anbieter sind – und wie wenig es auch für kleine deutsche Unternehmen reicht, bei eigenen KI-Entscheidungen nur auf Performance und Markenbekanntheit zu schauen.

Es geht hier nicht um ethische und moralische Grundsatzdiskussionen sondern nachfolgend schlicht darum, welche wirtschaftlichen und technologischen Gedanken neben dem Benchmark-Check durchlaufen werden sollten, um im AI-Ökosystem für das eigene Unternehmen eine nachhaltige Entscheidung zu treffen.


1. Der Knackpunkt ist nicht Moral und Ethik

Ganz nüchtern betrachtet:
Der Fokus der öffentlichen Debatte wird als moralische Gegenüberstellung gesetztt: hier „gute“ pazifistische KI, dort „böse“ Militärkooperation; hier „woke AI“, dort „kriegswillige Hardliner“.

Tatsächlich lässt sich die Lage nüchterner lesen. Die US-Regierung verfolgt eine klare sicherheitspolitische Linie: Die eigenen Streitkräfte sollen Zugang zu den leistungsfähigsten generativen KI-Systemen des Landes bekommen – nicht punktuell, sondern tief integriert in Planungs-, Analyse- und Einsatzprozesse.

Dafür schließt das Verteidigungsministerium Verträge mit großen KI-Labs. In diesen Verträgen taucht eine Formulierung immer wieder auf: Die Systeme sollen für „alle rechtmäßigen Zwecke“ genutzt werden können. OpenAI beschreibt die Quintessenz des eigenen Abkommens so: Das Department of War dürfe das System

„for all lawful purposes, consistent with applicable law“
(„für alle rechtmäßigen Zwecke, im Einklang mit geltendem Recht“)

verwenden – und betont zugleich zusätzliche Sicherungsmechanismen.

Die öffentliche Empörung fokussiert stark auf diese Kooperation an sich. Das Unternehmen OpenAI hätte sich doch dem „benefit all of humanity“ verschrieben und nun geht man einen Pakt mit dem Militär ein, was zu Empörung und Boykottaufrufen führt. Dem kann man folgen oder auch als Social Media Hype abtun.
Spannender – und für Unternehmen relevanter – ist das Muster dahinter: Es geht um Abhängigkeit, Planungssicherheit und darum, wer am Ende bestimmt, was ein Modell dürfen soll.


2. Das Dilemma der Anbieter: Drei Interessen im Konflikt zueinander

Hinter den Schlagzeilen sieht man ein Spannungsdreieck, in dem sich alle großen Labs bewegen:

  • staatliche Sicherheitsinteressen
  • ökonomischer Druck durch Milliardenfinanzierungen
  • selbst formulierte Werte und Prinzipien

OpenAI betont in seinem Statement zum Pentagon-Deal, man habe klare rote Linien vereinbart:

„prohibitions on domestic mass surveillance and human responsibility for the use of force, including for autonomous weapon systems“ („Verbote für inländische Massenüberwachung und menschliche Verantwortung beim Einsatz von Gewalt, einschließlich autonomer Waffensysteme“)

– und argumentiert, das Abkommen enthalte

„more guardrails than any previous agreement for classified AI deployments“
(„mehr Sicherheitsvorkehrungen als jede frühere Vereinbarung für klassifizierte KI-Deployments“).

Anthropic wiederum macht seine eigenen Prinzipien in der Claude-Constitution transparent. CEO Dario Amodei formulierte die Kernsorge öffentlich: Ohne bestimmte Schutzklauseln könnte Claude

„for mass surveillance of Americans or its integration into fully autonomous weapons systems“
(„zur Massenüberwachung von US-Bürgern oder zur Integration in vollständig autonome Waffensysteme“)

genutzt werden – und verweigerte deshalb die gewünschte Vertragsänderung. Gleichzeitig betonte er ausdrücklich, man unterstütze

„lawful foreign intelligence and counterintelligence operations“
(„rechtmäßige Auslandsgeheimdienst- und Spionageabwehroperationen“)

die Linie liege also nicht bei Militär oder Geheimdienst generell, sondern bei spezifischen Anwendungen.

Auf der anderen Seite steht das Verteidigungsministerium mit einem legitimen, aber anders gelagerten Interesse: Es möchte einen Anbieter, auf den es sich im Ernstfall verlassen kann – technisch, betrieblich und vertraglich. Ein System, das im Krisenszenario plötzlich bestimmte Einsätze blockiert, weil der Hersteller interne Prinzipien höher gewichtet als den Vertrag, ist aus dieser Perspektive ein Beschaffungsrisiko.

Laut BBC erwog Verteidigungsminister Hegseth zeitweise, Anthropic als „supply chain risk“ zu klassifizieren – als zu unsicher für Regierungsnutzung. Das Pentagon wiederum betont offiziell, man habe „no intention of surveilling US citizens or developing autonomous weapons without human involvement“.

Genau hier entsteht der eigentliche Konflikt: Das Militär verlangt vertragliche Zusicherung maximaler Handlungsfreiheit innerhalb des geltenden Rechts, während Anthropic sich das Recht vorbehält, bestimmte legale Anwendungen aus ethischen Gründen auszuschließen. OpenAI und xAI sind bereit, sich näher an die staatliche Linie anzulehnen; Anthropic nicht.

Keine dieser Positionen ist per se richtig oder falsch. Sie sind unterschiedlich.


3. Abhängigkeit als zentrales Muster – und warum es nicht nur das Pentagon betrifft

Bemerkenswert ist, dass sich das Pentagon ganz bewusst für Abhängigkeit von kommerziellen Modellen entscheidet, statt ausschließlich eigene KI zu entwickeln. Die Gründe sind nachvollziehbar:

  • Geschwindigkeit: Die Innovationsdynamik liegt aktuell stark bei kommerziellen Labs.
  • Kosten und Infrastruktur: Es ist günstiger, bestehende Foundation Models zu adaptieren, als alles selbst zu bauen.
  • Talent: Ein großer Teil der weltweiten KI-Expertise sitzt in privatwirtschaftlichen Labs.

Diese Logik ist nicht weit weg von den Entscheidungen, die mittelständische Unternehmen heute treffen. Auch sie „mieten“ Fähigkeiten, die sie intern weder aufbauen noch halten könnten: Sprachmodelle, Bildmodelle, Agenten-Frameworks, integrierte Cloud-Stacks.

Abhängigkeit ist in beiden Fällen kein Unfall, sondern ein bewusst gewähltes Design: Man entscheidet sich, kritische Funktionen auf Plattformen auszulagern, denen man vertraut – oder vertrauen muss. Der Kernunterschied: Für das Pentagon geht es im Extremfall um operative Handlungsfähigkeit in Kriegssituationen. Für Unternehmen geht es „nur“ um Geschäftsprozesse, Markenimage, Compliance und interne Sicherheit. Strukturell ist das Muster identisch.


4. Das Beschaffungsdilemma: Zuverlässigkeit vs. Wertetreue

Aus Sicht eines Auftraggebers – ob Ministerium oder Unternehmen – entsteht ein reales Dilemma. Wer stark in die Integration eines Systems investiert hat, möchte nicht irgendwann feststellen, dass der Hersteller die Nutzungsbedingungen ändert oder bestimmte Einsätze plötzlich untersagt.

Die New York Times beschreibt die Lage treffend: Das Pentagon investiert in Integration, Ausbildung und operative Konzepte – und möchte Verlässlichkeit über die gesamte Vertragslaufzeit.

Auf der anderen Seite steht ein Anbieter wie Anthropic, der genau diesen Spielraum bewusst offenhalten will. Damit bindet er sich selbst – auch auf die Gefahr hin, lukrative Verträge zu verlieren oder als unzuverlässig zu gelten.

Übertragen auf Unternehmen: Auch sie wünschen sich einerseits flexible, maximal leistungsfähige Tools – und andererseits Anbieter, die im Zweifel eigene Grenzen setzen. Das Pentagon-Anthropic-Lehrstück zeigt, dass man nicht beides in Reinform zugleich haben kann: perfekte operative Verfügbarkeit und konsequente Wertetreue. Beides hat seinen Preis.


5. Was Unternehmen daraus lernen können: Vom Tool-Vergleich zur System-Perspektive

In vielen Diskussionen reduziert sich die Entscheidungsfrage auf: „ChatGPT oder Claude?“, „Closed Source oder Open Source?“, „Wer hat das stärkere Modell?“

Der aktuelle Diskurs legt nahe, die Perspektive zu erweitern:

Welche Abhängigkeiten gehe ich ein? Technisch: Bin ich an ein proprietäres API gebunden? Gibt es Exit-Optionen? Rechtlich: In welchen Rechtsraum ziehe ich meine Daten und Prozesse? Politisch: In welche Konfliktlinien könnte mein Anbieter geraten – zwischen Regierungen, Regulatoren, Interessengruppen?

Wie verhält sich der Anbieter unter Druck? Die drei Labs haben in dieser Debatte sehr unterschiedlich agiert. OpenAI stellt seinen Deal als verantwortungsvollen Kompromiss dar. Anthropic akzeptiert sichtbare Nachteile, um eigene rote Linien zu halten. xAI signalisiert maximale Bereitschaft zur Anpassung an den staatlichen Rahmen. Keine dieser Positionen ist per se richtig oder falsch – aber sie sind unterschiedlich. Für Unternehmen ist entscheidend, ob sie sich in der jeweiligen Kompromisslinie wiederfinden.

Welche reputativen Risiken importiere ich mit? Nutzerkampagnen wie „Cancel ChatGPT“ werfen OpenAI vor, Profite über Sicherheit zu stellen. Unabhängig davon, wie man diese Einschätzung bewertet: Wer sich stark auf einzelne Anbieter stützt, übernimmt immer auch ein Stück deren öffentliche Wahrnehmung – und deren Kontroversen.

Für den Mittelstand heißt das: Die Wahl eines KI-Stacks ist nicht nur eine technische und kaufmännische Entscheidung, sondern immer auch eine Entscheidung über die Art von Konflikten, in die man sich hineinbegibt.


6. Es geht nicht nur um „die Großen“ – auch ihre KI-Entscheidung für ihr Unternehmen unterliegt diesen Regeln

Auf den ersten Blick scheint all das weit weg vom Alltag eines mittelständischen Unternehmens. Man entscheidet sich doch nicht für Pentagon-Verträge, sondern für ein Ticket-System mit KI-Funktionen, eine Automatisierungsplattform oder ein Nischenprodukt für Textanalyse.

Genau hier lohnt sich der zweite Blick: Auch kleinere Lösungen und spezialisierte Dienstleister hängen meist an denselben großen Modell- und Infrastrukturbetreibern – nur eine Schicht weiter unten. Viele Produkte integrieren im Hintergrund genau jene Foundation Models, Cloud-Plattformen oder Bausteine, über die aktuell diskutiert wird. Damit übernehmen Sie als Unternehmen nicht nur die Eigenschaften des sichtbaren Produkts, sondern immer auch einen Teil der Abhängigkeiten des Ökosystems dahinter.

Die Frage „Mit welchem großen Anbieter möchte ich mich verbinden?“ stellt sich also nicht nur beim direkten Vertrag mit einem Hyperscaler oder KI-Lab. Sie stellt sich bei jeder Entscheidung für ein KI-Produkt, jedem SaaS-Vertrag, jeder Agentur, die „AI inside“ verspricht. Wer nur auf Feature-Listen, Preis und kurzfristige Performance schaut, blendet aus, in welcher Lieferkette diese Lösung eingebettet ist – und welchen politischen, rechtlichen oder reputativen Risiken sie ausgesetzt sein könnte.

Praktisch können sich Führungsteams deshalb drei zusätzliche Fragen stellen:

Worauf baut dieses Produkt eigentlich auf? Nutzt der Dienstleister eigene Modelle und Infrastruktur oder stützt er sich auf die bekannten großen Stacks – und wenn ja, auf welche? Gibt es eine technische oder vertragliche Möglichkeit, zu einem anderen Unterbau zu wechseln?

Welche Abhängigkeiten erbe ich mit? Wenn der Anbieter seinerseits stark von einem einzelnen US-Modell, einer bestimmten Cloud oder einem Venture-Investor abhängt: Was würde passieren, wenn dort die Spielregeln geändert werden? Wen trifft das zuerst – und wie schnell schlägt es auf meinen Betrieb durch?

Ist das unter allen Gesichtspunkten eine akzeptable Partnerschaft? Dabei geht es ausdrücklich nicht darum, US-Unternehmen pauschal zu meiden. Es geht darum, bewusst zu entscheiden: Passt diese Einbettung in mein Risikoprofil, meine Compliance, meinen Markenauftritt? Wenn ja, ist es eine legitime unternehmerische Wahl. Wenn nein, sollte ich Alternativen prüfen – auch wenn sie vielleicht weniger glänzende Benchmarks haben.

Genau deshalb lohnt sich der Blick ins KI-Ökosystem über reine Modellvergleiche hinaus. Wer versteht, wie Anbieter, Investoren, Staaten und Infrastrukturen ineinandergreifen, trifft andere Entscheidungen – nicht aus Angst, sondern aus Klarheit.


7. Der Blick nach Europa: Kleiner, langsamer – und freier?

Aus europäischer Perspektive stellt sich eine zusätzliche Frage: Wie viel dieser Dynamik möchte man überhaupt importieren?

In Brüssel und in mehreren Mitgliedstaaten wird intensiv über „strategische Autonomie“ im Bereich KI diskutiert. Es geht um die Idee, eigene Kapazitäten aufzubauen – technisch, rechtlich und organisatorisch –, um nicht vollständig von US- oder chinesischen Plattformen abhängig zu sein. Dazu gehören europäische Cloud- und KI-Anbieter, Open-Source-Modelle unter europäischer Governance sowie eine Regulierung (AI Act), die explizit versucht, Risikoklassen und Einsatzbereiche zu definieren.

Der aktuelle Streit in den USA kann hier als Kontrastfolie dienen. Er zeigt, wie stark sicherheitspolitische Logiken auf die Entwicklung und Nutzung von KI durchschlagen, wenn die zentrale Infrastruktur in einem Land steht, dessen Interessen sich von den eigenen unterscheiden.

Für europäische Unternehmen eröffnet das zwei Optionen: bewusst US-Stacks nutzen – in Kenntnis der dortigen politischen Logiken und Abhängigkeiten – oder gezielt auf europäische und offene Alternativen setzen, mit anderen Kompromissen bei Performance, Reifegrad und Ökosystem. Beides kann die richtige Entscheidung sein. Entscheidend ist, dass sie bewusst getroffen wird.


8. Konkrete Entscheidungsfragen für Führungsteams

Aus all dem lassen sich einige nüchterne Fragen ableiten, die sich jedes Unternehmen bei der Wahl von KI-Anbietern stellen kann – unabhängig davon, wie man persönlich zur aktuellen Aufregung steht:

  1. Welche Abhängigkeiten gehen wir bewusst ein – technisch, rechtlich, politisch?
  2. Wie hat unser potenzieller Anbieter in der Vergangenheit gehandelt, als er zwischen Geschäft und eigenen Prinzipien stand?
  3. Welche Art von Konflikten bin ich bereit mitzuerben – und welche würden unseren Ruf gefährden?
  4. Wo liegen unsere eigenen roten Linien für KI-Einsätze – unabhängig davon, was rechtlich erlaubt oder technisch möglich ist?
  5. Haben wir einen Plan B, falls ein Anbieter seine Policy ändert oder in eine politische Kontroverse gerät?

Der Pentagon–OpenAI–Anthropic-Konflikt liefert dafür kein Moralurteil, aber ein wertvolles Lehrstück. Er zeigt, dass selbst die mächtigsten KI-Unternehmen nicht frei schweben, sondern unter starkem Einfluss von Staaten, Investoren und Öffentlichkeit handeln. Und er erinnert daran, dass es bei KI-Entscheidungen selten nur um „Leistung pro Euro“ geht – sondern immer auch um Souveränität, Verlässlichkeit und die Frage, in wessen Logiken man sich einklinkt.


Möchten Sie verstehen, wie Sie KI-Entscheidungen in Ihrem Unternehmen strukturiert und souverän treffen? Im Workshop Nachhaltige KI-Lösungen entwickeln am Mittelstand-Digital Zentrum Berlin arbeiten wir genau das durch – praxisnah und ohne technische Vorkenntnisse.