Warum sich der OpenAI von NVIDIA zu lösen versucht

TL;DR

Sam Altman reist auf geheimer Mission durch Asien, trifft sich mit Chip-Giganten, plant Milliarden-Deals – und versucht damit, OpenAI aus einer gefährlichen Abhängigkeit zu befreien. Das Unternehmen hinter ChatGPT entwickelt eigene KI-Chips. So der Plan, um aus der Abhängigkeit von NVIDIA und dem immer größer werdenden Hardware-Engpass herauszukommen. Und er ist mit dieser Strategie nicht allein.

Das Grundproblem: Wenn Rechenpower zur Mangelware wird

Künstliche Intelligenz braucht Rechenleistung. Enorme Rechenleistung. Jede Anfrage an ChatGPT, jedes generierte Bild löst im Hintergrund komplexe mathematische Prozesse aus, die spezielle Hochleistungs-Chips erfordern.

Dabei durchlaufen KI-Systeme zwei zentrale Phasen: das Training und die Inferenz. „Beim Training werden einem KI-Modell kuratierte Datensätze gezeigt, sodass es beginnen kann, Muster zu erkennen und zu verstehen. Inferenz bedeutet, dass dem KI-Modell Daten außerhalb der kuratierten Datensätze angezeigt werden, es dieselben Muster findet und darauf basierend Vorhersagen trifft“, erklärt Oracle.

Das Training eines Modells wie GPT-4 benötigte über 25.000 NVIDIA A100-GPUs über mehrere Monate hinweg – das entspricht Milliarden von GPU-Stunden. Für die tägliche Nutzung durch Millionen von Anwendern sind jedoch vor allem die Inferenz-Prozesse entscheidend.

Nvidia dominiert – und kann kaum liefern

Derzeit beherrscht Nvidia etwa 80 Prozent des Marktes für KI-Chips. Die H100- und A100-GPUs des Unternehmens kosten zwischen 10.000 und 30.000 Euro pro Stück und bilden die Grundlage praktisch aller großen KI-Systeme.

Die Knappheit verschärft das Problem. „Der Bedarf ist gewaltig“, bestätigte NVIDIA-CEO Jensen Huang gegenüber Investoren. Die explosive Nachfrage führt zu steigenden Preisen und Verzögerungen bei KI-Entwicklungsprojekten.

„Nvidia, with the largest market share, had difficulty meeting demand and, as a result of their size and influence, kept the GPU market from growing as much as it might have“, erklärt Dr. Jon Peddie, Präsident von Jon Peddie Research.

Huang selbst zeigt sich optimistisch über die technologische Entwicklung: „Our systems are progressing way faster than Moore’s Law“, erklärte er kürzlich und verwies darauf, dass Nvidias KI-Chips eine 30-fache Geschwindigkeitssteigerung bei Inferenz-Aufgaben im Vergleich zur Vorgängergeneration erreichen.

Die diskreten Treffen: Altmans Mission in Asien

Ende September 2025 unternahm Sam Altman eine eigentlich geheime Reise nach Asien, die für OpenAIs Chip-Strategie entscheidend werden könnte. Am 30. September traf er sich diskret mit Vertretern von TSMC und Foxconn in Taiwan, um über Kooperation bei Chip-Design, Fertigung und KI-Server-Infrastruktur zu sprechen.

Einen Tag später bestätigte Südkorea dann offiziell Altmans Anwesenheit: Er traf sich mit Präsident Lee Jae Myung und sicherte sich Vereinbarungen zum Bau von Rechenzentren mit Samsung und SK Hynix. Die koreanischen Chip-Hersteller unterzeichneten Absichtserklärungen, monatlich bis zu 900.000 Hochleistungs-Speicher-Wafer für Stargate-Rechenzentren zu liefern.

Das Stargate-Projekt: 500 Milliarden für die KI-Infrastruktur

Diese Treffen stehen im Kontext von OpenAIs ambitioniertem Stargate-Projekt, das langfristig 500 Milliarden Dollar kosten soll. Das Projekt plant den Bau eines Netzwerks von KI-Rechenzentren in den USA mit einer Kapazität von 4,5 Gigawatt.

Broadcom als Partner: 10 Milliarden Dollar für die Unabhängigkeit

Der Schlüssel zu OpenAIs Chip-Strategie liegt in der Partnerschaft mit Broadcom, einem US-Halbleiterunternehmen, das sich auf kundenspezifische Chips spezialisiert hat. Broadcom-CEO Hock Tan bestätigte gegenüber Investoren einen neuen Großkunden mit Aufträgen im Wert von mehr als 10 Milliarden US-Dollar, ohne den Namen zu nennen. Mehrere Quellen bestätigen jedoch, dass es sich um OpenAI handelt.

„Last quarter, one of these prospects released production orders to Broadcom“, erklärte Tan, ohne den Kunden zu benennen. Die Nachricht ließ Broadcoms Aktien um bis zu 16 Prozent steigen und fügte dem Unternehmen mehr als 200 Milliarden Dollar Marktwert hinzu.

TSMC übernimmt die Fertigung

Die eigentlichen Chips werden bei TSMC gefertigt, dem weltgrößten Auftragsfertiger für Halbleiter. TSMC wird seine fortschrittliche 3-Nanometer-Technologie sowie CoWoS-Packaging mit High Bandwidth Memory (HBM) einsetzen. Die Massenproduktion soll 2026 beginnen, nachdem sich der ursprünglich für Q2 geplante Start bereits auf Q3 verschoben hat.

Andere Tech-Giganten gehen denselben Weg

OpenAI folgt damit einer Strategie, die andere große Tech-Konzerne bereits seit Jahren verfolgen. „Google aus Mountain View in Kalifornien entwickelt beispielsweise schon seit Jahren seine eigenen ‚Tensor Processing Units‘ (TPUs), und auch Amazon sowie Meta haben längst eigene Chip-Designs für ihre KI-Anwendungen im Einsatz“, berichtet t3n.

Diese Unternehmen können durch maßgeschneiderte Hardware ihre Betriebskosten erheblich senken und die Performance für ihre spezifischen Anwendungen optimieren.

OpenAI nutzt bereits Google-Chips

OpenAI hat bereits begonnen, seine Chip-Quellen zu diversifizieren. Das Unternehmen setzt mittlerweile auch Googles TPUs über die Google Cloud ein, um die Kosten bei Inferenz-Berechnungen zu senken. Allerdings erhält OpenAI nicht Googles leistungsstärkste TPU-Generation – diese behält sich der Konzern für eigene Projekte wie das konkurrierende Sprachmodell Gemini vor.

„Podcasting Bro“: Die Skepsis der Branche

Nicht alle Branchenvertreter sind von Altmans Ambitionen überzeugt. Bei einem früheren Besuch in Taiwan hatten TSMC-Führungskräfte Altmans Vorschlag für 36 neue Chip-Fabriken im Wert von 7 Billionen Dollar als „absurd“ bezeichnet. Intern sollen sie ihn als „podcasting bro“ bezeichnet haben – ein Begriff, der seine mangelnde Vertrautheit mit der Halbleiterindustrie ausdrücken sollte.

TSMC-Chairman Dr. C.C. Wei äußerte sich bereits früher skeptisch: „Sam Altman, he’s too aggressive, too aggressive for me to believe“, zitiert ihn Yahoo Finance.

Risiken und Herausforderungen

Die Entwicklung eigener Chips ist nicht ohne Risiken. „Der Schritt in die eigene Chip-Entwicklung ist für OpenAI allerdings nicht frei von Risiken. Die Entwicklungskosten sind immens und der Erfolg ist nicht garantiert“, warnt t3n. Eine eigene Hardware-Plattform aufzubauen erfordert nicht nur enormes Kapital, sondern auch jahrelange Expertise.

Nvidias Software-Ökosystem als Hürde

Ein besonders kritischer Punkt ist Nvidias etabliertes Software-Ökosystem. „NVIDIA hat mit seiner CUDA-Softwareplattform ein über Jahre gewachsenes und extrem starkes Ökosystem geschaffen, das Entwickler:innen an seine Produkte bindet“, erklärt t3n. Diesen Vorteil aufzuholen wird für OpenAI eine der größten Herausforderungen darstellen.

Auswirkungen auf die Branche

Die Nachricht von OpenAIs Chip-Plänen hat bereits Marktbewegungen ausgelöst. Während Broadcoms Aktien stiegen, fielen Nvidia-Aktien zeitweise um bis zu 4,3 Prozent. Analysten sehen dies als Signal, dass Nvidia mittelfristig Marktanteile verlieren könnte.

Eine widersprüchliche Situation

Dennoch bleibt die Situation widersprüchlich: „Amazon, Google, Microsoft, Meta, and now OpenAI are all building their own chips to reduce their reliance on NVIDIA, while simultaneously relying on NVIDIA more than ever“, analysiert Tom’s Hardware. OpenAI hat parallel zu den eigenen Chip-Plänen auch eine Infrastruktur-Vereinbarung mit Nvidia abgeschlossen, die potenziell mehr als 100 Milliarden Dollar wert ist.

Experten-Einschätzungen zur Marktlage

Marktexperte Sverre Bergland von DNB Fund Technology sieht die Entwicklung differenziert: „NVIDIA steht im Zentrum der KI-Revolution. Das Unternehmen ist der unangefochtene Marktführer für GPUs, die für das Training und die Nutzung von Large Language Models unerlässlich sind“, erklärt er. Gleichzeitig warnt er vor der „enormen Abhängigkeit des Unternehmens von einigen wenigen Kunden – wahrscheinlich nicht mehr als zehn – und das Fehlen wiederkehrender Umsätze“.

Dr. Jon Peddie von Jon Peddie Research betont die zunehmende Bedeutung von GPUs: „Graphics processing units (GPUs) have become ubiquitous and can be found in almost every industrial, scientific, commercial, and consumer product made today“, stellt er fest. Der globale GPU-Markt soll 2024 98,5 Milliarden Dollar überschreiten, wobei der größte Anteil nicht aus Gaming-GPUs, sondern aus KI- und HPC-Anwendungen stammt.

Was bedeutet das für die Zukunft?

OpenAIs Schritt in die Chip-Entwicklung markiert einen Wendepunkt in der KI-Industrie. Es zeigt, dass selbst die erfolgreichsten KI-Unternehmen die vollständige Abhängigkeit von einem Anbieter als strategisches Risiko betrachten.

Vertikale Integration als Trend

Diese Entwicklung ist Teil eines größeren Trends zur vertikalen Integration in der Tech-Industrie. Unternehmen wollen mehr Kontrolle über ihre gesamte Technologie-Stack, von der Software bis zur Hardware. „Diese Strategie spiegelt OpenAIs Ambitionen wider, nicht nur ein KI-Softwareunternehmen zu bleiben, sondern sich zu einem umfassenden Technologiekonzern zu entwickeln, der die gesamte Wertschöpfungskette von der KI-Entwicklung bis zur Hardware kontrolliert“, analysiert xpert.digital.

Ausblick

Die ersten OpenAI-Chips sollen bereits 2026 verfügbar sein. Ob sie tatsächlich die Abhängigkeit von NVIDIA reduzieren können und wirtschaftlich erfolgreich sind, wird sich zeigen. Die Skepsis der Branche gegenüber Altmans Ambitionen bleibt spürbar – ebenso wie die enormen Herausforderungen beim Aufbau einer Alternative zu Nvidias etabliertem Ökosystem.

Fest steht: Die KI-Revolution verändert nicht nur Software, sondern auch die Hardware-Landschaft grundlegend. Und OpenAI will dabei nicht länger nur Kunde sein, sondern selbst gestalten.