TL;DR
OpenAI entwickelt eigene KI-Chips zusammen mit Broadcom und TSMC, um sich aus der Abhängigkeit von NVIDIA zu befreien. Sam Altman reiste dafür diskret nach Taiwan und Südkorea, um Partnerschaften zu schmieden – die Massenproduktion soll 2026 beginnen. Der Deal mit Broadcom hat einen Wert von über 10 Milliarden Dollar. Doch die Branche reagiert skeptisch: TSMC-Manager hatten Altman intern als „Podcasting Bro“ bezeichnet und seine früheren Chip-Pläne als absurd abgetan. Das Grundproblem bleibt: KI-Systeme brauchen enorme Rechenleistung, NVIDIA dominiert 80 Prozent des Marktes, kann aber kaum liefern. OpenAI folgt damit Google, Amazon und Meta, die bereits eigene Chips entwickeln. Die größte Herausforderung wird Nvidias etabliertes Software-Ökosystem CUDA sein – ein Vorteil, der über Jahre gewachsen ist. Ob OpenAIs eigene Chips wirtschaftlich erfolgreich werden, ist offen. Gleichzeitig bleibt das Unternehmen paradoxerweise weiter auf Nvidia angewiesen: Ein parallel vereinbarter Deal mit dem Chip-Giganten hat einen Wert von über 100 Milliarden Dollar.
Sam Altman reist auf geheimer Mission durch Asien, trifft sich mit Chip-Giganten, plant Milliarden-Deals – und versucht damit, OpenAI aus einer gefährlichen Abhängigkeit zu befreien. Das Unternehmen hinter ChatGPT entwickelt eigene KI-Chips. So der Plan, um aus der Abhängigkeit von NVIDIA und dem immer größer werdenden Hardware-Engpass herauszukommen. Und er ist mit dieser Strategie nicht allein.
Das Grundproblem: Wenn Rechenpower zur Mangelware wird
Künstliche Intelligenz braucht Rechenleistung. Enorme Rechenleistung. Jede Anfrage an ChatGPT, jedes generierte Bild löst im Hintergrund komplexe mathematische Prozesse aus, die spezielle Hochleistungs-Chips erfordern.
Dabei durchlaufen KI-Systeme zwei zentrale Phasen: das Training und die Inferenz. „Beim Training werden einem KI-Modell kuratierte Datensätze gezeigt, sodass es beginnen kann, Muster zu erkennen und zu verstehen. Inferenz bedeutet, dass dem KI-Modell Daten außerhalb der kuratierten Datensätze angezeigt werden, es dieselben Muster findet und darauf basierend Vorhersagen trifft“, erklärt Oracle.
Das Training eines Modells wie GPT-4 benötigte über 25.000 NVIDIA A100-GPUs über mehrere Monate hinweg – das entspricht Milliarden von GPU-Stunden. Für die tägliche Nutzung durch Millionen von Anwendern sind jedoch vor allem die Inferenz-Prozesse entscheidend.
Nvidia dominiert – und kann kaum liefern
Derzeit beherrscht Nvidia etwa 80 Prozent des Marktes für KI-Chips. Die H100- und A100-GPUs des Unternehmens kosten zwischen 10.000 und 30.000 Euro pro Stück und bilden die Grundlage praktisch aller großen KI-Systeme.
Die Knappheit verschärft das Problem. „Der Bedarf ist gewaltig“, bestätigte NVIDIA-CEO Jensen Huang gegenüber Investoren. Die explosive Nachfrage führt zu steigenden Preisen und Verzögerungen bei KI-Entwicklungsprojekten.
„Nvidia, with the largest market share, had difficulty meeting demand and, as a result of their size and influence, kept the GPU market from growing as much as it might have“, erklärt Dr. Jon Peddie, Präsident von Jon Peddie Research.
Huang selbst zeigt sich optimistisch über die technologische Entwicklung: „Our systems are progressing way faster than Moore’s Law“, erklärte er kürzlich und verwies darauf, dass Nvidias KI-Chips eine 30-fache Geschwindigkeitssteigerung bei Inferenz-Aufgaben im Vergleich zur Vorgängergeneration erreichen.
Die diskreten Treffen: Altmans Mission in Asien
Ende September 2025 unternahm Sam Altman eine eigentlich geheime Reise nach Asien, die für OpenAIs Chip-Strategie entscheidend werden könnte. Am 30. September traf er sich diskret mit Vertretern von TSMC und Foxconn in Taiwan, um über Kooperation bei Chip-Design, Fertigung und KI-Server-Infrastruktur zu sprechen.
Einen Tag später bestätigte Südkorea dann offiziell Altmans Anwesenheit: Er traf sich mit Präsident Lee Jae Myung und sicherte sich Vereinbarungen zum Bau von Rechenzentren mit Samsung und SK Hynix. Die koreanischen Chip-Hersteller unterzeichneten Absichtserklärungen, monatlich bis zu 900.000 Hochleistungs-Speicher-Wafer für Stargate-Rechenzentren zu liefern.
Das Stargate-Projekt: 500 Milliarden für die KI-Infrastruktur
Diese Treffen stehen im Kontext von OpenAIs ambitioniertem Stargate-Projekt, das langfristig 500 Milliarden Dollar kosten soll. Das Projekt plant den Bau eines Netzwerks von KI-Rechenzentren in den USA mit einer Kapazität von 4,5 Gigawatt.
Broadcom als Partner: 10 Milliarden Dollar für die Unabhängigkeit
Der Schlüssel zu OpenAIs Chip-Strategie liegt in der Partnerschaft mit Broadcom, einem US-Halbleiterunternehmen, das sich auf kundenspezifische Chips spezialisiert hat. Broadcom-CEO Hock Tan bestätigte gegenüber Investoren einen neuen Großkunden mit Aufträgen im Wert von mehr als 10 Milliarden US-Dollar, ohne den Namen zu nennen. Mehrere Quellen bestätigen jedoch, dass es sich um OpenAI handelt.
„Last quarter, one of these prospects released production orders to Broadcom“, erklärte Tan, ohne den Kunden zu benennen. Die Nachricht ließ Broadcoms Aktien um bis zu 16 Prozent steigen und fügte dem Unternehmen mehr als 200 Milliarden Dollar Marktwert hinzu.
TSMC übernimmt die Fertigung
Die eigentlichen Chips werden bei TSMC gefertigt, dem weltgrößten Auftragsfertiger für Halbleiter. TSMC wird seine fortschrittliche 3-Nanometer-Technologie sowie CoWoS-Packaging mit High Bandwidth Memory (HBM) einsetzen. Die Massenproduktion soll 2026 beginnen, nachdem sich der ursprünglich für Q2 geplante Start bereits auf Q3 verschoben hat.
Andere Tech-Giganten gehen denselben Weg
OpenAI folgt damit einer Strategie, die andere große Tech-Konzerne bereits seit Jahren verfolgen. „Google aus Mountain View in Kalifornien entwickelt beispielsweise schon seit Jahren seine eigenen ‚Tensor Processing Units‘ (TPUs), und auch Amazon sowie Meta haben längst eigene Chip-Designs für ihre KI-Anwendungen im Einsatz“, berichtet t3n.
Diese Unternehmen können durch maßgeschneiderte Hardware ihre Betriebskosten erheblich senken und die Performance für ihre spezifischen Anwendungen optimieren.
OpenAI nutzt bereits Google-Chips
OpenAI hat bereits begonnen, seine Chip-Quellen zu diversifizieren. Das Unternehmen setzt mittlerweile auch Googles TPUs über die Google Cloud ein, um die Kosten bei Inferenz-Berechnungen zu senken. Allerdings erhält OpenAI nicht Googles leistungsstärkste TPU-Generation – diese behält sich der Konzern für eigene Projekte wie das konkurrierende Sprachmodell Gemini vor.
„Podcasting Bro“: Die Skepsis der Branche
Nicht alle Branchenvertreter sind von Altmans Ambitionen überzeugt. Bei einem früheren Besuch in Taiwan hatten TSMC-Führungskräfte Altmans Vorschlag für 36 neue Chip-Fabriken im Wert von 7 Billionen Dollar als „absurd“ bezeichnet. Intern sollen sie ihn als „podcasting bro“ bezeichnet haben – ein Begriff, der seine mangelnde Vertrautheit mit der Halbleiterindustrie ausdrücken sollte.
TSMC-Chairman Dr. C.C. Wei äußerte sich bereits früher skeptisch: „Sam Altman, he’s too aggressive, too aggressive for me to believe“, zitiert ihn Yahoo Finance.
Risiken und Herausforderungen
Die Entwicklung eigener Chips ist nicht ohne Risiken. „Der Schritt in die eigene Chip-Entwicklung ist für OpenAI allerdings nicht frei von Risiken. Die Entwicklungskosten sind immens und der Erfolg ist nicht garantiert“, warnt t3n. Eine eigene Hardware-Plattform aufzubauen erfordert nicht nur enormes Kapital, sondern auch jahrelange Expertise.
Nvidias Software-Ökosystem als Hürde
Ein besonders kritischer Punkt ist Nvidias etabliertes Software-Ökosystem. „NVIDIA hat mit seiner CUDA-Softwareplattform ein über Jahre gewachsenes und extrem starkes Ökosystem geschaffen, das Entwickler:innen an seine Produkte bindet“, erklärt t3n. Diesen Vorteil aufzuholen wird für OpenAI eine der größten Herausforderungen darstellen.
Auswirkungen auf die Branche
Die Nachricht von OpenAIs Chip-Plänen hat bereits Marktbewegungen ausgelöst. Während Broadcoms Aktien stiegen, fielen Nvidia-Aktien zeitweise um bis zu 4,3 Prozent. Analysten sehen dies als Signal, dass Nvidia mittelfristig Marktanteile verlieren könnte.
Eine widersprüchliche Situation
Dennoch bleibt die Situation widersprüchlich: „Amazon, Google, Microsoft, Meta, and now OpenAI are all building their own chips to reduce their reliance on NVIDIA, while simultaneously relying on NVIDIA more than ever“, analysiert Tom’s Hardware. OpenAI hat parallel zu den eigenen Chip-Plänen auch eine Infrastruktur-Vereinbarung mit Nvidia abgeschlossen, die potenziell mehr als 100 Milliarden Dollar wert ist.
Experten-Einschätzungen zur Marktlage
Marktexperte Sverre Bergland von DNB Fund Technology sieht die Entwicklung differenziert: „NVIDIA steht im Zentrum der KI-Revolution. Das Unternehmen ist der unangefochtene Marktführer für GPUs, die für das Training und die Nutzung von Large Language Models unerlässlich sind“, erklärt er. Gleichzeitig warnt er vor der „enormen Abhängigkeit des Unternehmens von einigen wenigen Kunden – wahrscheinlich nicht mehr als zehn – und das Fehlen wiederkehrender Umsätze“.
Dr. Jon Peddie von Jon Peddie Research betont die zunehmende Bedeutung von GPUs: „Graphics processing units (GPUs) have become ubiquitous and can be found in almost every industrial, scientific, commercial, and consumer product made today“, stellt er fest. Der globale GPU-Markt soll 2024 98,5 Milliarden Dollar überschreiten, wobei der größte Anteil nicht aus Gaming-GPUs, sondern aus KI- und HPC-Anwendungen stammt.
Was bedeutet das für die Zukunft?
OpenAIs Schritt in die Chip-Entwicklung markiert einen Wendepunkt in der KI-Industrie. Es zeigt, dass selbst die erfolgreichsten KI-Unternehmen die vollständige Abhängigkeit von einem Anbieter als strategisches Risiko betrachten.
Vertikale Integration als Trend
Diese Entwicklung ist Teil eines größeren Trends zur vertikalen Integration in der Tech-Industrie. Unternehmen wollen mehr Kontrolle über ihre gesamte Technologie-Stack, von der Software bis zur Hardware. „Diese Strategie spiegelt OpenAIs Ambitionen wider, nicht nur ein KI-Softwareunternehmen zu bleiben, sondern sich zu einem umfassenden Technologiekonzern zu entwickeln, der die gesamte Wertschöpfungskette von der KI-Entwicklung bis zur Hardware kontrolliert“, analysiert xpert.digital.
Ausblick
Die ersten OpenAI-Chips sollen bereits 2026 verfügbar sein. Ob sie tatsächlich die Abhängigkeit von NVIDIA reduzieren können und wirtschaftlich erfolgreich sind, wird sich zeigen. Die Skepsis der Branche gegenüber Altmans Ambitionen bleibt spürbar – ebenso wie die enormen Herausforderungen beim Aufbau einer Alternative zu Nvidias etabliertem Ökosystem.
Fest steht: Die KI-Revolution verändert nicht nur Software, sondern auch die Hardware-Landschaft grundlegend. Und OpenAI will dabei nicht länger nur Kunde sein, sondern selbst gestalten.
