TL;DR
TL;DR
Die über Jahrzehnte funktionierende Symbiose zwischen Google und Content-Anbietern – kostenloses Indexieren gegen Traffic und damit Werbeeinnahmen – ist zerbrochen. Mit KI-Zusammenfassungen (AI Overviews, AI Mode) liefert Google Antworten direkt auf der Suchergebnisseite, ohne Nutzer noch zu den Original-Quellen zu schicken. Gleichzeitig crawlen KI-Bots von OpenAI, Anthropic und anderen massenhaft Inhalte (Crawl-to-Refer-Ratios bis zu 70.900:1), ohne dass Publisher davon profitieren. Die wirtschaftlichen Folgen sind dramatisch: Traffic-Einbrüche bis 60%, Entlassungswellen, geschätzte 2 Milliarden Dollar Werbeeinnahmenverluste jährlich.
Publisher reagieren verzweifelt mit Paywalls und technischen Blockaden – was dazu führt, dass hochwertiges Wissen zunehmend hinter Bezahlschranken verschwindet. Kombiniert mit der gleichzeitigen Flut an niedrigdimensionalem KI-generiertem Content entsteht eine gefährliche Entwicklung: eine wachsende Wissensarmut und eine Vertiefung gesellschaftlicher Spaltung zwischen jenen, die sich qualitativ hochwertige Informationen leisten können, und jenen, denen nur noch die kostenlose, aber qualitativ minderwertige Content-Masse zur Verfügung steht. Das offene Web, wie wir es kannten, stirbt – und damit auch die demokratische Grundlage eines für alle zugänglichen Informationsökosystems.
Wundern Sie sich nicht auch, dass immer mehr Websites, die Sie jahrelang kostenlos gelesen haben, plötzlich Bezahlschranken hochziehen? Dass Ihre bisherige Lieblings-Informationsquelle Sie nur noch gegen Abo mitlesen lässt? Die Erklärung für diese Entwicklung ist einfach zu verstehen, in ihren Konsequenzen aber problematisch für uns alle – und natürlich wieder einmal durch KI ausgelöst.
Der ursprüngliche Deal: Content gegen Traffic
Über zwei Jahrzehnte funktionierte das Internet nach einem ungeschriebenen Vertrag: Publisher stellten ihre Inhalte kostenfrei zur Verfügung, Google durfte diese Inhalte indexieren und in den Suchergebnissen anzeigen. Im Gegenzug schickte Google Nutzer zu den Websites, wo diese die vollständigen Artikel lasen – und nebenbei Werbung sahen, die dem Publisher Einnahmen brachte.
Matthew Prince, CEO von Cloudflare, dessen Unternehmen etwa 20% des weltweiten Internet-Traffics abwickelt, beschreibt dieses Verhältnis konkret: Vor zehn Jahren crawlte Google etwa zwei Seiten für jeden Besucher, den es zu einem Publisher schickte. Ein Verhältnis, das für beide Seiten funktionierte.
Die schleichende Verschiebung
Doch dieses Gleichgewicht begann sich schrittweise zu verändern. Google führte Funktionen ein, die mehr Informationen direkt auf der Suchergebnisseite zeigten:
2014: Featured Snippets – Google begann, Antworten direkt in den Suchergebnissen anzuzeigen. Eine Studie von Moz aus 2021 zeigte bereits einen geschätzten Traffic-Rückgang von 12% für Seiten, die Featured Snippets verloren. Das Paradoxe dabei: Ein Featured Snippet zu gewinnen war besser als keines zu haben – aber schlechter als die alte Welt ohne Snippets.
2015: Accelerated Mobile Pages (AMP) – Google führte ein Projekt ein, das mobile Webseiten beschleunigen sollte. Publisher berichteten jedoch, dass sie faktisch gezwungen wurden, AMP zu implementieren, um in mobilen Suchergebnissen sichtbar zu bleiben. Gleichzeitig cachte Google alle AMP-Artikel auf eigenen Servern und lieferte sie direkt aus – die URLs zeigten google.com statt die Publisher-Domain. Die News Media Alliance dokumentierte in einem Whitepaper, wie Google seine Marktmacht nutzte, um Publisher in AMP zu zwingen.
Algorithmus-Updates über die Jahre führten zu massiven Traffic-Schwankungen. Im März 2024 etwa führte ein Core Update zu einem geschätzten Traffic-Verlust von über 800 Websites in der ersten Woche allein. The Sun berichtete von 50% Traffic-Verlust nach Algorithmus-Änderungen.
Matthew Prince fasst die Entwicklung zusammen: „Vor zehn Jahren schickte Google für jede zwei gecrawlten Seiten einen Besucher – heute braucht es sechs gecrawlte Seiten für einen einzigen Besucher.“
Die KI-Beschleunigung: AI Overviews und Zero-Click-Searches
Seit Mai 2024 rollt Google seine „AI Overviews“ aus – KI-generierte Zusammenfassungen, die prominent über den traditionellen Suchergebnissen erscheinen. Die Auswirkungen sind messbar: Nutzer, die eine solche KI-Zusammenfassung sehen, klicken nur noch in 8% der Fälle auf ein traditionelles Suchergebnis – bei Suchanfragen ohne KI-Zusammenfassung sind es 15%. Das entspricht einem Rückgang von nahezu 50%.
Noch drastischer sind die Auswirkungen auf die Click-Through-Rates für Top-Rankings: Studien zeigen Rückgänge zwischen 34,5% und 54,6%. Die Pew Research Center fand heraus, dass 26% der Nutzer ihre Browsing-Session direkt beenden, nachdem sie eine KI-Zusammenfassung gesehen haben – verglichen mit nur 16% bei traditionellen Suchergebnissen.
Mit „AI Mode“, das Google seit Mai 2025 in den USA ausrollt und im Oktober 2025 in Europa einführt, verschärft sich die Situation weiter. Diese Funktion bietet eine vollständig konversationelle Suchoberfläche, die mehrere Suchanfragen parallel durchführt und kompakte Antworten liefert – ohne dass Nutzer jemals die Seite eines Publishers besuchen müssen.
Der Trend zu sogenannten „Zero-Click-Searches“ – Suchanfragen, bei denen Nutzer keine externe Website mehr besuchen – ist nicht neu, aber durch KI dramatisch beschleunigt worden. Im März 2025 endeten bereits 27,2% aller Google-Suchen in den USA ohne Klick, verglichen mit 24,4% im Vorjahr. Besonders bei News-Suchanfragen ist die Entwicklung dramatisch: Der Anteil von Zero-Click-Searches stieg von 56% im Mai 2024 auf 69% im Mai 2025.
Die Bot-Invasion: Crawlen ohne Gegenwert
Parallel zur Entwicklung von KI-Suchfunktionen hat sich ein weiteres Problem verschärft: der massive Anstieg von Bot-Traffic. Im Jahr 2024 überstieg Bot-Traffic erstmals den menschlichen Traffic im Internet. Von diesem Bot-Traffic stammen etwa 37% von „bad bots“, die für betrügerische Zwecke eingesetzt werden. AI-Bots speziell haben einen dramatischen Anstieg erlebt: Von Mai 2024 bis Mai 2025 wuchs der AI-Bot-Traffic um 18% insgesamt. [Blogbeitrag hierzu: bad-bots-dominieren-das-internet-ki-machts-moeglich-und-deutsche-provider-liefern-sie-aus]
Die sogenannte „Crawl-to-Refer-Ratio“ beschreibt das Verhältnis von Seitenaufrufen durch Bots zu tatsächlichen Klicks von echten Nutzern. Hier zeigt sich die Dramatik der Entwicklung:
- Google: Die Ratio stieg von 6:1 vor sechs Monaten auf mittlerweile 18:1
- OpenAI (ChatGPT): Zwischen 152:1 und 1.500:1
- Anthropic (Claude): Zwischen 8.800:1 und 70.900:1
Matthew Prince formuliert es drastisch: „With OpenAI, it’s 750 times more difficult to get traffic than it was with the Google of old. With Anthropic, it’s 30,000 times more difficult.“ („Mit OpenAI ist es 750-mal schwieriger, Traffic zu bekommen als mit dem alten Google. Mit Anthropic ist es 30.000-mal schwieriger.“)
TollBit dokumentierte, dass AI-Bots im vierten Quartal 2024 durchschnittlich 2 Millionen Mal pro Website crawlten – jede Seite etwa siebenmal – ohne dass ein einziger Werbe-Cent dabei verdient wurde.
Das traditionelle Protokoll robots.txt, mit dem Webseitenbetreiber Crawlern signalisieren können, welche Bereiche nicht zugänglich sein sollen, wird zunehmend ignoriert. Zwischen Q3 und Q4 2024 wuchs die Zahl der AI-Bot-Crawls, die robots.txt umgingen, um über 40%. Perplexity wurde mehrfach dabei ertappt, seine Crawler zu verschleiern und trotz Blockierungsversuchen weiter zu scrapen.
Die wirtschaftlichen Folgen für Publisher
Die Auswirkungen auf die Publisher-Branche sind messbar. Laut Digital Content Next, das 19 große Publisher zwischen Mai und Juni 2025 untersuchte, verzeichneten diese einen medianen Rückgang des Google-Referral-Traffics von 10% – mit Spitzen bis zu 25% bei einzelnen Publishern. CNN sah einen Traffic-Rückgang von etwa 30%, Business Insider und HuffPost verloren rund 40% ihres Traffics im Jahresvergleich.
Besonders dramatisch: Ein britischer Lifestyle-Publisher berichtete, dass die Click-Through-Rate für eine populäre Suchanfrage trotz stabiler Rankings von 5,1% auf 0,6% einbrach. Ein Automotive-Publisher verzeichnete einen 25%igen Traffic-Rückgang trotz 7% höherer Sichtbarkeit in Suchergebnissen.
Die wirtschaftlichen Konsequenzen sind brutal. Die Medienbranche erlebte 2024 etwa 4.000 Entlassungen in UK und USA, nachdem es 2023 bereits 8.000 waren. 2025 setzen sich die Einschnitte fort: Business Insider entließ 21% der Belegschaft (rund 150 Mitarbeiter), People Inc. (ehemals Dotdash Meredith) strich 226 Stellen, CNN etwa 200 Jobs, HuffPost 30 Positionen. The Washington Post verlor 100 Millionen Dollar in 2024 und entließ 4% der Mitarbeiter.
Die Werbeeinnahmen sind gleichzeitig unter massivem Druck: Display-CPMs fielen im Januar 2025 um 33% im Jahresvergleich, Video-CPMs sogar um 39%. Branchenanalysten schätzen, dass KI-gestützte Suchzusammenfassungen Publisher-Traffic zwischen 20% und 60% reduzieren, bei Nischen-Publikationen bis zu 90%. Dies führt zu geschätzten 2 Milliarden Dollar jährlichen Werbeverlusten für die gesamte Branche.
Die Perspektive der Publisher: Zwischen Abhängigkeit und Ohnmacht
Aus Sicht der Content-Anbieter ist die Situation ein Dilemma ohne guten Ausweg. Publisher befinden sich in einer „no-win situation“, wie Danielle Coffey von der News/Media Alliance es formuliert: „Google zwingt Content-Ersteller dazu, ihre Inhalte für KI-Angebote freizugeben, um in der Google-Suche zu bleiben.“
Die technischen Opt-out-Optionen sind begrenzt: Wer seine Inhalte aus den KI-Zusammenfassungen ausschließen will, muss das gleiche Tool nutzen, das ihn komplett aus der Google-Suche entfernt. Mit über 90% Marktanteil bei der mobilen Suche ist das für die meisten Publisher keine echte Option.
Helen Havlak, Publisherin von The Verge, drückt die Situation so aus: „Es ist ziemlich klar, dass der Rückgang unseres Traffics mit dem Aufstieg der AI Overviews zusammenhängt.“ Ein ehemaliger Google-Manager bestätigte gegenüber Bloomberg: Traffic zu Publisher-Seiten zu schicken ist „eine Art notwendiges Übel“ – Googles Hauptziel ist es, „Menschen dazu zu bringen, Google-Dienste zu konsumieren“.
Jan van der Crabben, CEO der World History Encyclopedia, die im November 2024 einen 25%igen Traffic-Rückgang erlebte, nachdem sie in AI Overviews erschien, formuliert das grundlegende Problem: „There used to be this implicit agreement“ („Es gab eine stillschweigende Übereinkunft“) zwischen Google und Publishern – doch diese sei nun gebrochen.
Gegenstrategien: Paywalls, Lizenzdeals und technische Blockaden
Publisher suchen nach Überlebensstrategien. Die sichtbarste für Nutzer ist die zunehmende Verbreitung von Paywalls – Premium-Inhalte hinter Bezahlschranken schützen vor KI-Scraping und bauen loyale Abonnenten-Basen auf.
Cloudflare hat im Juni 2025 ein System eingeführt, das AI-Crawler standardmäßig blockiert und ein „Pay-per-Crawl“-Modell etabliert. Große Publisher wie Gannett, Condé Nast, Reddit und Pinterest unterstützen diese Initiative.
Einige Publisher schließen Lizenzvereinbarungen mit KI-Unternehmen ab. Axel Springer erhält von OpenAI geschätzt 25 Millionen Euro jährlich – eine einmalige Zahlung für historische Inhalte plus laufende Lizenzzahlungen. Reuters bekommt geschätzt 25 Millionen Dollar einmalig plus weitere 40 Millionen über drei Quartale. Dotdash Meredith erhält mindestens 16 Millionen Dollar jährlich von OpenAI.
Andere Publisher gehen rechtliche Wege: Ziff Davis verklagte OpenAI wegen fortgesetzten Scrapings trotz robots.txt-Blockade. Penske Media (Rolling Stone, Variety, Billboard) klagte im September 2025 gegen Google wegen AI Overviews. Der New York Times-Prozess gegen OpenAI ist noch nicht entschieden.
Die Kartellverfahren: Zu spät für Publisher?
Die Wettbewerbsbehörden haben Googles Praktiken als illegal erkannt. Im August 2024 stellte ein US-Bundesgericht fest, dass Googles Suchmaschinen-Geschäft illegal ist. Im April 2025 entschied ein weiteres Gericht, dass Google ein illegales Monopol in der Werbetechnologie unterhält. Die EU verhängte im September 2025 eine Strafe von 2,95 Milliarden Euro wegen Wettbewerbsverzerrung im AdTech-Bereich.
Doch die vorgeschlagenen Abhilfemaßnahmen enttäuschen aus Publisher-Sicht: Richter Amit Mehta’s Urteil vom September 2025 verlangt zwar Datenteilung mit Konkurrenten, aber keine Zerschlagung – und vor allem: Es gibt keine Lösung für Publisher, die gezwungen sind, Google ihre Inhalte für KI-Produkte zu überlassen. Die News/Media Alliance nennt das Urteil „eine verpasste Gelegenheit“.
Was bedeutet das für die Zukunft des offenen Web?
Joseph Stiglitz und Màxim Ventura-Bolet formulieren in ihrer Analyse von September 2025, dass „in the absence of adequate regulation (accountability, content moderation, and intellectual property protection) the quality of the information ecosystem may decline“ („ohne angemessene Regulierung (Rechenschaftspflicht, Inhaltsmoderation und Schutz des geistigen Eigentums) die Qualität des Informationsökosystems abnehmen kann“). Ohne angemessene Regulierung drohe nicht nur ein quantitativer Rückgang wahrheitsgemäßer Informationen, sondern auch eine Zunahme von Misinformation und intensivierte Polarisierung.
Google gibt intern zu, dass „the open web is already in rapid decline“ („das offene Web bereits in raschem Niedergang begriffen ist“), während es öffentlich die Vorzüge seiner AI-Features preist. Diese Diskrepanz offenbart das fundamentale Problem: Die technologische Innovation, die Nutzer begeistert und Plattformen Gewinne bringt, zerstört möglicherweise das Ökosystem, auf dem sie aufbaut.
Branchenanalysten prognostizieren, dass 25-40% der mittleren Publisher innerhalb von 18 Monaten den Betrieb einstellen könnten. Medienunternehmen verzeichneten 2024 bereits 15.000 Entlassungen, mit fortgesetzten Kürzungen in 2025.
Die bittere Ironie: Google braucht weiterhin qualitativ hochwertige Original-Inhalte, um seine KI zu trainieren. Doch wenn Publisher mangels Einnahmen ihre Investitionen in Journalismus zurückfahren müssen, wird auch Googles Content-Quelle versiegen.
Was Nutzer tun können
Diese Entwicklung betrifft nicht nur Publisher und Plattformen – auch wir als Nutzer spielen eine Rolle. Unsere Kostenlos-Mentalität und unser Suchverhalten tragen zur Problematik bei.
Wenn wir KI-Chatbots wie ChatGPT für Informationssuchen nutzen, umgehen wir die ursprünglichen Quellen komplett. Die Inhalte werden gecrawlt, verarbeitet und präsentiert – ohne dass die Content-Ersteller davon profitieren. ChatGPT verzeichnete zwischen August 2024 und Juli 2025 46,59 Milliarden Besuche – ein Wachstum von 106%.
Eine Möglichkeit, das Ökosystem zu unterstützen: Direkt auf Nachrichtenseiten und Fachpublikationen gehen, statt über KI-Zusammenfassungen zu konsumieren. Abonnements für qualitativ hochwertige Quellen abschließen, wenn das Budget es erlaubt. Und sich bewusst machen, dass die bequeme KI-Antwort einen Preis hat – auch wenn wir ihn nicht direkt zahlen.
Übrigens: Warum die Informationssuche über ChatGPT und ähnliche Tools ohnehin problematisch ist, habe ich in einem anderen Artikel beschrieben: „Zum Glück nutzen nur 20 % der deutschen Unternehmen KI – denn 73 % prüfen die Ergebnisse nicht“.
Ausblick
Die kommenden Jahre werden zeigen, ob sich ein neues Gleichgewicht etablieren lässt – oder ob wir Zeugen eines fundamentalen Bruchs im digitalen Ökosystem werden. Die zentrale Frage bleibt: Kann ein System überleben, in dem alle Beteiligten kurzfristig rational handeln, aber langfristig gemeinsam verlieren könnten?
Die Content-Anbieter verlieren ihre wirtschaftliche Basis, die Nutzer potenziell die Qualität und Vielfalt ihrer Informationsquellen, und die Plattformen die Substanz, die sie für ihre eigenen Produkte benötigen. Die Antwort auf diese Frage wird nicht nur die Zukunft des Journalismus prägen, sondern die Struktur des Informationsaustauschs in demokratischen Gesellschaften.
