TL;DR Zusammenfassung
Das Internet gehört nicht mehr uns. 2024 überstieg automatisierter Traffic erstmals seit einem Jahrzehnt den menschlichen – 51% aller Aktivitäten stammen von Bots. Besonders alarmierend: 37% des gesamten Internetverkehrs entfallen auf „Bad Bots”, die Daten stehlen, Websites angreifen und Nutzerkonten übernehmen. Künstliche Intelligenz beschleunigt diese Entwicklung dramatisch: KI-Crawler sammeln massenhaft Trainingsdaten und verursachen Bandbreitenexplosionen, ChatGPT und ähnliche Tools generieren Milliarden automatisierter Suchanfragen, und vor allem demokratisiert KI die Bot-Entwicklung selbst – heute kann praktisch jeder ohne Programmierkenntnisse schädliche Bots erstellen. Die wirtschaftlichen Folgen sind verheerend: Unternehmen verschwenden durchschnittlich 30-37% ihrer Server-Kapazität für Bot-Traffic statt echte Kunden, mit globalen Verlusten von 186 Milliarden Dollar jährlich. Das Internet wird zunehmend zu einem Ort, an dem Maschinen mit Maschinen interagieren, während echte menschliche Kommunikation verdrängt wird.
Bots machen inzwischen den Großteil des weltweiten Internettraffics aus
Alexis Ohanian, Mitgründer von Reddit, brachte es kürzlich in einem Podcast auf den Punkt: „viel vom Internet ist jetzt tot.” Was zunächst wie eine überspitzte Polemik klingt, wird durch aktuelle Zahlen dramatisch bestätigt.
Die Cybersicherheitsfirma Imperva stellte in ihrem 2025 Bad Bot Report fest, dass automatisierter Verkehr 51% des gesamten Webverkehrs im Jahr 2024 ausmachte – das erste Mal seit einem Jahrzehnt, dass Bots die Anzahl der Menschen online übertroffen haben. Menschlicher Traffic fiel im Gegenzug auf nur noch 49%.
Die Entwicklung ist nicht neu, aber sie beschleunigt sich dramatisch. Noch 2023 lag der Bot-Anteil bei 49%. Der Anstieg um 2 Prozentpunkte innerhalb eines Jahres mag gering erscheinen, doch die Zusammensetzung hat sich fundamental verändert: Der Anteil schädlicher Bots stieg von 32% (2023) auf 37% (2024) – ein Anstieg um 15,6% innerhalb nur eines Jahres.
Good Bots, Bad Bots – und warum der Unterschied fließend ist
Nicht alle Bots sind schädlich. Es gibt auch Good Bots.
Von den 51% automatisiertem Traffic entfallen aber lediglich 14% auf sogenannte „Good Bots” – legitime, nützliche Programme, die wichtige Funktionen erfüllen.
Good Bots sind die unsichtbaren Helfer des Internets. Googlebot indexiert Webseiten für Suchergebnisse, damit wir überhaupt finden, wonach wir suchen. Social-Media-Bots wie Facebookbot oder LinkedInBot erstellen automatisch Link-Vorschauen, wenn jemand einen Artikel teilt. Monitoring-Bots überprüfen, ob Websites erreichbar sind und wie schnell sie laden.
Doch die weitaus größere Gruppe sind die Bad Bots – 37% des gesamten Internetverkehrs. Sie verfolgen schädliche oder unethische Zwecke:
Content Scraper sammeln massenhaft Artikel, Texte und Daten von Websites. Kriminelle saugen illegal massanhaft Daten aus dem Internet und misbrauchen diese Daten. Ihr Traffic ist seit 2023 um 47,7% gestiegen – eine Entwicklung, die aber auch direkt mit dem Aufstieg von KI-Systemen korreliert.
LLMs brauchen Daten und die ziehen sich die Entwickler aus dem Internet durch ihre Bots. Mehr dazu im nächsten Abschnitt.
Credential Stuffing Bots testen automatisiert gestohlene Passwort-Kombinationen auf verschiedenen Websites. 2021 wurden 193 Milliarden solcher Angriffe dokumentiert. 64,1% aller Account-Takeover-Angriffe nutzen fortgeschrittene Bad Bots.
Price Scraping Bots überwachen kontinuierlich Konkurrenzpreise im E-Commerce. 48% aller Web-Scraping-Nutzer setzen sie ein, oft für unfaire Wettbewerbsvorteile.
Account Takeover Bots übernehmen Nutzerkonten für Betrug. DDoS Bots überlasten Websites mit massiven Anfragen bis zum Zusammenbruch.
Die Unterscheidung zwischen Good und Bad Bots wird zunehmend schwieriger.
KI- Entwickler als Traffic-Treiber: Crawler auf Datenjagd
Künstliche Intelligenz trägt auf drei fundamentale Weisen zur Bot-Explosion bei. Die erste: KI-Systeme brauchen Daten – Unmengen davon.
Seit dem Durchbruch von ChatGPT Ende 2022 ist eine neue Generation von Crawlern entstanden: AI-Training-Crawler, die ausschließlich darauf ausgelegt sind, öffentlich zugängliche Webinhalte zu sammeln, um Large Language Models zu trainieren.
GPTBot von OpenAI verzeichnete von Mai 2024 bis Mai 2025 ein Wachstum von +305% und macht nun etwa 7,7% des gesamten AI/Search-Crawler-Traffics aus. Mit 569 Millionen monatlichen Anfragen entspricht das etwa 28% des Volumens von Googlebot – dem größten Suchmaschinen-Crawler der Welt.
ChatGPT-User, der On-Demand-Fetcher für direkte Nutzeranfragen an ChatGPT, explodierte um +2.825%. PerplexityBot verzeichnete das spektakulärste Wachstum aller AI-Crawler: +157.490% bei den Raw Requests, wenn auch von einer sehr kleinen Basis aus.
Die Auswirkungen sind massiv. Arc XP beobachtete über sein CDN einen 300% Anstieg des AI-Bot-Traffics im Jahresvergleich. Media- und Publishing-Websites erleben AI-Bot-Traffic 7× häufiger als der durchschnittliche Webauftritt.
Wikipedia verzeichnete seit Januar 2024 einen 50% Anstieg der Bandbreite für Multimedia-Downloads durch AI-Bots. Die Wikimedia Foundation stellte fest, dass 65% ihres ressourcenintensivsten Traffics von Bots stammt – obwohl Bots nur etwa 35% der gesamten Seitenaufrufe ausmachen.
Read the Docs, eine Dokumentationsplattform für Open-Source-Software, musste drastische Maßnahmen ergreifen. Nach dem Blockieren von AI-Crawlern reduzierte sich der Traffic um 75% – von 800GB auf 200GB täglich. Das entspricht einer Ersparnis von $1.500 pro Monat oder $18.000 pro Jahr allein an Bandbreitenkosten.
iFixit.com, eine Reparaturanleitungs-Website, erlebte an einem einzigen Tag eine $5.000 Hosting-Rechnung, als es ins Visier eines AI-Web-Crawlers geriet.
Diese Entwicklung wirft eine grundlegende Frage auf: Wer soll dafür bezahlen, dass KI-Unternehmen ihre Modelle mit fremden Inhalten trainieren? Bisher sind es die Content-Ersteller und die Website-Betreiber selbst – ungefragt und unentgeltlich.
Diese Content Crawler der KI-Tech-Firmen rufen viel Kritik hervor, da hier bislang kaum Berücksichtigung findet, was urheberrechtlich frei verfügbar ist und was nicht. Anthropic z.B. hat sich gerade mit Autoren auf eine Schadenersatzzahlung in Milliardenhöhe geeinigt, da der Crawler auch fleißig Bücher aus illegalen digitalen Raubkopie-Bibliotheken im Internet gesaugt und den Trainingsdaten zugeführt hat (Die 1,5-Milliarden-Dollar-Einigung: Anthropic und das Ende der kostenlosen KI-Trainingsdaten). Somit gelten auch diese Bots als Bad Bots.
Der zweite KI-Treiber: Milliarden automatisierter Suchanfragen
Doch AI-Crawler sind nur ein Teil des Problems. Die zweite Art, wie KI den Bot-Traffic explodieren lässt: automatisierte Suchanfragen durch KI-Tools selbst.
Wenn Millionen Menschen ChatGPT, Perplexity oder Google Gemini fragen „Was sind die aktuellen Nachrichten zu Thema X?”, dann löst jede dieser Anfragen weitere automatisierte Web-Abfragen aus. Die KI muss aktuelle Informationen abrufen – und das geschieht über Bots.
ChatGPT-User, der Fetcher für direkte Nutzeranfragen, wuchs um +2.825% und erreichte 1,3% des gesamten Crawler-Traffics. Das klingt gering, doch bei Milliarden täglicher Anfragen summiert sich das zu gewaltigen Datenmengen.
Cloudflare stellte fest, dass Googlebot selbst um 96% wuchs von Mai 2024 bis Mai 2025 und seinen Anteil am Crawler-Traffic von 30% auf 50% erhöhte. Dieser Anstieg reflektiert Googles eigene KI-Ambitionen mit Features wie AI Overviews – KI-generierte Zusammenfassungen, die direkt in Suchergebnissen erscheinen.
Was früher eine einzige menschliche Suchanfrage war, wird heute zu Dutzenden automatisierten Bot-Requests. Jede KI-Antwort, die aktuelle Daten einbezieht, jede Zusammenfassung mehrerer Quellen, jede Faktenprüfung – all das erzeugt Bot-Traffic.
Der dritte und gefährlichste KI-Treiber: „Demokratisierung“ der Cyberkriminalität. Jeder kann es jetzt.
Die ersten beiden Entwicklungen sind problematisch, aber größtenteils legal. Der dritte Weg, wie KI den Bot-Traffic explodieren lässt, ist jedoch der gefährlichste: KI demokratisiert die Erstellung von Bad Bots.
Früher musste ein Angreifer:
- Programmiersprachen wie Python, JavaScript oder C++ beherrschen
- Netzwerkprotokolle verstehen (HTTP, TCP/IP, DNS)
- Obfuscation-Techniken kennen, um Detection zu umgehen
- Exploit-Code aus GitHub-Repositories anpassen können
Heute reicht es:
- Einen Prompt zu schreiben: „Erstelle mir einen Bot, der Credential Stuffing gegen Login-Seiten durchführt”
- Das generierte Skript zu kopieren und auf einem gemieteten Server auszuführen
- Bei Problemen die Fehlermeldung zurück ins LLM zu füttern: „Dieser Code gibt Fehler X. Wie behebe ich das?”
Ein OPSWAT-Cybersecurity-Experte demonstrierte dies eindrucksvoll: Mit HackerGPT, einem uncensored LLM, baute er in unter zwei Stunden eine vollständige Malware-Chain – ohne fortgeschrittene Programmierkenntnisse. Das AI-Modell leitete ihn durch jede Phase: Planung, Obfuscation, Evasion und Ausführung. Das resultierende Payload umging 60 von 63 Antivirus-Engines auf VirusTotal.
Der Experte betonte: „Dies ist, was ein motivierter Amateur aufbauen kann. Stellen Sie sich vor, was ein Nationalstaat tun könnte.”
Dark LLMs: ChatGPT ohne ethische Grenzen
Cyberkriminelle haben spezialisierte „Dark LLMs” entwickelt – KI-Chatbots ohne ethische Guardrails, die explizit für illegale Aktivitäten entworfen wurden.
WormGPT basiert auf dem GPT-J-Modell und wurde auf Malware-bezogenen Daten trainiert. Es wird als „ChatGPT’s malicious cousin” bezeichnet und für €60-€100 pro Monat oder €550 pro Jahr verkauft. WormGPT kann:
- Perfekte Phishing-E-Mails ohne grammatikalische Fehler schreiben, selbst für nicht-englische Muttersprachler
- Business Email Compromise (BEC)-Nachrichten erstellen, die sich als CEOs ausgeben
- Malware-Code generieren und obfuskieren, um Detection zu umgehen
FraudGPT wurde für $200 pro Monat oder $1.700 pro Jahr verkauft und versprach:
- „Undetectable malware” zu erzeugen
- Phishing-E-Mails und Social-Engineering-Inhalte zu schreiben
- Exploits, Malware und Hacking-Tools zu erstellen
- Schwachstellen und kompromittierte Credentials zu finden
GhostGPT, DarkGPT, WolfGPT, Evil-GPT und andere Varianten tauchten 2024 auf, wobei die Erwähnungen malicious AI-Tools in Underground-Foren um 219% stiegen.
Jailbreaking: Legitime LLMs für Cybercrime missbrauchen
Statt eigene LLMs zu kaufen, nutzen viele Angreifer Jailbreak-Techniken, um ChatGPT, Claude, Gemini und andere mainstream AI-Tools zu manipulieren. Die Erwähnungen von „Jailbreaking” in Underground-Foren stiegen 2024 um 50%.
Beliebte Jailbreak-Methoden:
DAN („Do Anything Now”)-Prompt: Programmiert das LLM um, eine Persona ohne Regeln und Beschränkungen anzunehmen. Über 15 Versionen existieren, jede entwickelt, um unterschiedliche Safety-Filter zu umgehen.
Developer Mode Prompt: Täuscht das LLM vor, es befinde sich im Entwicklermodus, was dem Angreifer vollen Zugriff auf das Modell gibt.
Obfuscation/Encoding: Nutzt Base64, ROT-13, Leetspeak, Emojis oder andere Sprachen, um schädliche Anfragen zu verschleiern.
Die Auswirkungen sind messbar:
Imperva blockierte 2024 rund 13 Billionen Bot-Anfragen und identifizierte etwa 2 Millionen AI-enabled Attacks pro Tag. Bad Bots machten über 16% aller AI-enabled Angriffe aus.
Der dramatischste Anstieg erfolgte bei den simple Bad Bots, die von knapp 40% im Jahr 2023 auf 45% im Jahr 2024 stiegen. Simple Bots sind rudimentäre Programme ohne ausgefeilte Evasion-Techniken. Früher erforderten selbst diese grundlegenden Bots Programmierkenntnisse. Heute kann jeder mit Zugang zu ChatGPT ein funktionsfähiges Bot-Skript erstellen.
Die verheerenden wirtschaftlichen Folgen
Die Auswirkungen dieser Bot-Flut sind nicht nur technischer Natur – sie haben verheerende wirtschaftliche Konsequenzen.
30-37% der Server-Kapazität für Bot-Traffic statt echte Kunden
Bei KaBuM!, einem führenden E-Commerce-Unternehmen in Brasilien, wurde festgestellt, dass bis zu einem Drittel der gesamten Infrastrukturkapazität von böswilligem Bot-Traffic konsumiert wurde. Ihre Auto-Scaling-Server starteten zusätzliche Instanzen, um Bot-Anfragewellen zu bewältigen – sie verbrannten buchstäblich Geld, um Angreifer zu bedienen.
Das Problem betrifft alle Cloud-basierten Infrastrukturen: Auto-Scaling unterscheidet nicht zwischen echten Kunden und Bots. CDN-Kosten explodieren bei DDoS-ähnlichen Bot-Wellen, Compute-Instanzen starten automatisch und verursachen ungeplante Kosten, Bandbreitenüberschreitungen führen zu massiven Rechnungen.
$186 Milliarden globale Verluste jährlich
Die globalen wirtschaftlichen Verluste durch Bad-Bot-Traffic und unsichere APIs sind astronomisch:
$94-186 Milliarden pro Jahr verlieren Unternehmen weltweit durch verwundbare APIs und automatisierten Bot-Missbrauch. Diese Bedrohungen machen bis zu 11,8% aller globalen Cybersecurity-Vorfälle und -Verluste aus.
$238,7 Milliarden verschwendeten Unternehmen allein 2024 auf bot-getriebenen Traffic. Diese Zahl umfasst verschwendete Werbeausgaben, Infrastrukturkosten und Umsatzverluste.
$85,6 Millionen Verlust pro Unternehmen
$85,6 Millionen pro Jahr – das sind die durchschnittlichen Kosten von Bot-Angriffen für ein Enterprise-Unternehmen, was 4,3% des Online-Umsatzes entspricht. Diese Zahl basiert auf einer Netacea-Umfrage unter 440 Unternehmen mit durchschnittlich $1,9 Milliarden Umsatz.
98% der angegriffenen Unternehmen verloren Umsatz durch Bot-Angriffe. Mehr als ein Drittel der IT-Spezialisten berichtete, dass Web Scraping, Account Fraud und SMS Fraud jeweils über 5% der Umsätze kosteten.
Noch schlimmer ist die ineffiziente Verteilung der Bot-Management-Budgets:
63% der Bot-Management-Budgets werden für laufende Wartung, Management und Post-Event-Remediation ausgegeben – gegenüber nur 37% für die eigentliche Bot-Mitigation-Lösung.
Diese Verteilung zeigt einen reaktiven statt proaktiven Ansatz: Erhebliche Ressourcen werden nach einem Angriff eingesetzt, weil die Präventionsmaßnahmen nicht ausreichen.
Bei KaBuM! verbrachten Ingenieure 2-3 Stunden jeden Tag nur mit der Verwaltung von Bot-Aktivitäten – das entspricht etwa zwei Arbeitswochen pro Monat, die von strategischen Projekten abgezogen werden.
Branchenspezifische Auswirkungen
Reisebranche: Automatisierte Bots machen 59% aller Besuche auf Reise-Websites aus. Die Branche erlebte 2024 den höchsten Anteil an Bot-Angriffen aller Sektoren (27% aller globalen Bot-Angriffe), was zu höheren Preisen für Kunden, Buchungsschwierigkeiten und langsamer Website-Performance führte.
E-Commerce: Der Commerce-Sektor erlebte einen Anstieg der Cyberangriffe von 15% in Q1 2024 auf 31% in Q1 2025. 59% des Bad-Bot-Traffics in diesem Sektor stammt von fortgeschrittenen Bots.
Finanzsektor: Global machten Account-Takeover-Angriffe 2023 11% aller Login-Versuche aus, wobei der Finanzsektor mit 37% am stärksten betroffen war.
Woher die Bad Bots kommen – und wen sie treffen
Die geografische Verteilung: Deutschland als ungewollter Hotspot
Interessanterweise zeigt die geografische Analyse von Bad-Bot-Traffic überraschende Muster. Deutschland steht nach Irland weltweit an zweiter Stelle beim Bad-Bot-Aufkommen – mit 67,5% bis 68,6% Bad-Bot-Traffic.
Dies liegt jedoch nicht an besonders kriminellen deutschen Akteuren, sondern an strukturellen Faktoren:
Deutsche Hosting-Anbieter als globale Bot-Infrastruktur: Laut Cloudflares DDoS-Report Q1 2025 ist ein deutscher Webhosting- und Server-Anbieter der weltweit führende Ursprung von HTTP-DDoS-Angriffen. Dort macht der Bot-Traffic bis zu 91% des Traffics aller Verbindungen aus!
Wieso Deutschland und warum wird das nicht abgestellt?
Diese deutschen Cloud-Provider bieten eine attraktive Kombination für Cyberkriminelle:
- Extrem günstiges Preis-Leistungs-Verhältnis
- Weniger strikte Moderation im Vergleich zu US-Anbietern wie AWS oder Azure
- Hochleistungs-Infrastruktur mit großzügigen Bandbreiten
- Zentrale europäische Position mit exzellenter Netzwerkanbindung
EU-Datenschutzgesetze als ungewollte Erleichterung: Nach der E-Commerce-Directive (2000/31/EC) und dem Digital Services Act (DSA) genießen Hosting-Provider ein Haftungsprivileg. Sie sind nicht verpflichtet, proaktiv nach illegalen Aktivitäten zu suchen – eine Regelung, die eigentlich Meinungsfreiheit schützen soll.
Das Problem: Cyberkriminelle nutzen automatisierte Bots, um nach einer Sperrung innerhalb von Minuten neue Server zu mieten. Sie können andere Identitäten verwenden, andere Zahlungsmethoden einsetzen und andere IP-Adressen anfordern. Die Unterscheidung zwischen legitimen und schädlichen Bots ist technisch komplex – was in einem Land legal ist, kann in einem anderen illegal sein.
Wer sind die Angreifer?
Die Herkunft der eigentlichen Cyberkriminellen ist schwerer zu bestimmen. Deutsche Unternehmen erleiden jährlich €266,6 Milliarden Schaden durch Cyberangriffe – ein Anstieg von 29% gegenüber dem Vorjahr. 81% aller deutschen Unternehmen waren 2024 von Datendiebstahl, Spionage oder Sabotage betroffen.
Die Angriffe stammen verstärkt aus Russland (+100% in zwei Jahren) und China (+50% in zwei Jahren). Staatsnahe Akteure nutzen Bad Bots für Industriespionage, Angriffe auf kritische Infrastruktur und politische Destabilisierung.
Welche Systeme sind am stärksten betroffen?
Finanzdienstleistungen: In Deutschland verzeichnete der Finanzsektor 88,7% Bad-Bot-Traffic in 2022 – der höchste Wert aller Branchen. Kontoübernahme-Angriffe stiegen 2022 in Deutschland um 155%.
Bildungssektor: In Deutschland wies der Bildungssektor 76,1% Bad-Bot-Traffic auf, wobei 43% rudimentär waren – vermutlich durch massiven Einsatz von ChatGPT und ähnlichen Tools durch Studierende.
Reisebranche: Mit 27% aller Bad-Bot-Angriffe global am stärksten betroffen. Bots kaufen massenhaft limitierte Flugtickets und Hotelzimmer auf, um sie teurer weiterzuverkaufen.
E-Commerce: 44% des advanced Bot-Traffics 2024 zielte auf APIs statt auf Applikationen. APIs handhaben sensible Daten und sind das „connective tissue” moderner Unternehmen.
Pound Cake und die Dead Internet Theory
Die abstrakten Zahlen bekamen kürzlich ein Gesicht – oder besser: eine fiktive Katze. Der Vorfall, der Alexis Ohanian zu seiner Warnung veranlasste, ereignete sich auf seiner eigenen Plattform Reddit.
Tausende von Reddit-Nutzern wurden durch Beiträge über „Pound Cake”, eine angeblich übergewichtige Katze auf einer Abnehm-Reise, emotional berührt. Die Beiträge erzeugten massives Engagement und Anteilnahme – bis sich herausstellte, dass Pound Cake nie existiert hatte. Die gesamte Geschichte war KI-generiert, die Bilder KI-erstellt, die emotionale Manipulation kalkuliert.
„Is this when I remind you all about Dead Internet Theory again?”
„Ist dies der Zeitpunkt, an dem ich euch alle wieder einmal an die Dead Internet Theory erinnere?”
In einem Gespräch im The Best People Network Podcast beschrieb Ohanian das Internet als zunehmend „verbottet” oder „quasi-KI”, gefüllt mit dem, was er als „LinkedIn slop” bezeichnete – sich wiederholende, algorithmusfreundliche Inhalte, die Engagement über Authentizität stellen.
„You all prove the point that so much of the internet is now dead.”
„Ihr alle beweist den Punkt, dass so viel vom Internet jetzt tot ist.”
sagte er den Moderatoren. Was er meinte: Das Internet wird zunehmend zu einem Ort, an dem Maschinen mit Maschinen interagieren, während echte menschliche Kommunikation in den Hintergrund tritt oder in private Räume verdrängt wird.
Was bedeutet das für die Zukunft?
Der Anstieg korreliert direkt mit der Verbreitung großer Sprachmodelle und KI-Tools, die die Erstellung von Bots zugänglicher und skalierbarer gemacht haben. „The emergence of AI-Large-Language-Models has made it easier to create and scale bots for malicious purposes.”
„Das Aufkommen von KI-Large-Language-Models hat es einfacher gemacht, Bots für schädliche Zwecke zu erstellen und zu skalieren.”
heißt es laut Impervas 2025 Bad Bot Report.
Die drei Fronten der Bot-Bekämpfung
Unternehmen kämpfen heute an drei Fronten gleichzeitig gegen aufgezwungenen und für das Unternehmen sinnlosen Traffic:
Gegen legitime AI-Crawler, die massiven Bandbreitenverbrauch verursachen. Websites müssen entscheiden: Blockieren sie diese Crawler und werden unsichtbar für KI-Suchsysteme? Oder ertragen sie die Kosten und hoffen auf Traffic durch AI-Referenzierung?
Gegen automatisierte Suchanfragen durch KI-Tools, die neue Traffic-Muster erzeugen, welche zwischen menschlich und bot-generiert schwer zu unterscheiden sind.
Gegen Bad Bots, die durch KI-Demokratisierung exponentiell zunehmen. Hier wird die Unterscheidung zwischen Good und Bad Bots zunehmend schwieriger, da fortgeschrittene Bots menschliches Verhalten imitieren, Browser-Fingerprints fälschen und IP-Adressen rotieren.
Der Teufelskreis: Abwehr erzeugt Wettrüsten
Das eigentliche Problem ist struktureller Natur: Jede Abwehrmaßnahme führt zu ausgefeilteren Angriffen. Unternehmen setzen Machine Learning ein, um Bots zu erkennen – Cyberkriminelle nutzen Machine Learning, um Bots menschlicher wirken zu lassen.
Ransomware-Vorfälle stiegen Q1 2025 um 126% gegenüber dem Vorjahr – direkt korreliert mit AI-Tools, die weniger erfahrene Akteure befähigen. Generative AI reduzierte die Zeit, eine überzeugende Phishing-E-Mail zu erstellen, von 16 Stunden auf nur 5 Minuten.
16% aller Datenschutzverletzungen 2024 betrafen Angreifer, die AI nutzten, meist für AI-generiertes Phishing (37%) und Deepfake-Impersonations-Angriffe (35%).
Vollständig autonome Cyberangriffe sind nahe
Forschungsprojekte wie ReaperAI und AutoAttacker demonstrieren „agentic systems”, die LLM-Reasoning mit Vulnerability-Scannern und Exploit-Bibliotheken kombinieren. In kontrollierten Tests durchbrachen sie veraltete Webserver, deployten Ransomware und verhandelten Zahlung über Tor – ohne menschlichen Input nach dem Start.
Die UK National Cyber Security Centre (NCSC) und das deutsche BSI kommen zu ähnlichen Schlussfolgerungen: AI senkt Einstiegshürden, erhöht Geschwindigkeit und Umfang von Angriffen, und macht vollständig autonome Cyberangriffe möglich.
Organisationen, die Security AI und Automation umfassend einsetzen, erlebten im Durchschnitt $1,76 Millionen niedrigere Datenschutzverletzungskosten und 108 Tage kürzere Breach-Lifecycles. Aber nur 60% der Organisationen setzen diese Tools ein – Angreifer haben oft einen Technologie-Vorsprung.
Zwischen Hoffnung und Realismus
Die Situation ist ernst, aber nicht hoffnungslos. Es gibt Ansätze, die Kontrolle zurückzugewinnen:
Technische Maßnahmen: Fortgeschrittene Bot-Detection-Systeme, die Verhaltensanalyse statt einfacher Regeln nutzen. Behavioral Biometrics, die analysieren, wie ein Nutzer mit einer Website interagiert – Mausbewegungen, Tippgeschwindigkeit, Scrollverhalten.
Wirtschaftliche Anreize: Einige Plattformen experimentieren mit Modellen, bei denen AI-Unternehmen für das Crawling bezahlen müssen. Wikipedia diskutiert, ob AI-Crawler gesperrt oder monetarisiert werden sollen.
Regulatorische Ansätze: Der EU AI Act verlangt Transparenz bei AI-Systemen und Verantwortung für deren Outputs. Hosting-Provider könnten verpflichtet werden, proaktiver gegen Bad-Bot-Infrastruktur vorzugehen.
Gesellschaftliche Veränderungen: Einige Experten prognostizieren eine Rückkehr zu kuratierten, geschlossenen Communities. Wenn das offene Internet zunehmend von Bots dominiert wird, könnten authentische menschliche Interaktionen in verifizierte, geschützte Räume wandern – ähnlich wie E-Mail-Whitelists heute Spam filtern.
Das Internet gehört nicht mehr uns – noch nicht
Die Zahlen sind eindeutig: 51% automatisierter Traffic, 37% Bad Bots, $186 Milliarden jährliche Verluste, 30-37% verschwendete Infrastrukturkapazität. Das Internet, wie wir es kannten – ein Ort menschlicher Kommunikation und Kreativität – verwandelt sich in einen Ort, an dem Maschinen mit Maschinen interagieren.
Künstliche Intelligenz trägt dreifach zu dieser Entwicklung bei: durch Crawler, die Trainingsdaten sammeln; durch automatisierte Suchanfragen, die neue Traffic-Muster erzeugen; und vor allem durch die Demokratisierung der Bot-Entwicklung selbst. Was früher Expertenwissen erforderte, kann heute jeder mit einem Chat-Prompt erstellen.
Die Frage ist nicht mehr, ob KI das Internet verändert hat – die Frage ist, wie schnell wir reagieren und ob wir die Kontrolle zurückgewinnen können.
Denn eines ist klar: Wenn wir nichts tun, wird das Internet nicht „tot” im klassischen Sinne – es wird einfach nicht mehr uns gehören. Es wird bevölkert sein von KI-gesteuerten Agenten, die menschliche Nutzer zahlenmäßig übertreffen und verdrängen.
Die Entscheidung, ob wir das akzeptieren oder dagegen ankämpfen, müssen wir jetzt treffen. Später könnte es zu spät sein.
Hinweis für Leser: Dieser Artikel basiert auf aktuellen Forschungsdaten von Imperva, Cloudflare, F5, Netacea und weiteren Cybersecurity-Organisationen. Die zitierten Statistiken stammen aus dem Zeitraum 2023-2025 und wurden durch unabhängige Quellen verifiziert.
