TL;DR Zusammenfassung
Anthropic vollzieht eine Kehrtwende, die traurig stimmt: Das Unternehmen, das als ethische Alternative zu OpenAI gegründet wurde, sammelt ab sofort standardmäßig Nutzerdaten für das Training seiner Claude-Modelle. Wer widersprechen möchte, muss bis zum 28. September aktiv handeln. Diese Entwicklung zeigt nicht die wahre Natur von Anthropic, sondern die strukturellen Zwänge einer Branche, in der Daten über Überleben entscheiden. Während US-Unternehmen unter diesem Druck ihre Privacy-Prinzipien opfern, beweisen europäische Alternativen: Datenschutz und Wettbewerbsfähigkeit schließen sich nicht aus – wenn der regulatorische Rahmen stimmt.
Schade, einfach schade.
Es gibt Momente, in denen man spürt, wie eine Ära zu Ende geht. Nicht dramatisch. Nicht mit großem Theater. Sondern leise, mit einem Pop-up-Fenster und einem großen schwarzen „Accept“-Button.
Am 28. August 2025 kündigte Anthropic an, künftig die Chat-Verläufe seiner Nutzer für das Training der Claude-KI zu verwenden. Standardmäßig. Automatisch. Es sei denn, man widerspricht bis zum 28. September aktiv.
Was mich dabei am meisten bewegt, ist nicht die Entscheidung selbst – sondern das, was sie über unsere Branche verrät.
Es war einmal: Eine Vision, die Realität wurde
Dario und Daniela Amodei gründeten Anthropic 2021 aus einer tiefen Überzeugung heraus. Sie hatten bei OpenAI erlebt, wie ein Unternehmen, das ursprünglich als gemeinnützige Organisation für sichere KI-Entwicklung gestartet war, sich nach der Microsoft-Partnerschaft zunehmend kommerziellen Interessen unterwarf.
Ihr Gegenentwurf war radikal: „Constitutional AI“ – ein Ansatz, bei dem ethische Prinzipien direkt ins Training eingebettet werden. Anthropic sollte das werden, was OpenAI einmal sein wollte: ein Unternehmen, das „alignment-first“ denkt und Sicherheit über Profit stellt.
Und es funktionierte. Anthropic etablierte sich als „privacy-first alternative to competitors like OpenAI“, die „would not use user conversations to train Claude unless users specifically provided feedback“.
Drei Jahre lang hielten sie durch. Drei Jahre lang bewiesen sie: Es geht auch anders.
Die Zwänge einer unmöglichen Gleichung
Was folgte, war vermutlich unvermeidlich. Denn Anthropic operiert in einer Branche, die einer gnadenlosen Logik folgt:
Training moderner KI-Systeme erfordert Millionen von echten Gesprächen. Synthetische Daten reichen nicht aus. Öffentliche Texte aus dem Internet sind bereits ausgeschöpft. Was bleibt, sind die privaten Unterhaltungen der Nutzer – die einzige noch unerschlossene Goldgrube hochwertiger Trainingsdaten.
Gleichzeitig sammelte Anthropic seit 2023 über 8 Milliarden Dollar von Investoren und erreichte eine Bewertung von 61,5 Milliarden Dollar. Mit dieser Finanzierung kam ein Wachstumsdruck, der Privacy-Prinzipien zur Nebensache macht.
TechCrunch analysierte nüchtern: „Like every other large language model company, Anthropic needs data more than it needs people to have fuzzy feelings about its brand.“
Es ist die brutale Mathematik des KI-Marktes: Wer nicht sammelt, fällt zurück. Wer zurückfällt, verliert Kunden. Wer Kunden verliert, verschwindet.
Das große Umfallen: Niemand hält mehr durch
Anthropic reiht sich damit in eine Entwicklung ein, die längst branchenweite Realität ist:
OpenAI: Sammelt standardmäßig Chat-Daten für Training, Widerspruch über Privacy Portal möglich
Google Gemini: Seit August 2025 standardmäßig aktivierter „Personal Context“ – mit der problematischen Verknüpfung von Chat-Historie und Training-Opt-out: „You can’t separate the two choices“
Meta: Nutzt öffentliche Inhalte automatisch für KI-Training, in Europa nach Regulierungsdruck teilweise gestoppt
Was diese Beispiele zeigen: Der Druck ist so hoch, dass selbst die ethischsten Unternehmen kapitulieren.
Die einzige Ausnahme? Apple. Das Unternehmen hält am Privacy-First-Ansatz fest: „Apple does not use our users‘ private personal data“ und setzt auf synthetische Daten sowie Differential Privacy.
Aber Apple hat einen entscheidenden Vorteil: Das Unternehmen verdient sein Geld mit Hardware, nicht mit Daten.
Die perfide Psychologie des „Accept“-Buttons
Was besonders nachdenklich stimmt, ist die Art, wie Anthropic die Änderung kommuniziert. Das Interface-Design folgt den bewährten Mustern der „Dark Patterns„:
- Ein großer, schwarzer „Accept“-Button dominiert das Pop-up
- Der Widerspruchs-Schalter erscheint in kleinerem Text darunter
- Standardmäßig steht der Schalter auf „An“ – wer schnell klickt, stimmt automatisch zu
Es ist die gleiche Psychologie, die wir von Cookie-Bannern kennen: Den Widerstand ermüden, die Zustimmung vereinfachen.
Privacy-Experten warnen bereits, dass viele Nutzer „inadvertent consent“ – unbeabsichtigte Zustimmung – geben werden.
Der europäische Unterschied: Warum Regulierung funktioniert
Hier zeigt sich ein bemerkenswerter Kontrast. Während US-Unternehmen unter dem Marktdruck ihre Privacy-Prinzipien aufgeben, beweisen europäische Alternativen das Gegenteil:
Aleph Alpha, das deutsche KI-Unternehmen, fokussiert sich gezielt auf „European values and regulations“ und entwickelt Systeme mit „Transparenz“ und „Compliance mit europäischen Datenschutzgesetzen als Kernfeature“.
Ein KI-Experte analysierte: „Aleph Alpha is explicitly addressing the issue of Europe’s reliance on external AI models. By constructing a comprehensive European AI stack, designed to run independently, this initiative is more than technological advancement: it’s safeguarding European data.“
Diese Unternehmen zeigen: Datenschutz und Wettbewerbsfähigkeit schließen sich nicht aus – wenn der regulatorische Rahmen stimmt.
Die oft kritisierte GDPR und der EU AI Act schaffen einen Wettbewerbsvorteil für Unternehmen, die Privacy nicht als Hindernis, sondern als Differenzierungsmerkmal begreifen.
Was deutsche Unternehmen jetzt tun sollten
Kurzfristig:
- Sofortiger Widerspruch für alle bestehenden Claude-Nutzer in der Organisation (Settings → Privacy → „Help improve Claude“ deaktivieren)
- Compliance-Prüfung: Die neuen Praktiken könnten GDPR-Verstöße darstellen
- Daten-Audit: Welche sensiblen Informationen wurden bereits mit Claude geteilt?
Strategisch:
- Anbieter-Diversifikation: Nicht alles auf eine KI-Karte setzen
- Europäische Alternativen evaluieren: Aleph Alpha, lokale Hosting-Lösungen
- Interne Richtlinien: Klare Vorgaben für den Umgang mit KI-Tools
Die Lehre aus Anthropics Wandel
Anthropics Politikwechsel ist nicht das Ende einer Lüge – sondern das Ende einer Illusion.
Der Illusion, dass in einer hyperkapitalistischen Tech-Branche langfristig Raum für ethische Geschäftsmodelle ist, die auf Datenverzicht setzen.
Der Illusion, dass gute Absichten allein ausreichen, um gegen strukturelle Marktmechanismen anzukommen.
Aber vielleicht ist das auch gut so. Denn diese Enttäuschung führt zu einer wichtigen Erkenntnis: Wirklicher Datenschutz entsteht nicht durch das Vertrauen in Unternehmen, sondern durch Gesetze, die diesen Schutz durchsetzen.
Die GDPR, oft als innovationshemmend kritisiert, erweist sich als strategischer Vorteil. Sie zwingt europäische Unternehmen dazu, Privacy-konforme Lösungen zu entwickeln – und damit einen Wettbewerbsvorteil zu schaffen, der in Zukunft immer wertvoller wird.
Was nach dem Vertrauensbruch bleibt
Anthropics Wandel macht eines deutlich: Die Zeit der Vertrauensseligkeit ist vorbei.
Wer KI-Tools nutzt – privat oder geschäftlich – muss die Spielregeln verstehen:
- Lesen Sie das Kleingedruckte. Immer.
- Evaluieren Sie Alternativen. Regelmäßig.
- Verstehen Sie die Geschäftsmodelle. Wenn das Produkt kostenlos ist, sind Sie das Produkt.
Und vor allem: Setzen Sie nicht auf Versprechungen, sondern auf Strukturen.
Gesetze. Verträge. Technische Garantien.
Denn am Ende des Tages ist Vertrauen ein schönes Gefühl – aber Kontrolle ist ein besseres Geschäftsmodell.
Für Unternehmen, die KI strategisch und rechtssicher einsetzen möchten, bieten wir spezialisierte Workshops zur KI-Governance und GDPR-konformen Implementierung. Dabei entwickeln wir gemeinsam Strategien für eine sichere und wettbewerbsfähige KI-Nutzung, die sowohl Innovation als auch Compliance gewährleistet.
