Stell dir vor, du sitzt in einem dieser typischen Berliner Cafés. Zwei Gründer:innen am Nachbartisch diskutieren lautstark über ihre nächste Kampagne. Einer sagt: „Ich will nicht, dass Meta mitliest.“ Der andere entgegnet: „Aber die sollen doch dazulernen – vielleicht checkt der Algorithmus dann endlich, was Ironie ist.“
Meta hat sich kürzlich das Recht eingeräumt, öffentliche Inhalte für das KI-Training zu verwenden. Wer das nicht will, muss aktiv widersprechen. Und natürlich geht das nicht ganz unkompliziert. Ein bisschen Reibung im System hält schließlich viele davon ab, überhaupt aktiv zu werden.
Warum das für Unternehmen interessant ist?
Weil es eine Haltung offenlegt.
Denn die Diskussion dreht sich nicht nur um Datenschutz. Sie dreht sich um Sichtbarkeit. Um Wirksamkeit. Und, ganz subtil: um digitale Reife.
Ich nutze Plattformen wie LinkedIn, X (vormals Twitter), Instagram bewusst als Bühne. Nicht vorwiegend zur Selbstvermarktung, sondern zum Teilen von Wissen, zum Öffnen von Gedankenräumen. Meine Posts sind öffentlich, weil ich davon ausgehe, dass andere daraus lernen – dürfen und sollen. Ich will gesehen und gelesen werden.
Wenn also ein Sprachmodell daraus lernt, wie man differenziert über Digitalisierung spricht, wie man Haltung formuliert, ohne zu polarisieren, wie man Menschen inspiriert, selbst zu denken – dann: gern geschehen.
Aber was, wenn Inhalte eigentlich nicht öffentlich gedacht sind?
Wer Inhalte veröffentlicht, die nur für einen kleinen, geschlossenen Kreis gedacht sind, sollte genauer hinschauen. Denn hier geht es nicht um die Frage: „Will ich Meta helfen?“
Sondern eher: „Ist mein Content so spezifisch, persönlich, sensibel, dass ein automatisiertes Modell daraus nicht lernen sollte?“
Trainingsdaten entscheiden über Sprachqualität
Die Qualität eines Sprachmodells hängt fundamental von der Qualität und Vielfalt seines Trainingsmaterials ab. Das merkt man besonders bei Sprachen mit weniger öffentlicher Datenverfügbarkeit. Dänisch zum Beispiel.
Wird von GPT zwar gesprochen – aber eben nicht mit dem feinen Gespür, das echte Dänen haben. Ein dänischer Kollege sagte mal mit hochgezogener Braue: „Es ist … verständlich. Aber es klingt wie von jemandem, der Dänisch nur aus Büchern kennt.“ Touché.
Grok und das Sprachgefühl aus der Timeline
Grok, das X-eigene KI-System, macht es vor: Es wurde konsequent mit Massen von öffentlichen Posts von X trainiert. Und siehe da: Das Modell „spricht Twitter“. Es versteht Memes, Ironie, Subtext. Weil es direkt an der Quelle gelernt hat. Und weil dort niemand widersprochen hat – vermutlich, weil sie gar nicht wussten, dass sie könnten.
Also: Erlauben oder widersprechen?
Wer sich fragt, ob das Zulassen des Trainings ein Problem ist, kann sich auch fragen:
- Möchte ich beitragen zur Qualität der Maschinen, mit denen wir bald täglich arbeiten werden?
- Möchte ich, dass KI auch feine Nuancen meiner Sprache versteht?
- Oder will ich bewusst verhindern, dass meine Inhalte Teil dieser Entwicklung werden?
Die Antwort ist individuell. Aber: Wer sich für Digitalisierung stark macht, wer möchte, dass KI unsere Sprache versteht, unsere Kultur durchdringt, unsere Nuancen erkennt – der muss überlegen, ob Offenheit nicht der bessere Weg ist.
Und vielleicht der wichtigste Punkt: Wer eine ethisch tragfähige, menschenzentrierte KI will, muss auch dafür sorgen, dass sie aus guten, relevanten, respektvollen Quellen lernt. Nicht aus Spam. Nicht aus Clickbait. Sondern aus echter Auseinandersetzung mit unserer Zeit.
Fazit
Ich werde dem Training nicht widersprechen. Meine Inhalte sind sowieso öffentlich gedacht. Ich veröffentliche, um Diskussionen anzuregen, nicht um sie zu verhindern.
Aber wer andere Anforderungen hat – soll prüfen und entscheiden. Es ist kein Schwarz oder Weiß. Aber es ist ein Spiegel: auf unsere digitale Souveränität.
Widersprechen kann man bis zum 26.05.2024.
Wie das genau geht, ist sehr gut hier beschrieben: https://www.tagesschau.de/wirtschaft/verbraucher/meta-widerspruch-datennutzung-100.html
