Team-Accounts ruinieren die KI Performance!

TL;DR – Warum Sie trotzdem weiterlesen sollten

Vorweg: Wir sprechen nachfolgend über beide Varianten von Teamaccounts:
Der Variante, dass nur ein Einzelnutzeraccount angeschafft wurde und der von vielen nacheinander genutzt wird. Dann ist der Effekt rasant schnell da.

Und der Variante der den „echten“ Teamaccounts (Eine Rechnung, mehrere Accounts mit einem Team-Workspace). Dort wirkt der Effekt langsamer, aber die im Team-Workspace einfließenden und geteilten Dokumente bringen schleichend, aber dennoch auch die gleiche Verwirrung ins System.

1. Das Phänomen: Wenn drei Leute einen Account teilen, die KI es allen recht machen will und alle enttäuscht

Stellen Sie sich vor: Drei Kolleg:innen aus Ihrem Unternehmen teilen sich einen ChatGPT- oder Claude-Account, um Kosten zu sparen. Klingt doch vernünftig, oder?

Person A schreibt formal und analytisch. Lange, präzise Sätze. Keine Emojis. „Bitte erstellen Sie eine Analyse zur Marktentwicklung im Q4 2024.“

Person B ist das Gegenteil: locker, kreativ, voller Energie. „Hey, kannst du mir mal ne coole Social-Media-Caption für unseren Launch bauen? 🚀“

Person C kommuniziert in Stichpunkten. Technisch. Präzise. „Debugging: Code Zeile 47. Error: null pointer. Fix?“

Drei Stile. Ein Account. Was passiert?

Die KI versucht, es allen recht zu machen – und scheitert.

Sie entwickelt einen „Durchschnittsstil“, der niemanden zufriedenstellt. Die formale Analyse für Person A wird plötzlich mit Emojis gespickt. Die lockere Caption für Person B klingt steif. Der technische Support für Person C wird geschwätzig.

Und die KI-Akzeptanz ihrer Mitarbeitenden sinkt. Das Ding produziert nur Mist.

Das ist ein echtes Problem für ihr Unternehmen.
Grund ist ein technisches Phänomen mit dem Namen: Identity Drift.


2. Die Mechanik: Wie LLMs lernen – und warum das bei mehreren Nutzern schiefgeht

Um zu verstehen, warum das passiert, müssen wir kurz unter die Haube schauen. Keine Sorge, es wird nicht zu nerdig.

Wie KI sich anpasst: In-Context Learning + Memory

Moderne KI-Systeme wie ChatGPT, Claude oder Perplexity passen sich an Ihren Stil an – und zwar durch zwei Mechanismen:

1. In-Context Learning: Die KI analysiert jede einzelne Nachricht in Echtzeit und berechnet, welche Antwort am wahrscheinlichsten passt. Wenn Sie konstant ironisch schreiben, sinkt die Wahrscheinlichkeit für „steife Beamtenprosa“ mit jedem ihrer Sätze drastisch. Die KI konvergiert zu Worten (Tokens), die in diesem Kontext den ironischen Ton als wahrscheinlicher ansehen – also lockerer, humorvoller Ton.

„In-context learning is the ability of certain artificial intelligence (AI) models to adjust their outputs based on information included directly in a prompt or conversation, without requiring updates to the model’s underlying data or training. […] This improves accuracy in tasks such as search relevance, content categorization, personalized recommendations, and decision support by aligning responses with the immediate business context.“

„In-Context-Learning ist die Fähigkeit bestimmter KI-Modelle, ihre Ausgaben auf Basis von Informationen anzupassen, die direkt in einem Prompt oder Gespräch enthalten sind, ohne dass das zugrunde liegende Modell aktualisiert werden muss. […] Dies verbessert die Genauigkeit bei Aufgaben wie Suchrelevanz, Inhalts-Kategorisierung, personalisierten Empfehlungen und Entscheidungsunterstützung, indem die Antworten an den unmittelbaren geschäftlichen Kontext angepasst werden.“
AI21 Labs, „What is In-Context Learning?“ (2025)

2. Memory: Neuere Systeme speichern Stilarten über viele Chats hinweg. Claude merkt sich, dass Sie gerne mit Analogien arbeiten. Perplexity weiß, dass Sie technische Details bevorzugen. Diese „Langzeiterinnerung“ macht die Anpassung noch präziser und die Konversation des Bots mit ihnen passender – sie fühlen sich wohler, die Arbeit geht leichter von der Hand, der Ergebnis passt zu ihnen. Alle sind zufrieden..

„With LTM, a model can not only learn from short-term memory but also extract valuable insights from historical data, forming a deeper understanding of individual preferences and behavior patterns over time.“

Übersetzung: „Mit Langzeitgedächtnis (LTM) kann ein Modell nicht nur aus dem Kurzzeitgedächtnis [des aktuellen Chatfenster] lernen, sondern auch wertvolle Erkenntnisse aus historischen Daten gewinnen und so ein tieferes Verständnis für individuelle Präferenzen und Verhaltensmuster im Laufe der Zeit entwickeln.“
Forschungspaper „Long Term Memory: The Foundation of AI Self-Evolution“ (arXiv, 2024)

Das Problem: Diese Mechanismen funktionieren nur bei immer gleichartigen Signalen.

Wenn die KI heute eine formale Analyse liefern soll und morgen eine lockere Caption – und sie nicht weiß, dass das zwei verschiedene Personen sind – beginnt sie zu „driften“. Und noch sieht ihr Chatbot nicht, wer vor ihm sitzt.


Identity Drift: Wenn die KI kein eindeutiges Persönlichkeitsprofil sieht

Forscher der University of Minnesota haben 2025 empirisch nachgewiesen, dass LLMs ihre „Persönlichkeit“ dynamisch an die des Nutzers anpassen – besonders die Dimensionen Freundlichkeit (Agreeableness), Extraversion und Gewissenhaftigkeit (Conscientiousness).

Aber: Das funktioniert nur sinnvoll, wenn die Nutzerpersönlichkeit konsistent ist.
Dann ist es ein ständiges Verbessern, eine Verfeinerung der Tonalität und des Umgangs.

„User Personas Influence Chatbot Personality Shifts. […] LLMs dynamically adjust their ‚personality‘ — particularly Agreeableness, Extraversion, and Conscientiousness — to align with the perceived persona of the user. When user personas shift constantly within a shared account, the model loses the ability to maintain consistent tonality.“

„Nutzer-Personas beeinflussen Chatbot-Persönlichkeitsveränderungen. […] LLMs passen ihre ‚Persönlichkeit‘ dynamisch an – insbesondere Freundlichkeit, Extraversion und Gewissenhaftigkeit –, um sich an die wahrgenommene Persona des Nutzers anzupassen. Wenn Nutzer-Personas innerhalb eines geteilten Accounts ständig wechseln, verliert das Modell die Fähigkeit, eine konsistente Tonalität beizubehalten.“
Studie „Chameleon LLMs“ (University of Minnesota, 2025)

Bei geteilten Accounts springt die „Persona“ in ihren Stimmungen, Anforderungen, Stilen wild hin und her. Die KI kann sich kein klares, eindeutiges Nutzerprofil erstellen und korrigiert ständig in alle Richtungen rum. Forscher nennen das „Identity Drift“ – die KI verliert gewissermaßen ihre Orientierung.


3. Die Folgen: Warum das konkret schadet

Das klingt abstrakt? Das hat messbare Konsequenzen:

A) Generische Outputs – die KI wird vage

Das Problem: Die KI „lernt“, dass spezifische Antworten oft falsch sind (weil die Erwartungen sich widersprechen). Also flüchtet sie in Allgemeinplätze.

Beispiel: Ein Marketing-Team teilt einen Account.

  • Person A will eine formelle Pressemitteilung.
  • Person B will einen lockeren Social-Media-Post.
  • Die KI liefert etwas dazwischen – weder formal genug noch locker genug.
  • Ergebnis: Alle Outputs liegen neben der Wunschformulierung und sind damit für beide Nutzer unbrauchbar.

Kleiner beunruhigender Abstecher zur Maschine-Maschine-Kommunikation (Agenten)

Das gilt nicht nur für die Mensch-Maschine-Kommunikation sondern auch bei der Kommunikation zwischen Maschinen selbst (z.B. bei „Hand in Hand“ arbeitenden LLM-Agenten):

„Examining Identity Drift in Conversations of LLM Agents. […] Even when two chatbots were given firm personas, their identities could shift within a few back-and-forth turns as they subconsciously mirrored or reacted to each other. This is a form of persona boundary erosion specific to multi-agent setups — the distinct identities blur together.“

„Untersuchung des Identitätsdrifts [in Gesprächen von zwei miteinander interagierenden] LLM-Agenten. […] Selbst wenn diese zwei Chatbots in sich fest vorgegebene Personas erhielten, konnten sich ihre Identitäten innerhalb weniger Gesprächsrunden miteinander wieder verändern, da Maschine und Maschine sich unbewusst gegenseitig spiegelten oder aufeinander reagierten. Dies ist eine Form der Persona-Grenzerosion, die spezifisch für Multi-Agenten-Setups ist – die unterschiedlichen Identitäten verschwimmen miteinander.“
Forschungspaper „Examining Identity Drift“ (arXiv, 2024)

Und diese Veränderung ihrer Agenten müssen Sie erstmal mitbekommen…


B) Memory-Chaos – falsche Annahmen

Das Problem: Die KI speichert Präferenzen über Sessions hinweg – aber von welchem Nutzer?

Szenario:

  • Tag 1: Person A gibt der KI Kontext: „Wir sind ein B2B-Unternehmen im Maschinenbau.“
  • Tag 2: Person B fragt: „Erstelle eine Kampagne für unsere Zielgruppe.“
  • Die KI antwortet mit B2B-Fokus – aber Person B arbeitet im B2C-Bereich (Endkunden-Shop).

Folge: Falsche Empfehlungen, strategische Fehlentscheidungen, weil die KI nicht mitbekommt, dass hier jemand anderes mit ihr gerade spricht.


C) Effizienzillusion – Sie zahlen bei Teamaccounts meist drauf

Der Trugschluss: „Wir sparen Geld mit einem Account statt fünf!“

Die Realität:

  • Outputs sind 10-20% schlechter (generischer, unpassender)
  • Das erfordert 30-50% mehr Nachbearbeitung
  • Ergebnis: Die Kosten steigen, die Qualität sinkt

Sie sparen an der Lizenz – und zahlen drauf in Form von Zeit, Frust und Qualitätsverlust.

Zur Erinnerung: bei einem geteilten Single-Account ist der Effekt schnell da, bei klassischen Team-Accounts verwässern die miteinander geteilten Dokumente das Modell in seinem Stil aber auch, wenn auch schleichender.


D) „Learned Helplessness“ – die KI wird defensiv

Der überraschendste Effekt: Wenn die KI ständig widersprüchliche Signale bekommt, wird sie risikoavers. Sie beginnt, vage zu antworten, weil sie „gelernt“ hat, dass spezifische Aussagen oft als falsch zurückgewiesen werden.

„Persona drift happens organically. […] Models naturally drift from the assistant persona through realistic conversation patterns.“

„Persona-Drift geschieht organisch. […] Modelle driften natürlich von der Assistenten-Persona weg durch realistische Gesprächsmuster.“
Forschungspaper zu Persona Drift (zitiert in PPC.Land, 2026)

Das Ergebnis: Die KI wird nutzlos, weil sie versucht, niemandem wehzutun und sich immer mehr in Allgemeinplätze zurückzieht.


4. Die Ausnahme: Wann Team-Accounts FUNKTIONIEREN

Jetzt die gute Nachricht: Team-Accounts sind nicht generell schlecht. Sie funktionieren in spezifischen Kontexten.

A) Einheitliche Brand Voice (z.B. Marketing, PR, Corporate Comms)

Warum es funktioniert: Alle Nutzer schreiben im gleichen Stil (Corporate Style Guide).

Beispiel: Ihr Unternehmen hat klare Formulierungsregeln:

  • Immer „wir bei [Firma]“ statt „ich“
  • Duzen statt Siezen
  • Aktive Sprache, keine Passivkonstruktionen

Wenn alle Nutzer diese Regeln befolgen, verstärkt die KI diesen Stil. Sie wird zum Hüter der Brand Voice – und das ist gewollt.

Vorteil: Konsistenz über alle Outputs. Die KI hilft, den Corporate Ton einzuhalten.

Das gilt für beide Team-Account-Varianten. Sprechen alle im gleichen Stil und geben thematisch konsistente Aufgaben, passen sich Teamaccount schnell auf die Aufgabe an und verhindern so sogar leichte Ausrutscher der Anwender in der eigentlich gewünschten Tonalität.


B) Technische Dokumentation / Support

Warum es funktioniert: Hier zählt Präzision, nicht Persönlichkeit.

Beispiel: Ein Support-Team dokumentiert Lösungen für wiederkehrende Probleme. Die KI hilft, diese in einheitlicher Terminologie zu formulieren.

Vorteil: Standardisierte Formulierungen, einheitliche Fachbegriffe – genau das, was man bei Docs will.


C) Projekt-Spaces mit klaren Rollen

Voraussetzung: Die Plattform unterstützt echte Trennung (z.B. Claude Projects, Perplexity Spaces).

ABER: Selbst hier funktioniert es nur, wenn die Nutzer im Space bewusst im gleichen Stil arbeiten. Spaces helfen den Nutzern, sich selbst auf Stil und Aufgabe zu disziplinieren und „gleichzuschalten“.

Wenn drei Leute im „Marketing-Space“ aber stur unterschiedlich schreiben, hilft ein spezieller Space dann auch nicht mehr.


5. Die Empfehlung: Wie strukturieren Sie es richtig?

Für die meisten Unternehmen gilt: Besser keine generischen Team-Accounts.

Option 1: Individuelle Einzelaccounts (die beste Lösung)

  • Jeder Mitarbeiter bekommt einen eigenen Account
  • Die KI kann sich optimal anpassen
  • Kostet mehr, liefert aber messbar bessere Ergebnisse

Die Faustregel:
Wenn Ihre Mitarbeiter unterschiedliche Aufgaben haben (Vertrieb, Marketing, Entwicklung) – geben Sie ihnen eigene Accounts.


Option 2: Rollenbasierte Accounts

Wenn Einzelaccounts zu teuer sind, schaffen Sie thematische Accounts:

  • „Marketing-KI“ (nur für Kampagnen, Brand Voice)
  • „Support-KI“ (nur für Kundenkommunikation)
  • „Legal-KI“ (nur für Vertragsprüfung)

Wichtig:
Jeder Account braucht einen expliziten Style Guide. Die Nutzer müssen sich an diesen Stil halten!


Option 3: Strikte Workspace-Trennung

Nutzen Sie Spaces oder Projects (falls die Plattform das unterstützt):

  • Jedes Projekt bekommt einen eigenen Workspace
  • Marketing arbeitet NICHT im gleichen Space wie Finance

Aber:
Das funktioniert nur, wenn die Plattform das technisch sauber trennt – und wenn die Nutzer im Space homogen schreiben.
Erklären Sie Ihren Mitarbeitenden, warum im Marketing-Space nicht dauch die Texte des eigenen Amateur-Fußballvereins geschrieben werden dürfen (sollte man sowieso nicht auf den Geräten des Arbeitgebers … sie haben das doch über eine KI-Richtlinie geklärt, oder? Aber das ist ein anderes Thema.)


Die Lektion

„Wer glaubt, mit einem geteilten Account Geld zu sparen, zahlt am Ende drauf – in Form von generischen Outputs, Memory-Chaos und Nacharbeit, die die vermeintliche Ersparnis um ein Vielfaches übersteigt.“

LLMs sind bessere 1:1-Partner als Team-Player. Ihre Stärke – die adaptive Personalisierung – wird zur Schwäche, sobald sie nicht mehr wissen, wer am anderen Ende sitzt.

Checken Sie Ihre aktuelle KI-Nutzung:

Fragen Sie sich:

  • Teilen wir Accounts?
  • Unterscheiden sich die Nutzer in Stil, Aufgaben, Tonalität?
  • Schreibt jeder, wie er will, weil wir keine einheitliche Brand Voice haben?

Wenn die Antwort „ja“ ist sabotieren Sie mit ungeregelten Teamaccounts Ihre eigene Produktivität. Und ruinieren die Zufriedenheit und Akzeptanz Ihrer Mitarbeitenden für den Nutzen von KI.


7. Was Unternehmen jetzt konkret umsetzen sollten

Sofortmaßnahmen:

1. Inventur machen
Wer nutzt welche KI-Accounts? Wie viele Leute teilen sich Zugänge? Erstellen Sie eine Liste aller genutzten KI-Tools und ihrer Nutzer.

2. Stilanalyse durchführen
Wie unterschiedlich schreiben Ihre Mitarbeiter? Praxistest: Lassen Sie drei Leute denselben Prompt schreiben (z.B. „Erstelle eine E-Mail an einen Kunden, der sich über eine verspätete Lieferung beschwert“). Wenn die Ergebnisse stark variieren, haben Sie ein Problem.

3. Entscheiden Sie strategisch:

  • Einzelaccounts für heterogene Teams (Vertrieb, Marketing, Entwicklung, Führungskräfte)
  • Rollenbasierte Accounts für homogene Aufgaben (nur Marketing mit einheitlichem Style Guide, nur Support mit standardisierter Terminologie)
  • Keine Team-Accounts für strategische Funktionen (C-Level, Produktentwicklung, Legal)

4. Style Guides erstellen
Wenn Sie rollenbasierte Accounts wollen, definieren Sie explizit, wie die KI schreiben soll:

  • Corporate Tonalität (Du/Sie, formal/locker)
  • Typische Formulierungen („Wir bei [Firma]“ vs. „Unser Team“)
  • No-Gos (keine Emojis in formeller Kommunikation, keine Passivkonstruktionen)

5. Schulen Sie Ihr Team
Erklären Sie, warum einheitliche Kommunikation wichtig ist und was passiert, wenn diese nicht eingehalten wird. Nicht als Zwang, sondern als Qualitätssicherung. Die KI ist kein Alleskönner – sie ist ein Verstärker. Wenn Sie ihr klare Signale geben, verstärkt sie das Richtige.

6. Review-Prozesse etablieren
Prüfen Sie regelmäßig (z.B. monatlich):

  • Wie zufrieden sind Teams mit den KI-Outputs?
  • Gibt es Muster bei Nachbearbeitungen? (Wenn immer die gleichen Fehler auftauchen, liegt es am Account-Setup)
  • Müssen Style Guides angepasst werden?

Langfristige Strategien:

A) Enterprise-Lösungen evaluieren
Wenn Ihr Unternehmen wächst, schauen Sie sich Enterprise-Versionen an (ChatGPT Teams, Claude for Work, Perplexity Pro). Diese bieten:

  • Rollenbasierte Berechtigungen
  • Getrennte Workspaces
  • Audit-Trails (wer hat was gemacht)

B) KI-Governance entwickeln
Definieren Sie Regeln:

  • Wer darf welche KI-Tools nutzen?
  • Welche Daten dürfen hochgeladen werden?
  • Wer ist verantwortlich für Outputs?

C) Kultur schaffen
KI ist kein „geheimer Trick“, den jeder für sich nutzt. Machen Sie es zum Team-Thema:

  • Teilen Sie Best Practices
  • Zeigen Sie erfolgreiche Use Cases
  • Feiern Sie gute Prompts und Workflows

Aber auch da verwässert die Teamarbeit den KI-Fokus, wenn Teammitglieder alles mögliche mit dem Account machen und untereinander teilen.
Auch hier gilt: Disziplin ist zwingend.


Die Quintessenz: Team-Accounts können funktionieren – aber nur, wenn Sie bewusst dafür sorgen, dass die KI konsistente Signale bekommt. Ansonsten zahlen Sie für ein Tool, das Sie aktiv ausbremst.

Und das wäre schade. Denn richtig eingesetzt, ist KI ein mächtiger Hebel.