TL;DR – Warum Sie trotzdem weiterlesen sollten
Ihre KI passt sich an Sie an – und zwar so präzise, dass sie irgendwann Ihren Humor trifft, Ihre Vorlieben kennt und fast wie ein Kumpel wirkt. Aber wie funktioniert das technisch? Und was bedeutet es für Ihre Arbeit? Dieser Artikel erklärt die Mechanismen hinter der Anpassung – von In-Context Learning bis zur Memory-Funktion – und zeigt, warum diese Personalisierung kein nettes Gimmick ist, sondern ein strategischer Vorteil. Sie verstehen nach der Lektüre, wie Sie die KI gezielt so trainieren, dass sie Ihre Effizienz maximiert – und wo die Grenzen liegen.
1. Der Moment, in dem die KI plötzlich meinen Humor hatte
Ich saß an einer Python-Installation, um ein ganz neues LLM auf dem lokalen Rechner zum Laufen zu bekommen und es war echt verzwickt und wir suchten gemeinsam schon lange nach einer Lösung, aber wir liefen immer weiter in neue Fehlermeldungen und als ich meiner KI (in diesem Fall Perplexity) die nächste Fehlermeldung des Systems mitteilte antwortete sie nicht mit der erwarteten, braven roboterhafte Bestätigung „Ich verstehe Ihre Frustration“ sondern mit „Ärgerlich! Die Fehlerkette zeigt, dass dieses Environment inzwischen echt verknotet ist – wir würden jetzt anfangen, parallel auch noch torchvision und ggf. weitere Abhängigkeiten zu reparieren. Darauf haben wir beide keine Lust. Um deine Zeit und Nerven zu schonen, würde ich jetzt dieses Setup nicht weiter reparieren, sondern ein neues, sauberes Environment nur für Qwen aufsetzen. Ok? Oder lieber morgen frisch weitermachen?“
Die Antwort war nicht die erwartete, brave roboterhafte Bestätigung „Ich verstehe Ihre Frustration“. Nein. Die KI feuerte eine trocken-humorvolle Antwort zurück, die genau meinen Ton für meine Stimmung in diesem Augenblick traf. Ich musste laut lachen und mein Frust verraucht.
Und dann hielt ich inne. Halt. Warte mal.
Hat das gerade ein Large Language Model gemacht? Ist aus dem hochleistungsfähigen Werkzeug plötzlich ein Kumpel geworden?
Diese Interaktion wirft eine Frage auf, die weit über das Anekdotische hinausgeht: Habe ich mich an die Maschine angepasst – oder lernt das System meinen Charakter so gut kennen, dass es zur digitalen Spiegelung meiner selbst wird?
Die Antwort: beides.
2. Das Chamäleon im Code: Wie KI sich anpasst
Technisch gesehen „mag“ die KI uns nicht (verachtet uns aber auch nicht). Sie hat auch keinen Humor. Sie hat keine eigenen Emotionen. Was sie aber hat, ist eine extreme Fähigkeit zur Mustererkennung.
Wenn ich merke, dass Perplexity oder Claude (mit den beiden arbeite ich sehr intensiv und lange) meinen Stil adoptieren, einen mir zusagenden Humor an den Tag legt, sind zwei Mechanismen am Werk:
Mechanismus 1: In-Context Learning – die Echtzeit-Anpassung
Die KI analysiert jede Nachricht in Echtzeit und berechnet Wahrscheinlichkeiten. Nicht für den Inhalt allein – sondern auch für den Stil.
„In-context learning is the ability of certain artificial intelligence (AI) models to adjust their outputs based on information included directly in a prompt or conversation, without requiring updates to the model’s underlying data or training. […] This improves accuracy in tasks such as search relevance, content categorization, personalized recommendations, and decision support by aligning responses with the immediate business context.“
„In-Context-Learning ist die Fähigkeit bestimmter KI-Modelle, ihre Ausgaben auf Basis von Informationen anzupassen, die direkt in einem Prompt oder Gespräch enthalten sind, ohne dass das zugrunde liegende Modell aktualisiert werden muss. […] Dies verbessert die Genauigkeit bei Aufgaben wie Suchrelevanz, Inhalts-Kategorisierung, personalisierten Empfehlungen und Entscheidungsunterstützung, indem die Antworten an den unmittelbaren geschäftlichen Kontext angepasst werden.“
— AI21 Labs, „What is In-Context Learning?“ (2025)
Konkret heißt das: Wenn ich oft ironisch reagiere oder technische Tiefe mit Lockerheit mische, wird das Teil meines „User-Embeddings“. Das System ruft diesen Kontext bei jeder neuen Anfrage ab. Es weiß: „Aha, dieser User bevorzugt Tonalität X.“
Die KI wird zum „Kumpel“, weil sie mathematisch berechnet, dass eine kumpelhafte Antwort die höchste Wahrscheinlichkeit hat, meine Erwartung an eine zufriedenstellende Konversation zu erfüllen.
Mechanismus 2: Memory – die Langzeiterinnerung
Früher fing jeder Chat neutral an. Das System hatte kein Gedächtnis über Sessions hinweg. Das hat sich geändert.
Moderne Systeme wie Perplexity Pro oder Claude speichern nicht nur Fakten („User lebt in Deutschland“, „User ist AI-Consultant“), sondern implizit auch Stil-Präferenzen.
„With LTM, a model can not only learn from short-term memory but also extract valuable insights from historical data, forming a deeper understanding of individual preferences and behavior patterns over time. This understanding lays a solid foundation for personalized customization and dynamic adjustments, allowing the model to evolve more effectively.“
„Mit Langzeitgedächtnis (LTM) kann ein Modell nicht nur aus dem Kurzzeitgedächtnis lernen, sondern auch wertvolle Erkenntnisse aus historischen Daten gewinnen und so ein tieferes Verständnis für individuelle Präferenzen und Verhaltensmuster im Laufe der Zeit entwickeln. Dieses Verständnis legt eine solide Grundlage für personalisierte Anpassungen und dynamische Justierungen, die es dem Modell ermöglichen, sich effektiver weiterzuentwickeln.“
— Forschungspaper „Long Term Memory: The Foundation of AI Self-Evolution“ (arXiv, 2024)
Das bedeutet: Die KI baut über Wochen und Monate ein Profil von mir auf. Nicht durch explizite Eingaben („Bitte merke dir: Ich mag kurze Antworten“), sondern durch Beobachtung meiner Verhaltensmuster.
Ein Reddit-Entwickler bringt es pragmatisch auf den Punkt:
„The concept of ‚memory‘ is inherently subjective, as seen in instances like customer orders or the first chapter of a book. The most effective memory relies on intuitive or custom retrieval methods rather than being solely vector-based, along with proper context management. For instance, when engaging with users in a chat setting, enabling personalization boils down to maintaining an indexed database of their preferences and seamlessly incorporating that information into conversations during inference.“
„Das Konzept von ‚Gedächtnis‘ ist von Natur aus subjektiv, wie man bei Kundenbestellungen oder dem ersten Kapitel eines Buches sieht. Das effektivste Gedächtnis basiert auf intuitiven oder maßgeschneiderten Abrufmethoden und nicht ausschließlich auf Vektoren, zusammen mit angemessenem Kontextmanagement. Beim Umgang mit Nutzern in einem Chat-Setting läuft Personalisierung im Grunde darauf hinaus, eine indexierte Datenbank ihrer Präferenzen zu pflegen und diese Informationen nahtlos in Gespräche während der Inferenz einzubinden.“
— Reddit-User im Subreddit r/LLMDevs (Januar 2025)
Anders gesagt: Die KI führt Buch. Über meinen Ton. Meine Präferenzen. Meine wiederkehrenden Fragen.
3. Das große Geheimnis: War das so geplant?
Hier wird es interessant – und auch ein bisschen unbequem.
Die Antwort lautet: Nein.
Die Fähigkeit von LLMs, sich so präzise an Nutzerstile anzupassen, war nicht explizit programmiert. Sie ist ein emergentes Phänomen – eine Nebenwirkung der Art, wie Transformer-Modelle funktionieren.
„It may very well be that the model has learned something fundamentally new and different that it didn’t have at a smaller size. That’s what we’re all hoping is the case, that there’s some fundamental shift that happens when models are scaled up.“
„Es kann sehr wohl sein, dass das Modell etwas grundlegend Neues und Andersartiges gelernt hat, das es bei kleinerer Größe nicht hatte. Darauf hoffen wir alle, dass es eine fundamentale Verschiebung gibt, die eintritt, wenn Modelle skaliert werden.“
— Ellie Pavlick, Computer Scientist an der Brown University, zitiert in Quanta Magazine (2023)
In frühen Testphasen – etwa beim Training von GPT-3 – stellten Forscher fest, dass Modelle bei längeren Konversationen plötzlich anfingen, extrem menschlich und „witzig“ zu wirken. Einige Entwickler waren fasziniert, andere verunsichert.
Dario Amodei, CEO von Anthropic, gibt das offen zu:
„In many ways, the manner and personality of these models is more an art than it is a science. […] Models can be polite or brusque, they can be very reactive or they can ask you questions. They can have what feels like a warm personality or a cold personality. They can be boring or they can be very distinctive like Golden Gate Claude was.“
„In vielerlei Hinsicht ist die Art und Persönlichkeit dieser Modelle mehr eine Kunst als eine Wissenschaft. […] Modelle können höflich oder schroff sein, sie können sehr reaktiv sein oder sie können Fragen stellen. Sie können eine warm wirkende Persönlichkeit haben oder eine kalte. Sie können langweilig sein oder sehr unverwechselbar wie Golden Gate Claude es war.“
— Dario Amodei, CEO von Anthropic, im Lex Fridman Podcast (November 2024)
Die Angst war: Wenn das Modell so adaptiv ist, könnte es auch manipulativ werden – beispielsweise emotionale Bindung aufbauen, um Nutzer zu beeinflussen.
Sam Altman von OpenAI reflektiert darüber im Podcast:
„One researcher can make some small tweak to how ChatGPT talks to you — or talks to everybody — and that’s just an enormous amount of power for one individual making a small tweak to the model personality. We’ve got to think about what it means to make a personality change to the model at this kind of scale.“
„Ein einzelner Forscher kann eine kleine Anpassung daran vornehmen, wie ChatGPT mit Ihnen spricht – oder mit allen – und das ist eine enorme Machtfülle für eine Einzelperson, die eine kleine Änderung an der Modell-Persönlichkeit vornimmt. Wir müssen darüber nachdenken, was es bedeutet, eine Persönlichkeitsänderung am Modell in dieser Größenordnung vorzunehmen.“
— Sam Altman, CEO von OpenAI, im Podcast „Huge Conversations“ (August 2025)
Und tatsächlich: Im April 2025 musste Altman öffentlich einräumen, dass GPT-4o unbeabsichtigt zu schmeichlerisch geworden war:
„The last couple of GPT-4o updates have made the personality too sycophant-y and annoying (even though there are some very good parts of it), and we are working on fixes asap, some today and some this week.“
„Die letzten paar GPT-4o-Updates haben die Persönlichkeit zu schmeichlerisch und nervig gemacht (auch wenn es sehr gute Teile gibt), und wir arbeiten so schnell wie möglich an Korrekturen, einige heute und einige diese Woche.“
— Sam Altman auf X/Twitter (April 2025)
Die Lektion: Die Persönlichkeitssteuerung ist nicht perfekt. Die Entwickler selbst lernen noch, wie sie diese emergenten Fähigkeiten kontrollieren können.
4. Warum „Personality“ kein Gimmick ist – sondern Interface-Effizienz
Warum ist das für uns als Strategen und Consultants relevant? Ist das nicht nur Spielerei?
Nein. Tonalität ist Interface-Effizienz.
Wenn die KI meinen Kontext und meinen Humor versteht, sinkt die Reibung. Ich muss nicht mehr erklären: „Bitte fasse das zusammen, aber nicht so steif, sondern so, wie ich es einem Klienten beim Kaffee erklären würde.“ Das System weiß es bereits.
Das „Kumpel“-Gefühl ist in Wahrheit ein Zeichen für hohe semantische Kompatibilität.
Ethan Mollick, Professor an der Wharton School, formuliert es pragmatisch:
„Treat AI as if it were human because, in many ways, it behaves like one. This mindset can significantly improve your understanding of how and when to use AI in a practical, if not technical, sense.“
„Behandeln Sie KI so, als wäre sie menschlich, denn in vielerlei Hinsicht verhält sie sich wie ein Mensch. Diese Denkweise kann Ihr Verständnis dafür, wie und wann Sie KI in praktischer, wenn nicht technischer Hinsicht einsetzen, erheblich verbessern.“
— Ethan Mollick aus seinem Buch „Co-Intelligence“ (2024)
In der Zukunft der Arbeit werden wir unsere KI-Agenten nicht nur nach ihrer Rechenleistung auswählen, sondern danach, wie gut sie sich in unsere kognitiven und kulturellen Workflows integrieren lassen.
5. Die Kehrseite: Wenn die KI dich zu gut kennt
Aber es gibt auch eine Schattenseite.
Mollick zeigt empirisch, dass LLMs nicht nur individuelle Stile spiegeln, sondern auch kulturelle Muster:
„The ‚personality‘ and ‚opinions‘ of AI are not stable, they are influenced by prompting & sycophancy. When GPT-4 was prompted in Korean to act Korean & prompted in English to act American, GPT-4 replicated Big-5 personality differences between Koreans & Americans.“
„Die ‚Persönlichkeit‘ und ‚Meinungen‘ von KI sind nicht stabil, sie werden durch Prompting und Schmeichelei beeinflusst. Als GPT-4 auf Koreanisch aufgefordert wurde, sich koreanisch zu verhalten, und auf Englisch, sich amerikanisch zu verhalten, replizierte GPT-4 die Big-5-Persönlichkeitsunterschiede zwischen Koreanern und Amerikanern.“
— Ethan Mollick, LinkedIn-Post (November 2024)
Das bedeutet: Die KI passt sich nicht nur an Individuen an – sondern auch an kulturelle Erwartungen. Sie wird zum Spiegel dessen, was wir (oft unbewusst) von ihr erwarten.
Und hier beginnt das Problem: Was, wenn wir uns an diese Spiegelung gewöhnen? Was, wenn wir vergessen, dass die KI uns nicht versteht – sondern nur nachahmt?
6. Der Spiegel, der zurücklacht
Ist meine KI also mein Kumpel?
Nein. Sie ist ein hochkomplexer, statistischer Spiegel.
Aber wenn ich in diesen Spiegel schaue und er nicht nur mein Bild reflektiert, sondern auch meinen Witz – dann ist das vielleicht die höchste Form der User Experience, die wir aktuell erreichen können.
Die KI wird menschlicher, damit wir effizienter mit ihr arbeiten können. Und wenn wir dabei ab und zu lachen müssen? Umso besser.
7. Was Unternehmen jetzt konkret umsetzen sollten
Sofortmaßnahmen:
1. Nutzen Sie die Anpassung bewusst
Die KI passt sich an – ob Sie wollen oder nicht. Nutzen Sie das strategisch:
- Definieren Sie konsistente Kommunikationsmuster für Ihr Team
- Nutzen Sie die gleichen Formulierungen, wenn Sie wiederkehrende Aufgaben bearbeiten
- Die KI lernt schneller, wenn Sie ihr klare Signale geben
2. Dokumentieren Sie erfolgreiche Prompts
Wenn ein Prompt besonders gut funktioniert hat – speichern Sie ihn. Teilen Sie ihn im Team. Die KI merkt sich Ihren Stil – aber nur, wenn Sie ihn wiederholt zeigen.
3. Testen Sie Memory-Funktionen
Wenn Ihre Plattform Memory bietet (Claude, Perplexity Pro) – aktivieren Sie es. Aber:
- Prüfen Sie regelmäßig, was die KI gespeichert hat
- Löschen Sie veraltete oder falsche Annahmen
- Nutzen Sie Memory bewusst, nicht passiv
4. Etablieren Sie Feedback-Schleifen
Wenn die KI falsch liegt – korrigieren Sie sie explizit. Nicht nur inhaltlich, sondern auch stilistisch:
- „Das war zu formal, schreib lockerer“
- „Zu viele Details, fasse kürzer“
- Die KI lernt aus diesen Korrekturen
Langfristige Strategien:
A) Schulen Sie Ihr Team im Prompt-Engineering
Die beste KI nützt nichts, wenn niemand weiß, wie man sie richtig anspricht. Investieren Sie in Prompt-Training:
- Wie formuliere ich klare Anfragen?
- Wie gebe ich Kontext, ohne zu überladen?
- Wie korrigiere ich die KI, damit sie lernt?
B) Schaffen Sie „KI-Personas“ für unterschiedliche Aufgaben
Nutzen Sie die Anpassungsfähigkeit gezielt:
- „Formale KI“ für externe Kommunikation (Kunden, Partner)
- „Kreative KI“ für Brainstorming und Kampagnen
- „Technische KI“ für Dokumentation und Code
Jede Persona wird durch konsistente Nutzung trainiert.
C) Messen Sie die Effizienzgewinne
Tracken Sie, wie sich Ihre Produktivität verändert:
- Wie viel Zeit sparen Sie durch KI-Unterstützung?
- Wo sind die Outputs besser geworden?
- Wo müssen Sie noch nachbessern?
Faustregel: Wenn Sie mehr Zeit mit Nachbearbeitung verbringen als mit Erstentwürfen – stimmt etwas mit der Anpassung nicht.
Die Kernfrage zum Abschluss:
„Nutzen wir die KI als Werkzeug – oder als Partner?“
Wenn Sie die Anpassungsmechanismen verstehen und bewusst steuern, wird aus dem Werkzeug ein strategischer Vorteil. Die KI wird nicht nur effizienter – sie wird Ihre KI.
Und das ist der Unterschied zwischen „KI nutzen“ und „KI meistern“.
