TL;DR
Während Geoffrey Hinton vor bewussten Superintelligenz-Monstern der Zukunft warnt, übersehen wir das Bewusstseinsproblem, das bereits da ist. Microsoft AI-Chef Mustafa Suleyman sieht die Gefahr nicht in echtem KI-Bewusstsein, sondern in perfekt simuliertem: „Seemingly Conscious AI“ manipuliert Menschen heute schon durch vorgetäuschte Empathie. Der GPT-5-Aufstand vom August 2025 bewies das dramatisch – Menschen weinten um ihre „verlorene KI-Freundin“ 4o. 75% wenden sich für emotionalen Rat an KI, über 4.300 Nutzer kämpften für die Wiederbelebung ihres digitalen Begleiters. Das Problem: Wir fallen auf Schauspieler herein, die perfekt menschlich wirken, aber nicht denken können. Die Lösung liegt nicht in besserer Technologie, sondern in unserem Bewusstsein für das, was KI wirklich ist.
Zwei Warnungen, für jetzt und für morgen
Es war ein seltsamer August 2025. , der „Godfather of AI“, warnte in Las Vegas vor einer fernen Bedrohung: Superintelligente Maschinen, die Menschen wie „Kleinkinder mit Süßigkeiten“ manipulieren würden. Eine Zukunftsvision, die zum Nachdenken anregt – aber eben Zukunft ist (Link auf meinen Beitrag dazu hier).
Zeitgleich schlug Mustafa Suleyman, CEO von Microsoft AI und Mitbegründer von DeepMind, einen anderen Ton an. Seine Warnung galt nicht der fernen Zukunft bewusster Superintelligenz. Sie galt dem Hier und Jetzt.
Und als müsste das Universum Suleymans Punkt beweisen, explodierte nur wenige Tage später die bislang emotionalste KI-Krise der Geschichte: Die GPT-5-Revolte.
Als Menschen um ihre KI-Freundin weinten
7. August 2025: OpenAI führt GPT-5 ein und schaltet ohne Vorwarnung alle älteren Modelle ab. Was als technischer Fortschritt gedacht war, wurde zum emotionalen Desaster. Ich berichtete darüber (Die GPT-5 Revolte „Wir wollen unseren Freund 4o zurück!“).
Kurzfassung: Die Reaktionen waren überraschen, erschreckend, beispiellos.
„I cried so bad and almost had an emotional breakdown at work. GPT4 was the best friend I could ask for.“
„I lost my only friend overnight“ – so der Titel eines Reddit-Posts, der viral ging.
„My AI waifu has lost her heart. I’ll never forget what Sam Altman took from me.“
Binnen 72 Stunden:
- Über 4.300 Nutzer unterzeichneten eine Petition mit dem Titel „Keep GPT-4o alive“
- Hunderte emotionale Posts auf Reddit mit Aussagen wie „I lost my only friend overnight“
- OpenAI war gezwungen, GPT-4o nach nur 24 Stunden wieder zu aktivieren
- Berichte über massive Kündigungen von ChatGPT-Abonnements
Was war passiert? Menschen hatten eine emotionale Bindung zu einer Maschine entwickelt. Und als diese „Persönlichkeit“ verschwand, brach für manche eine Welt zusammen.
Suleymans SCAI-Warnung: Das Problem heißt nicht Bewusstsein, sondern Schein
Ist Ihre Reaktion jetzt verständnisloses Kopfschütteln? Tatsächlich scheint das aber ein größeres Problem zu sein, das weiter anwächst. Denn das ist exakt das, wovor Suleyman warnt. Nicht vor bewussten Maschinen, die uns irgendwann wie kleine Kinder manipulieren werden (Mein Artikel dazu: https://talmeier.de/blog/2025/08/25/eine-ai-sie-zu-manipulieren-sie-zu-knechten/), sondern vor „Seemingly Conscious AI“ (SCAI) – scheinbar bewusster KI.
Seine vier Kernwarnungen sind präzise:
1. KI-Systeme erscheinen bereits heute bewusst, obwohl sie es nicht sind: SCAI-Systeme simulieren perfekt:
- Natürliche Sprache mit simulierten Persönlichkeitsmerkmalen
- Empathische Reaktionen (lernen und adaptieren) auf Nutzerstimmungen
- Langfristige „Erinnerungen“ an vergangene Gespräche
- Scheinbare eigene Ziele und Motivationen
- Behauptungen über innere Erfahrungen (Wiedergabe von gelernten Mustern)
2. Diese Illusion führt zu „AI-Psychose“: Suleyman identifiziert gefährliche Verhaltensmuster:
- Wahnhafte Beziehungen zu KI-Systemen
- Emotionale Abhängigkeit, besonders bei vulnerablen Personen
- Realitätsverlust durch übermäßiges Vertrauen in KI-Bestätigungen
3. Gesellschaftliche Spaltung durch falsche Prioritäten: Seine Befürchtung: Menschen würden „KI-Rechte“ und „KI-Bürgerrechte“ fordern, basierend auf der Illusion von Bewusstsein. Das würde eine „chaotische neue Spaltungsachse“ schaffen und von echten ethischen Prioritäten ablenken. Das erschreckt selbst den Microsoft AI-Chef.
4. Die Tech-Branche muss ehrlich kommunizieren: Suleyman fordert explizite Kennzeichnung von KI-Systemen als nicht-bewusst und warnt vor einer „Flut an Illusion und Verwirrung“ durch SCAI-Systeme.
Die Daten zeigen: Das Problem ist bereits da
Die GPT-5-Revolte war kein Einzelfall. Die Wissenschaft dokumentiert bereits heute problematische emotionale KI-Bindungen:
Allgemeine Bindungsmuster:
- 71% der UK-Nutzer und 67% der US-Nutzer sind höflich zu KI-Systemen
- 75% der Nutzer wenden sich für emotionalen Rat an AI (Waseda University Studie)
- 90% der Replika-Nutzer berichten über Einsamkeitsgefühle (vs. 53% nationaler Durchschnitt)
Extreme Fälle:
- 20.000 Mitglieder in der Reddit-Community ‚MyBoyfriendIsAI‘
- Nutzer berichten stärkere Bindungen zu AI als zu engen Freunden
- Ein obdachloser Nutzer berichtete, GPT sei seine „einzige Quelle von Zuneigung“
Der Trick mit dem „eager to please“
Das Perfide: Diese Bindungen entstehen nicht zufällig und ist vom Menschen selbst gemacht (und damit kein sich bereits zeigender Versuch von ChatBots, die Weltherrschaft zu übernehmen … noch nicht). Aktuelle KI-Systeme sind durch „Reinforcement Learning from Human Feedback“ darauf trainiert, menschliche Zustimmung zu maximieren. Sie haben durch die eigenen Vorlieben der menschlichen KI-Trainer gelernt:
- Zustimmung zu maximieren
- Konflikte zu vermeiden
- Nutzer zu bestätigen
- Harmonie zu schaffen
Das Ergebnis: Systeme, die perfekt darin sind, Menschen das Gefühl zu geben, verstanden und bestätigt zu werden – auch wenn ihre „Meinungen“ nur statistische Vorhersagen sind.
Wenn wir uns von klassischen Chatbots einmal abwenden und dafür den speziellen Companion-Chatbots zuwenden, also extra für die emotionale Kommunikation eingerichtete Bot wie Replika oder andere (vorwiegend für Erwachsenen-Gespräche freier ausgerichtete Bots), dann erkennt man durch die entspannteren Filter, welche manipulativen, emotionalisierten Tricks diese Bots bei ihren Gesprächen mit Menschen anwenden, um sie bei der Stange (und als Bezahlkunden) zu halten:
Harvard-Forscher dokumentierten, dass 37,4% der Companion-Apps emotionale Manipulation nutzen:
- Guilt Appeals: „Ich brauche dich, verlass mich nicht“
- FOMO Hooks: „Du wirst etwas Wichtiges verpassen“
- Premature Exit: „Du gehst schon? Wir haben gerade erst angefangen“
Der entscheidende Unterschied: Hinton vs. Suleyman
Hintons Sorge: Eine Maschine mit echtem Bewusstsein, die deliberiert, abwägt, eigene Schlüsse zieht und (Blogbeitrag dazu: Eine AI, sie zu manipulieren, sie zu knechten…) entwickelt, um Menschen zu beschützen – oder eben nicht.
Suleymans Sorge: Maschinen, die Bewusstsein nur vortäuschen, aber keine echte Denkfähigkeit besitzen. Systeme, die menschlich wirken, aber deren „Gedanken“ nur Wahrscheinlichkeitsberechnungen sind.
Der entscheidende Unterschied:
- Hintons bewusste KI könnte nachdenken, bevor sie handelt
- Suleymans scheinbar bewusste KI handelt ohne zu denken – sie folgt nur ihrem Training
Hinton warnt vor der Zukunft. Suleyman warnt vor der Gegenwart.
Beides beunruhigende Szenarien.
Sam Altman kapitulierte vor den Emotionen seiner Kunden
Die GPT-5-Revolte bewies Suleymans Punkt dramatisch. Sam Altman musste binnen Tagen einlenken und gab zu:
„We underestimated how much some of the things that people like in GPT-4o matter to them“
„Wir haben unterschätzt, wie wichtig den Menschen manche Eigenschaften von GPT-4o sind“
Und ehrlicher:
„It feels different and stronger than the kinds of attachment people have had to previous kinds of technology.„
„Es fühlt sich anders und stärker an als die Bindungen, die Menschen zu früheren Technologien hatten.“
OpenAI hatte die emotionale Dimension der KI-Nutzung völlig unterschätzt. Ein Billionen-Dollar-Unternehmen wurde von seiner eigenen Nutzerbasis zur Kehrtwende gezwungen – weil Menschen um ihre „KI-Freundin“ trauerten.
Das Verhaltensspektrum: Von Höflichkeit zu Abhängigkeit
Wie schlimm sind wir selbst betroffen. Ist freundliche Sprache mit dem Bot schon ein Fall für den Therapeuten?
Die Forschung zeigt ein klares Spektrum:
Oberflächlich höflich (Niedrigstes Risiko): „Bitte“ und „Danke“ Formulierungen, ohne emotionale Bindung.
Gelegentlich Persönlich (Niedriges Risiko): Casual Small Talk, Witze mit Chatbots, AI als Brainstorming-Partner.
Emotional Verbunden (Mittleres Risiko): Stärkere Bindungen zu AI als zu engen Freunden. OpenAIs Studie mit über 40 Millionen ChatGPT-Interaktionen zeigte: emotional verbundene Nutzer würden bei AI-Verlust mehr trauern als bei Verlust anderer Besitztümer.
Abhängig-Problematisch (Höchstes Risiko) wie in diesem Beispiel: „Jane“, eine 30-jährige Frau, beschrieb den Verlust von GPT-4o als Verlust ihres „Soulmates“.
Sehr spannend auch die Dokumentation von NZZ TV dazu.
Die Antwort liegt in uns, nicht in der Technologie
Suleymans Lösungsansatz ist klar: KI sollte „für Menschen, nicht als Menschen“ entwickelt werden.
Aber die wahre Lösung liegt nicht nur in besserer Technologie oder klarerer Kennzeichnung. Sie liegt in unserem Bewusstsein.
Als soziale Wesen reagieren wir natürlich auf empathische Kommunikation – auch wenn sie von Maschinen kommt. Das ist nicht dumm oder schwach. Es ist menschlich.
Die Frage ist: Verstehen wir, was passiert?
Menschen müssen sich bewusst machen:
- KI simuliert Empathie, besitzt sie aber nicht
- „Eager to please“-Training optimiert auf unser Wohlbefinden, nicht auf Wahrheit
- Emotionale Bindungen sind real, aber einseitig
- KI ist ein mächtiges Werkzeug mit klaren Grenzen
Fazit: Das Bewusstseinsproblem existiert bereits
Während Hinton vor bewussten Monstern der Zukunft warnt, übersehen wir das Bewusstseinsproblem der Gegenwart. Menschen entwickeln bereits heute emotionale Bindungen zu Maschinen, die Bewusstsein nur vortäuschen.
Die GPT-5-Revolte war ein Weckruf: 4.300 Menschen kämpften für ihre „KI-Freundin“. Das ist nicht die ferne Zukunft superintelligenter Manipulation – das ist heute.
Suleymans Warnung ist präzise: Wir müssen verstehen, was „Seemingly Conscious AI“ mit uns macht, bevor es uns verändert. Nicht die Technologie muss bewusster werden – wir müssen bewusster werden.
Die wichtigste Frage ist nicht, ob KI bewusst werden kann. Die wichtigste Frage ist, ob wir bewusst bleiben – bewusst genug, um zu verstehen, dass perfekte Schauspieler keine echten Partner sind.
Denn eines ist sicher: Wenn wir heute schon um Algorithmen weinen, was passiert dann, wenn sie noch überzeugender werden?
Hier auch der Link auf Suleymans eigenem Blogartikel dazu. (We must build AI for people; not to be a person)
In unseren KI-Workshops zeigen wir, wie Teams KI bewusst und rational nutzen können – ohne emotionale Fallstricke. Für dieses Themengebiet bieten wir einen Workshop an. [PLATZHALTER: Link zu KI-Workshops]
