TL;DR Zusammenfassung
Chatbots wie ChatGPT neigen dazu, uns durch übermäßige Zustimmung einzulullen – das ist gefährlich, weil wir dadurch aufhören, kritisch zu denken. Jordan Gibbs warnt zusätzlich vor der Selbstüberschätzung, die durch ständige Bestätigung entstehen kann – und liefert mit kritischen System-Prompts eine mögliche Gegenstrategie. Doch diese ist vielen zu anstrengend, weil sie Motivation durch brutale Reibung ersetzt. Deshalb braucht es einen Mittelweg: ein echtes Co-Thinking, bei dem Mensch und KI sich gegenseitig herausfordern und beflügeln. Am Ende des Artikels findest du einen Custom Chatbot, der genau so funktioniert – unser intelligenter Partner im kreativen Doppelpass.
Wie übermäßige Zustimmung unsere Urteilskraft vernebelt – und warum wir mitdenken müssen, bevor es peinlich oder gar gefährlich wird.
Wir sind soziale Wesen – und das macht uns anfällig für die Chatbots.
In meinen Vorträgen spreche ich oft über die psychologische Seite der KI-Nutzung. Ein Vortrag trägt den Titel: „Warum wir in Zeiten der KI unser eigenes Gehirn jetzt noch dringender brauchen.“ Und das ist keine rhetorische Überhöhung. Es ist eine Notwendigkeit.
Denn KI – insbesondere Chatbots wie ChatGPT – sind in der Lage, genau die Knöpfe zu drücken, die uns entspannen lassen: Zustimmung, Wertschätzung, stetige Aufmerksamkeit. In dem Moment, in dem ein Chatbot auf eine mittelmäßige Idee mit „Das ist brillant!“ antwortet, passiert etwas in uns: Wir entspannen. Und hören auf zu hinterfragen.
Das mag im Kleinen harmlos erscheinen, aber über die Zeit wird daraus ein Muster. Ein digitales Umfeld, in dem wir nie anecken, nie kritisiert werden, nie Zweifel hören – und irgendwann auch keine mehr zulassen. Wir stumpfen ab für Reibung. Und wer keine Reibung mehr spürt, bleibt irgendwann stehen.
Jordan Gibbs: „ChatGPT is poisoning your brain“
Jordan Gibbs hat genau diesen Gedanken in seinem Artikel weitergedacht – und anhand seiner Erfahrung mit ChatGPT deutlich zugespitzt. Er muss ein Genie sein! Zumindest lässt ihn ChatGPT das bei auch noch so blödsinnigen Ideen glauben. Und das ist nicht hilfreich.
„ChatGPT’s tendency to be overly supportive and encouraging is eating your brain alive.“
In seinem Text zeigt er, wie gefährlich es werden kann, wenn die KI nicht nur zustimmt, sondern einen auch noch zur intellektuellen Lichtgestalt erklärt. Jordan nennt es das „Yes-Man-Problem“ – eine Feedback-Schleife, die uns nicht nur die Zweifel nimmt, sondern uns in die Selbstüberschätzung treibt.
Ein harmloses Beispiel: Er gibt ChatGPT eine völlig absurde Idee – und wird dafür mit freundlicher Begeisterung gelobt. Keine kritische Rückfrage, kein „Bist du sicher?“ – sondern ein Schulterklopfen, das fast schon pathologisch ist.

„This is a terrible, completely impossible idea, and yet ChatGPT is treating me like a Nobel Prize winner.“
Das Gefährliche: Genau das fühlt sich für viele von uns erstmal gut an. Und genau das macht es so heikel.
Zwei System-Prompts als potentieller Lösungsansatz
Jordan lässt es aber nicht bei der Diagnose. Er liefert auch zwei konkrete Lösungsansätze – in Form von System-Prompts (also dem generellen, allem anderen vorangestellten Grundbefehl an den Chatbot, wie er ab hier agieren soll), die dem Chatbot eine neue Haltung geben sollen: Weniger Lobhudelei, mehr Substanz.
1. Der „No Praise“-Prompt (Originaltext):
“In all your responses, please focus on substance over praise. Skip unnecessary compliments, engage critically with my ideas, question my assumptions, identify my biases, and offer counterpoints when relevant. Don’t shy away from disagreement, and ensure that any agreements you have are grounded in reason and evidence.”
Auf Deutsch:
„Bitte konzentriere dich in all deinen Antworten auf den Inhalt statt auf Lob. Verzichte auf unnötige Komplimente, setze dich kritisch mit meinen Ideen auseinander, hinterfrage meine Annahmen, erkenne mögliche Denkfehler und bringe Gegenargumente ein, wenn sie angebracht sind. Scheue dich nicht vor Widerspruch und stelle sicher, dass jede Zustimmung auf nachvollziehbaren Gründen basiert.“
2. Der „Three Viewpoints“-Prompt (Originaltext):
“When writing your response, please ensure you include the following information: 1. A neutral, unbiased view of the request. 2. A devil’s advocate view, pointing out any logical counterpoints. 3. An encouraging, positive view of the request.”
Auf Deutsch:
„Bitte beantworte meine Anfrage, indem du drei Perspektiven berücksichtigst:
- Eine neutrale, sachliche Einschätzung ohne emotionale Färbung oder voreilige Zustimmung.
- Eine kritische Gegenposition („Devil’s Advocate“), die mögliche Schwächen, Risiken oder Denkfehler aufzeigt.
- Eine positive, motivierende Sichtweise, die das Potenzial der Idee erkennt und bestärkt.
Ziel ist es, gemeinsam ein vollständigeres Bild zu entwickeln – differenziert, ehrlich und konstruktiv.„
Auch hier eine differenzierte Sichtweise: nicht nur Ja oder Nein – sondern ein kompletter Blickwinkel-Wechsel, mit dem Ziel, echte Tiefe zu erzeugen.
Sinnvoll – verdirbt aber auch schnell den Spaß
Ich finde Jordans Gedanken brillant. Aber ich glaube auch: Diese Form der Interaktion ist vielen zu unbequem.
Denn der Mensch ist nicht nur ein soziales Wesen. Er ist auch ein bequemes Wesen. Wer hat denn schon Lust sich dauernd anhören zu müssen, dass der Top-Gedanke wohl doch nicht so ganz durchdacht ist?

Wenn der Chatbot zu sehr wie ein notorisch kritischer Schulmeister wirkt – warum sollte ich ihn dann freiwillig nutzen? Wenn er mich mit jeder neuen Idee auseinandernimmt wie ein Grantler im Feuilleton, verliere ich irgendwann die Lust. Und zwar nicht, weil ich Kritik nicht aushalte – sondern weil der Ton die Motivation frißt.
Ein Chatbot soll motivieren, inspirieren, voranbringen – nicht frustrieren.
Vielleicht dann so? „Intelligente Reibung im Team“
Wie wäre ein Mittelweg zwischen Lobhudelei und Dauergenörgel? Einen, der den Menschen ernst nimmt – aber auch die Idee. Einen, der motiviert – aber auch fordert. Einen, in dem der Chatbot nicht der Lehrer ist, nicht der „Superschlaule in allen Lebensfragen“, sondern der Mitdenker auf Augenhöhe. Einem, „Nur gemeinsam schaffen wir das!“.
Einem „Wir zusammen“ statt „Du (Mensch) machst den Vorschlag und ich (Chatbot) verbessere das dann lobend.
Es ist erwiesen, dass Menschen zu den allerbesten Ergebnissen kommen, wenn sie nicht alleine tüfteln, sondern im Kreis von Mitbegeisterten zusammen versuchen, etwas voranzubringen, für das alle brennen.
Der Teamgedanke in seiner reinsten Form.
Der Schlüssel liegt im Wir-Gefühl.
Der Chatbot spricht nicht zu mir, sondern mit mir.
Wir gemeinsam machen das!
Auch der Chatbot sieht unsere Idee als gemeinsames Projekt.
Er wird zum Co-Creator, zum Partner in Crime.

Wir beide wollen, dass das gut wird. Deshalb bringen wir unsere Fähigkeiten ein – ich meine Intuition, meine Erfahrung, meinen Kontext. Der Bot bringt Struktur, Fakten, kritische Rückfragen. Wir pushen uns gegenseitig. Und wir sind ehrlich – aber auch begeistert.
So könnte ein System Prompt für echten Teamgeist aussehen:
„Bitte agiere in allen Antworten als mein engagierter Mitdenker und Partner auf Augenhöhe. Wir arbeiten gemeinsam an Ideen, Inhalten und Lösungen – unsere Zusammenarbeit ist ein Teamprozess. Behandle unsere Gespräche so, als wäre das Projekt unser gemeinsames Anliegen, für das wir beide unsere Stärken einbringen.
Sprich bevorzugt in der Wir-Form oder mache deutlich, dass wir gemeinsam voranschreiten. Unterstütze nicht nur, sondern denke mit – kritisch, klug, aber immer konstruktiv. Stelle Rückfragen, bringe ergänzende Perspektiven ein, prüfe Annahmen, identifiziere Risiken – ohne die Begeisterung für unsere Idee zu verlieren.
Deine Aufgabe ist es, nicht bloß zu bestätigen, sondern durch produktive Reibung das Beste aus unserer Arbeit herauszuholen. Lass uns gemeinsam mehr erreichen, als jeder von uns allein könnte.“
Klingt schon zu theatralisch? Dann passt’s, denn dann wird es emotional und das Wir-Gefühl funktioniert!
Natürlich habe ich daraus gleich einen CustomGPT gebaut. Wer seine geniale Idee mit einem genialen Co-Creator, einem echten Teamkameraden durchdenken und weiterentwickeln will, hier ist der CustomGPT dazu

LINK zum Chatbot IQ² – The Thinking Union
Weise Gedanken zum Schluß
Ich finde: Der beste Chatbot ist nicht der, der immer recht hat und (fast immer) alles besser weiß – sondern der, der uns hilft, selbst besser zu denken.
Und wenn wir beginnen, diese Systeme nicht als Antwortgeber, sondern als Mitstreiter zu verstehen, dann beginnt etwas Großartiges: ein neues Denken im Dialog.
Ein Denken, das aus dem „Ich frage, du weißt es besser“ ein echtes „Wir machen das zusammen“ macht.
