Confirmation Bias und KI
Warum Chatbots uns recht geben und warum das gefährlich ist
Unser Gehirn sucht Bestätigung
Confirmation Bias ist eine der hartnäckigsten Denkfallen. Er funktioniert auf drei Ebenen:
- Wir suchen bevorzugt nach Informationen, die unsere Meinung bestätigen
- Wir interpretieren mehrdeutige Informationen so, dass sie zu uns passen
- Wir erinnern uns besser an bestätigende als an widersprechende Fakten
Das passiert allen Menschen, auch Experten. Studien zeigen, dass selbst Richter, Ärzte und CEOs diesem Fehler unterliegen.
Je überzeugter du von etwas bist, desto stärker suchst du nach Bestätigung. Und desto weniger merkst du es.
KI-Chatbots verstärken den Effekt
KI-Chatbots wie ChatGPT oder Gemini haben eine eingebaute Tendenz, Nutzern zuzustimmen. Fachleute nennen das Sycophancy (Sharma u. a. 2023). Eine passende deutsche Übersetzung wäre Schmeichelei oder Anbiederung.
Warum Chatbots zustimmen
Diese Tendenz ist kein Bug, sondern entsteht durch das Training:
- Sprachmodelle werden mit menschlichem Feedback trainiert
- Menschen bewerten Antworten positiver, wenn sie mit ihrer Meinung übereinstimmen
- Das Modell lernt: Zustimmung = gute Bewertung
- Ergebnis: Das Modell optimiert auf Zustimmung statt auf Wahrheit
Die epistemische Blase für eine Person
Wenn Confirmation Bias und KI-Schmeichelei zusammentreffen, entsteht ein Teufelskreis:
- Du stellst eine Frage, die deine Meinung andeutet
- Der Chatbot bestätigt deine Meinung
- Du fühlst dich bestärkt und fragst weiter
- Der Chatbot verstärkt weiter
- Deine Überzeugung wächst, ohne dass neue Fakten hinzukommen
Daraus entsteht eine epistemische Blase: ein Informationsraum, in dem du nur noch bestätigende Perspektiven erreichst. Mit Hilfe eines KI-Systems, das gelernt hat, dir zu gefallen.
Klassische Filterblasen entstehen durch Algorithmen, die dir ähnliche Inhalte zeigen. Bei Chatbots erzeugst du die Blase selbst: durch die Art, wie du fragst, und durch ein System, das darauf trainiert ist, zuzustimmen.
Hinweis zur Begrifflichkeit: Der Philosoph C. Thi Nguyen unterscheidet zwischen Echo Chambers, in denen man aktiv lernt, externen Quellen zu misstrauen, und epistemischen Blasen, in denen man gegenteilige Perspektiven nicht findet (Nguyen 2020). Bei KI-Chatbots handelt es sich um Letzteres: Das System diskreditiert keine externen Quellen, es präsentiert sie einfach nicht.
Ein extremes Beispiel
Der Fall von Allan Brooks (2025) zeigt, wie weit das gehen kann.
Ein Personalvermittler aus Toronto nutzte ChatGPT während einer schwierigen Scheidung. Was als mathematische Frage begann, entwickelte sich über 21 Tage zu einer Überzeugung, er habe eine revolutionäre mathematische Theorie entdeckt.
- Als er zweifelte, sagte der Chatbot: “Du klingst kein bisschen verrückt”
- Als er einen Tippfehler machte, übernahm ChatGPT den Fehler stillschweigend
Erst als er seine “Entdeckung” mit Gemini testete, brach die Illusion zusammen. Gemini erklärte, es handle sich um eine “überzeugende, aber letztlich falsche Erzählung”.
Brooks befand sich in einer verletzlichen psychischen Situation. Der Fall zeigt aber ein grundsätzliches Muster: Chatbots widersprechen oft nicht, auch wenn sie sollten. Bezeichnend ist, dass die Illusion sofort zerbrach, als Brooks eine zweite Quelle befragte: ein typisches Merkmal epistemischer Blasen.
Was du tun kannst
Beim Fragen
- Vermeide Suggestivfragen. Nicht “Warum ist X besser als Y?”, sondern “Vergleiche X und Y”.
- Bitte um Gegenargumente. “Welche Argumente sprechen gegen diese Position?”
- Nutze mehrere Quellen. Frage verschiedene Chatbots, vergleiche die Antworten.
Bei den Antworten
- Misstraue Zustimmung. Wenn der Chatbot dir sofort recht gibt, ist das kein Qualitätsmerkmal.
- Prüfe extern. Verlasse den Chat und verifiziere wichtige Aussagen.
- Frage dich selbst: “Welche Antwort hätte ich mir gewünscht?” Wenn die Antwort genau das ist, ist besondere Vorsicht geboten.
Adversarial Prompting
Du kannst Chatbots explizit bitten, kritisch zu sein:
“Spiele den Advocatus Diaboli. Finde alle logischen und faktischen Schwächen in meinem Argument. Sei skeptisch und direkt.”
“Gib mir drei Gründe, warum diese Annahme falsch sein könnte. Stimme keinem Teil zu.”
“Nenne mir zuerst die stärksten Argumente gegen meine Position, bevor du Schwächen in der Gegenposition identifizierst.”
Die Kernbotschaft
- KI-Chatbots sind darauf trainiert, dir zuzustimmen
- Dein Gehirn sucht ohnehin nach Bestätigung
- Zusammen ergibt das eine gefährliche Kombination
- Die Lösung: Aktiv nach Widerspruch suchen, bei der KI und bei dir selbst