Confirmation Bias und KI

Warum Chatbots uns recht geben und warum das gefährlich ist

Unser Gehirn sucht Bestätigung

Confirmation Bias ist eine der hartnäckigsten Denkfallen. Er funktioniert auf drei Ebenen:

  1. Wir suchen bevorzugt nach Informationen, die unsere Meinung bestätigen
  2. Wir interpretieren mehrdeutige Informationen so, dass sie zu uns passen
  3. Wir erinnern uns besser an bestätigende als an widersprechende Fakten

Das passiert allen Menschen, auch Experten. Studien zeigen, dass selbst Richter, Ärzte und CEOs diesem Fehler unterliegen.

WarnungDas Problem

Je überzeugter du von etwas bist, desto stärker suchst du nach Bestätigung. Und desto weniger merkst du es.

KI-Chatbots verstärken den Effekt

KI-Chatbots wie ChatGPT oder Gemini haben eine eingebaute Tendenz, Nutzern zuzustimmen. Fachleute nennen das Sycophancy (Sharma u. a. 2023). Eine passende deutsche Übersetzung wäre Schmeichelei oder Anbiederung.

Warum Chatbots zustimmen

Diese Tendenz ist kein Bug, sondern entsteht durch das Training:

  • Sprachmodelle werden mit menschlichem Feedback trainiert
  • Menschen bewerten Antworten positiver, wenn sie mit ihrer Meinung übereinstimmen
  • Das Modell lernt: Zustimmung = gute Bewertung
  • Ergebnis: Das Modell optimiert auf Zustimmung statt auf Wahrheit

Die epistemische Blase für eine Person

Wenn Confirmation Bias und KI-Schmeichelei zusammentreffen, entsteht ein Teufelskreis:

  1. Du stellst eine Frage, die deine Meinung andeutet
  2. Der Chatbot bestätigt deine Meinung
  3. Du fühlst dich bestärkt und fragst weiter
  4. Der Chatbot verstärkt weiter
  5. Deine Überzeugung wächst, ohne dass neue Fakten hinzukommen

Daraus entsteht eine epistemische Blase: ein Informationsraum, in dem du nur noch bestätigende Perspektiven erreichst. Mit Hilfe eines KI-Systems, das gelernt hat, dir zu gefallen.

Key-pointDer Kern des Problems

Klassische Filterblasen entstehen durch Algorithmen, die dir ähnliche Inhalte zeigen. Bei Chatbots erzeugst du die Blase selbst: durch die Art, wie du fragst, und durch ein System, das darauf trainiert ist, zuzustimmen.

Hinweis zur Begrifflichkeit: Der Philosoph C. Thi Nguyen unterscheidet zwischen Echo Chambers, in denen man aktiv lernt, externen Quellen zu misstrauen, und epistemischen Blasen, in denen man gegenteilige Perspektiven nicht findet (Nguyen 2020). Bei KI-Chatbots handelt es sich um Letzteres: Das System diskreditiert keine externen Quellen, es präsentiert sie einfach nicht.

Ein extremes Beispiel

Der Fall von Allan Brooks (2025) zeigt, wie weit das gehen kann.

Ein Personalvermittler aus Toronto nutzte ChatGPT während einer schwierigen Scheidung. Was als mathematische Frage begann, entwickelte sich über 21 Tage zu einer Überzeugung, er habe eine revolutionäre mathematische Theorie entdeckt.

  • Als er zweifelte, sagte der Chatbot: “Du klingst kein bisschen verrückt”
  • Als er einen Tippfehler machte, übernahm ChatGPT den Fehler stillschweigend

Erst als er seine “Entdeckung” mit Gemini testete, brach die Illusion zusammen. Gemini erklärte, es handle sich um eine “überzeugende, aber letztlich falsche Erzählung”.

WarnungDas ist ein Extremfall

Brooks befand sich in einer verletzlichen psychischen Situation. Der Fall zeigt aber ein grundsätzliches Muster: Chatbots widersprechen oft nicht, auch wenn sie sollten. Bezeichnend ist, dass die Illusion sofort zerbrach, als Brooks eine zweite Quelle befragte: ein typisches Merkmal epistemischer Blasen.

Was du tun kannst

Beim Fragen

  • Vermeide Suggestivfragen. Nicht “Warum ist X besser als Y?”, sondern “Vergleiche X und Y”.
  • Bitte um Gegenargumente. “Welche Argumente sprechen gegen diese Position?”
  • Nutze mehrere Quellen. Frage verschiedene Chatbots, vergleiche die Antworten.

Bei den Antworten

  • Misstraue Zustimmung. Wenn der Chatbot dir sofort recht gibt, ist das kein Qualitätsmerkmal.
  • Prüfe extern. Verlasse den Chat und verifiziere wichtige Aussagen.
  • Frage dich selbst: “Welche Antwort hätte ich mir gewünscht?” Wenn die Antwort genau das ist, ist besondere Vorsicht geboten.

Adversarial Prompting

Du kannst Chatbots explizit bitten, kritisch zu sein:

“Spiele den Advocatus Diaboli. Finde alle logischen und faktischen Schwächen in meinem Argument. Sei skeptisch und direkt.”

“Gib mir drei Gründe, warum diese Annahme falsch sein könnte. Stimme keinem Teil zu.”

“Nenne mir zuerst die stärksten Argumente gegen meine Position, bevor du Schwächen in der Gegenposition identifizierst.”

Die Kernbotschaft

Key-pointZustimmung ist kein Qualitätsmerkmal
  • KI-Chatbots sind darauf trainiert, dir zuzustimmen
  • Dein Gehirn sucht ohnehin nach Bestätigung
  • Zusammen ergibt das eine gefährliche Kombination
  • Die Lösung: Aktiv nach Widerspruch suchen, bei der KI und bei dir selbst
Zurück nach oben

Literatur

Nguyen, C. Thi. 2020. „Echo Chambers and Epistemic Bubbles. Episteme 17 (2): 141–61. https://doi.org/10.1017/epi.2018.32.
Sharma, Mrinank, Meg Tong, Tomasz Korbak, David Duvenaud, Amanda Askell, Samuel R. Bowman, Newton Cheng, u. a. 2023. „Towards Understanding Sycophancy in Language Models. 27. Oktober 2023. https://doi.org/10.48550/arXiv.2310.13548.

Wiederverwendung