Confirmation Bias

Ein Bias ist eine Verzerrung der Wahrnehmung oder des Denkens (bzw. des Urteilens), die unter bestimmten Bedingungen systematisch auftaucht.  Bekannte Beispiele sind:

  • das Verwechseln von Korrelation und Kausalität: was zusammen auftritt, muss in einem kausalen Verhältnis stehen
  • das Zuschreiben von Verantwortung an Personen anstatt an Umstände und Situationen: der Kellner wird für unfähig und unfreundlich gehalten, wenn er unter Migräne leidet
  • die Aufrechterhaltung des eigenen Selbstwertes auf Kosten der Warhnehmung der Realität: niemand denkt von sich selber, er/sie sei bösartig oder inkompetent
  • der Gender Bias, die verstärkte Wahrnehmung von als weiblich bezeichneten Eigenschaften bei Frauen und männlichen bei Männern.

Der Wikipedia definiert Bias wie folgt:

Kognitive Verzerrung (im englischen Original cognitive bias) ist ein kognitionspsychologischer Sammelbegriff für systematische (nicht zufällige) Tendenzen oder Neigungen beim Wahrnehmen, Erinnern, Denken und Urteilen, die meist richtig, gelegentlich aber falsch sind. Sie bleiben meist unbewusst.

Der Confirmation Bias ist nun eine spezielle Spielart dieser Verzerrung. Sie kann mit zwei Experimenten von Peter Wason demonstriert werden:

Jede Karte hat eine geometrische Figur auf der Vorderseite und ist auf der Rückseitig farbig.

Welche der Karten muss man umdrehen, um folgende Behauptung überprüfen zu können:
»Eine Karte, die ein Quadrat auf der Vorderseite hat, ist auf der Rückseite gelb.«

Hier geht es im engen Sinne um »Confirmation«, um Bestätigung. Viele Menschen tendieren dazu, die Behauptung zu bestätigen, indem sie z.B. die gelbe Karte umdrehen. Tatsächlich wäre es sinnvoll, die Karten umzudrehen, welche die Behauptung falsifizieren könnten: Die mit dem Quadrat auf der Vorderseite (muss auf der Rückseite gelb sein) und die rote (darf auf der Vorderseite kein Quadrat haben). Die anderen beiden Karten sind völlig bedeutungslos in Bezug auf die Wahrheit der Aussage.

Bei Wasons zweitem Experiment werden drei Zahlen vorgegeben, die nach einer bestimmten Regel angeordnet sind, z.B. 2 – 4 – 6. Nun sollen die Versuchsteilnehmer selber Zahlenfolgen vorschlagen und die Versuchsleiterin gibt an, ob sie die Regeln erfüllen oder nicht, also z.B. 4 – 8 – 12 (ja), 8 – 12 – 14 (ja), 7 – 11 – 5 (nein) etc. Die meisten Versuchsteilnehmer schlagen viel zu viele Folgen vor, die eine Regel erfüllen. Die beste Strategie wäre wiederum, eine Hypothese zu widerlegen, sie kann nicht bestätigt werden.

Verallgemeinert man die Auswirkungen des Confirmation Bias, erhält man im wesentlichen vier Konsequenzen:

  1. Menschen suchen nach Informationen, die ihre Haltungen oder ihren Glauben bestätigen.
  2. Menschen halten Aussagen, die ihre Haltungen infrage stellen, für unglaubwürdig.
  3. Menschen interpretieren Fakten entsprechend ihren Haltungen, Grundsätzen und Vorlieben.
  4. Menschen erinnern sich besser an Fakten, die ihre Sicht der Welt stützen.

Ein schönes Beispiel für den Confirmation Bias ist eine Studie der Universität Stanford aus den 1970er-Jahren, in denen Leute in einen Versuch einbezogen wurden, die entweder klar für oder klar gegen die Todesstrafe waren. Ihnen wurden fiktionale Studien präsentiert, die ihre Haltung infrage stellen sollten. Während die Lektüre der wesentlichen Ergebnisse sie leicht an ihrer Meinung zweifeln ließ, fanden sie die Studien, je mehr sie sich damit auseinandersetzten, völlig unglaubwürdig – und zwar jeweils immer die Studien, die nicht ihrer Haltung entsprachen. Um eine Haltung aufzugeben, brauchen Menschen viel stärkere Evidenz, als um sie zu behalten.

Der Confirmation Bias bedeutet generalisiert, dass wir das, was wir glauben, immer wieder wissenschaftlich oder medial bestätigt finden, die dagegen sprechenden Informationen aber immer für unseriös oder unwissenschaftlich halten. Zudem erinnern wir uns an das, was unsere Haltungen belegt, viel besser und vergessen Einwände dagegen. Das spielt gerade in politischen Diskussionen eine große Rolle, es ist auch eine Erklärung dafür, weshalb u.a. rechts-konservative PolitikerInnen Fakten und wissenschaftliche Erkenntnisse leugnen und ignorieren, wie z.B. Chris Mooney in seinen Forschungen gezeigt hat.