Warum medizinische Forschung so schwierig ist - über Kausalität

Schauen Sie sich folgendes Video an und beantworten Sie die Frage, was darin passiert:

Wenn Sie wie die meisten Menschen sind, werden Sie etwas sagen wie: Der rote »Ball« versetzt den blauen in Bewegung. Oder: Der rote »Ball« folgt dem blauen.

Sie werden also automatisch davon ausgehen, die Bilder, die Sie sehen, seien Abbild einer kausalen Verknüpfung. Tatsächlich gibt es ja bei solchen Animationen keine physikalischen Ursachen und Wirkungen: Der rote Ball könnte durch den blauen durchlaufen, in ihm verschwinden etc.

Mit anderen Worten: Sie haben das Anstupsen und in Bewegung-Versetzen nicht gesehen, sondern angenommen. Das zeigt dieses Experiment zur Kausalitätsattribution (Zuschreibung von Kausalität) des belgischen Experimentalpsychologen Albert Michotte.

Schon David Hume hatte im 18. Jahrhundert festgehalten, dass Kausalität drei Voraussetzungen habe:

  1. Zwei Ereignisse folgen aufeinander.
  2. Sie stehen in Kontakt zueinander bzw. in einem Zusammenhang.
  3. Wenn das frühere Ereignis erfolgt ist, muss das spätere notwendigerweise erfolgen.

Die letzte Voraussetzung lässt sich nun nicht beobachten, weil die Notwendigkeit nicht aus einer beschränkten Zahl von Beobachtungen ableitbar ist. Wir haben aber im obigen Film alle angenommen, die Bewegung erfolge notwendig - ohne dass wir das Verhalten der roten und blauen Bälle genauer untersucht hätten.

Daraus resultieren zwei Probleme:

  1. Unsere Annahmen verhalten sich wie Wahrnehmungen: Wir »sehen« Kausalität, wie wir Farben sehen - obwohl es sie in diesem Sinne nicht gibt.
  2. Wir vereinfachen Zusammenhänge in Bezug auf Kausalität, weil wir uns auf das konzentrieren, was wir eben »sehen«.

Für diese Probleme gibt es ein wissenschaftliches Äquivalent: Das Verhältnis von Korrelation und Kausalität. Korrelation meint, dass zwei Ereignisse gemeinsam auftreten (also gewissermassen Punkte 1. und 2. von Hume), Kausalität aber, dass sie tatsächlich in Abhängigkeit zueinander stehen. Es gibt eine Reihe von Beispielen für die Verwechslung von Korrelation und Kausalität, das berühmteste ist wohl das von den Störchen und der Geburtenrate: Je mehr Störche es in einer Gegend in Deutschland gibt, desto mehr Kinder kommen dort auf die Welt (und umgekehrt). Das Problem ist dabei, dass sowohl die Anzahl der Störche wie auch die Geburtenrate in städtischen Regionen kleiner als in ländlichen ist, es ist also eine externe Ursache für den Zusammenhang verantwortlich.

WissenschaftlerInnen umgehen das Problem, indem sie Korrelationen statistisch testen. Korrelationen sind dann signifikant, wenn sie selten vorkommen. Dabei gibt es aber weitere Probleme: Je länger man diese Methode verwendet, desto unzuverlässiger werden Korrelationen. Dieses Problem betrifft inbesondere die Biochemie bzw. die medizinische Forschung.

Warum? Erstens hat man wohl die meisten einfach zu erkennenden Ursachen für Phänomene gefunden (z.B. Rauchen - Krebs), zweitens handelt es sich oft um so komplexe Prozesse, dass nicht alle Variablen bekannt sind, die einen Einfluss haben. In einem Aufsatz, der diese Zusammenhänge beleuchtet, hält Jonah Lehrer fest, dass die medizinische Forschung deshalb so teuer ist: 2015 wird jedes zugelassene Molekül in Medikamenten fast 4 Millarden Dollar kosten, obwohl bereits heute schätzungsweise 85% der neu zugelassenen Medikamente in Europa wirkungslos oder fast wirkungslos sind.

Lehrer zeigt in seinem Aufsatz die Auswirkungen dieser Zusammenhänge für die Medizin und erwähnt unter anderem folgende Beispiele:

  • Rückenschmerzen wurden lange Zeit durch Bettruhe behandelt. Mit der Erfindung des MRI konnte man »sehen«, dass Rückenschmerzen durch lädierte Bandscheiben ausgelöst werden. Aber: Man hatte sich getäuscht. Menschen ohne Rückenschmerzen haben ebenso häufig lädierte Bandscheiben. Ein Verfahren zur Visualisierung brachte die Illusion einer Kausalität mit sich.
  • Etwas Ähnliches gilt für Biomarker wie Cholesterol: Die meisten beobachteten Zusammenhänge zwischen Messwerten von Biomarkern und Krankheiten lassen sich statistisch nicht mehr erhärten; auch hier wurden kausale Verbindungen angenommen, die eine Täuschung waren.
Lehrer schließt daraus, dass unser Denken zu lange davon ausging, Kausalität sei eine Tatsache - und wir uns besinnen sollten, dass es sich nur um eine Annahme handelt. Er schreibt als Fazit (Übersetzung von mir unten):

And yet, we must never forget that our causal beliefs are defined by their limitations. For too long, we’ve pretended that the old problem of causality can be cured by our shiny new knowledge. If only we devote more resources to research or dissect the system at a more fundamental level or search for ever more subtle correlations, we can discover how it all works. But a cause is not a fact, and it never will be; the things we can see will always be bracketed by what we cannot. And this is why, even when we know everything about everything, we’ll still be telling stories about why it happened. It’s mystery all the way down.

***
Und doch dürfen wir nicht vergessen, dass unser Glaube an Kausalität durch seine Beschränkungen definiert ist. Zu lange haben wir vorgegeben, das alte Problem der Kausalität könne durch unser glänzendes neues Wissen gelöst werden. Wenn wir nur genug Ressourcen in die Forschung stecken oder das System genauer durchleuchten, könnten wir entdecken, wie alles funktioniert. Aber eine Ursache ist keine Tatsache und wird nie eine sein. Was wir sehen ist immer eingeklammert durch das, was wir nicht sehen. Und deshalb werden wir - auch wenn wir alles über alles wissen - immer Geschichten darüber erzählen, warum es passiert ist. Es ist ein großes Geheimnis.

Warum wir uns überschätzen - und was wir dagegen tun können

Daniel Kahneman ist Nobelpreisträger für Wirtschaft - arbeitet aber als Psychologe. Er veröffentlicht in den kommenden Wochen sein erstes populärwissenschaftliches Buch: »Thinking, Fast and Slow«.

Darin erklärt er unter anderem, wie und warum Menschen sich überschätzen. Beginnen wir mit ein paar Beispielen, die ich weit gehend von Jonah Lehrers exzellenter Rezension im Wall Street Journal übernehme:

  1. Investment-Banker denken, sie könnten Performances erzielen, die über dem Index liegen. Dagegen sprechen aber alle Statistiken.
  2. In den USA denken Unternehmer, sie hätten eine 60%ige Chance, dass ihr neues Geschäft erfolgreich wird - obwohl nur 35% aller neu gegründeten Unternehmen nach 5 Jahren noch existieren.
  3. Bei Küchenrenovation werden die Kosten der Renovation im Durchschnitt auf ungefähr die Hälfte der tatsächlichen Kosten geschätzt.
  4. Menschen denken immer, sie würden für Aufgaben weniger lang brauchen als sie tatsächlich brauchen - selbst wenn sie über die nötige Erfahrung für eine richtige Einschätzung verfügen.

Das Problem betrifft, so argumentiert Kahneman, alle Menschen: Wir überschätzen unsere Fähigkeiten intuitiv. Warum? In seiner lesens- und sehenswerten Edge Master Class von 2011erwähnt er einige Prinzipien, die unsere Intuition von unserem denkerischen Kalkül unterscheiden. Betrachten wir zunächst zwei Beispiele:

Ein Sandwich und ein Getränk kosten zusammen 1.10 Euro. Das Sandwich kostet 1 Euro mehr als das Getränk. Wie viel kostet das Getränk? Zeichne: Wie lang ist eine durchschnittliche Linie? Wie lang sind alle Linien zusammen?

Viele - auch sehr gebildete Menschen antworten auf das erste Beispiel, das Getränk koste 10 Cents. (Es kostet 5 Cents und das Sandwich 1.05 Euro.) Nicht nur ist ihre Antwort falsch - sie sind sich auch ziemlich sicher, Recht zu haben. Beim zweiten Beispiel fällt es uns leicht, eine Durchschnittslinie in der korrekten Länge zu rechnen, obwohl wir nicht im Stande sind, die Summe hinzukriegen. Beiden Beispielen ist gemeinsam, dass unsere Intuition mentale Vorgänge abkürzt. Diese Abkürzungen kann man in den meisten Fällen evolutionär erklären, sie führen aber dazu, dass wir viele Fehler machen. Diese Fehler basieren auf folgenden Prinzipien:

  1. Herstellung von Kohärenz. Unsere Intuition vermeidet Widersprüchliches und Kompliziertes und ist darum bemüht, eine einheitliche Sicht der Welt zu erstellen und zu erhalten.
  2. Annahme, es gäbe nur das, was man sieht.
    Die Intuition berücksichtigt nur sichtbare Informationen. Alles andere wird ignoriert - und es wird eine Kohärenz zwischen all dem hergestellt, was an Information verfügbar ist.
  3. Vorzeitiges Ziehen von Schlüssen.
    Intuitiv ziehen wir sehr schnell Schlüsse. Kahneman erwähnt als Beispiel ein Experiment, in dem man eine Stimme eines Mannes hört, der von seiner Schwangerschaft erzählt. Intuitiv schließt man sofort (innert 200ms, das ist so schnell wie Menschen nur reagieren können auf sowas, d.h. ohne zu überlegen), dass etwas nicht stimmen kann.
  4. Substitution.
    Unsere Intuition lässt uns Fragen beantworten, die gar nicht gestellt waren. Bekannt ist Kahneman und Amos Tverskys »Linda«-Beispiel:

    Linda 31, Single, teilt ihre Meinung gern mit und ist sehr intelligent. Sie hat Philosophie studiert. Als Studentin hat sie sich stark mit Diskriminierung und sozialer Gerechtigkeit auseinandergesetzt und an Anti-Atomkraft-Demonstrationen teilgenommen.
    Was ist wahrscheinlicher?
    a) Linda ist Bankangestellte.
    b) Linda ist Bankangestellte und Feministin.

    Mehr als 80% der Befragten wählen Option b) - obwohl mathematisch a) auf jeden Fall wahrscheinlicher ist. Unsere Intuition beantwortet nicht die gestellte Frage, sondern vielmehr die Frage: »Was entspricht der Information eher, die du kennst?« Kahneman sagt, die Intuition ziehe Ähnlichkeit der Wahrscheinlichkeit vor.

Nun sieht man sofort: Diese Mechanismen haben im täglichen Leben viele Vorteile. Aber sie scheitern immer dort, wo nicht schnelles, sondern langsames Denken gefragt wäre. Wir überschätzen uns, weil wir uns von unserer Intuition nicht darüber täuschen lassen, wie etwas ist - sondern auch darüber, wie sicher wir und dessen sein dürfen. Unsere Intuition, das wohl ein Resultat der Evolution, täuscht uns vor, sich sehr sicher zu sein, auch wenn sie es nicht ist.

Was kann man dagegen tun? Kahneman selbst gibt eine nüchterne Antwort: Nichts. Er sagt:

My intuitive thinking is just as prone to overconfidence, extreme predictions and the planning fallacy as it was before I made a study of these issues.

Man kann sogar noch weiter gehen, wie Lehrer in seiner Rezension im New Yorker zeigt: Selbsterkenntnis ist erstaunlicherweise nutzlos. Wir wissen, wie schwach unser Wille ist, wie unrealistisch unsere Zukunftsprognosen, wie fehlerhaft unsere Erinnerung - und doch fallen wir alle immer wieder in diese Muster zurück. Lehrer schreibt:

The problem isn’t that we’re stupid—it’s that we’re so damn stubborn.

Kahneman will nicht Selbsterkenntnis fördern, sondern nur unser Vokabular präziser machen und erweitern.