Erkenne die Grenzen deines Wissens
„Knowing Our Limits“ ist der Titel eines Buchs des Philosophen Nathan Ballantyne, auf den ich durch ein Interview im Forbes-Mazagin aufmerksam wurde. Der Aufhänger des Interviews war die Beobachtung, dass viele Leute sich öffentlich und mit klaren Meinungen zur COVID-Pandemie äußern, deren Expertise auf ganz anderen Gebieten als der Virologie oder Epidemiologie liegt. Wenn man Experte auf einem Gebiet ist und vielleicht gar Professorin, heißt das noch nicht, das man auch zu anderen Themen gut fundierte Bewertungen abgeben kann.
In seinem Buch geht Nathan Ballantyne der Frage nach, wie wir erkennen können, wo die Grenzen unseres Wissens liegen und wann unsere Überzeugungen nicht wirklich gut begründet sind. Er schreibt für eine allgemeine Leserschaft, doch man muss sich an vielen Stellen gut konzentrieren, um seinen tiefgehenden philosophischen Überlegungen zu folgen. Als Belohnung bekommt man viele gute Gedankenanregungen und lernt interessante Anekdoten, Zitate und Ergebnisse wissenschaftlicher Studien kennen.
Den Kern seines Buchs bilden fünf Kapitel, in denen fünf Wege erklärt werden, auf denen wir mehr Selbsterkenntnis in Bezug auf unser eigenes Wissen oder Unwissen gewinnen können. Diese möchte ich im Folgenden vorstellen:
-
Unseren Blinden Fleck beim Thema „Voreingenommenheit“ entdecken: Wir alle kennen die Situation, dass jemand, den wir für intelligent und gebildet halten, unserer Meinung widerspricht. Nicht selten hat eine solche Person sogar mehr Wissen als wir zu dem Thema, um das es geht. Dennoch lehnen wir oft das Urteil unseres Gegenübers ab und begründen das vor uns selbst damit, dass diese Person voreingenommen ist oder aus unlauteren Motiven so denkt, wie sie denkt. Wenn die Mutter ihr Kind für das klügste in der Klasse hält, ist das in unseren Augen Wunschdenken, und wenn ein Politiker gegen ein Tempolimit auf Autobahnen ist, schreiben wir das dem starken Einfluss der Autolobby zu. Was uns hierbei stutzig machen sollte ist, dass wir uns selbst im Allgemeinen für viel weniger voreingenommen halten als unsere Gegenüber. Studien zeigen, dass wir unsere eigene Voreingenommenheit unterschätzen und die der anderen überschätzen. Wir sind „naive Realisten“, die meinen, die Dinge seien so, wie wir sie wahrnehmen. Was können wir tun, um unsere eigene Voreingenommenheit besser zu durchschauen? Wir können andere Leute fragen, wo sie bei uns Voreingenommenheit wahrnehmen. Oder wir können uns selbst beobachten, denn unser Verhalten verrät unsere Voreingenommenheit: Fallen wir dem anderen ins Wort, bevor er ausgeredet hat, weil wir schon wissen, dass wir anderer Meinung sind? Hören wir wirklich hin, was die Argumente des anderen sind? Halten wir es erst gar nicht für nötig, ein uns empfohlenes Buch zu lesen, weil die Autorin der falschen Partei oder Religionsgemeinschaft angehört?
-
Erkennen, welche Gegenargumente es gegen unsere Position gibt: Von dem griechischen Philosophen Sokrates wird überliefert, dass er auf den Straßen und Plätzen Athens umherging und beliebige Vorübergehende anredete. Er stellte sich, als würde er nichts wissen, und stellte seinem Gegenüber viele Fragen. Indem er immer weiter nachhakte, trieb er seine Gesprächspartner regelmäßig in die Enge, bis sie schließlich zugeben mussten, dass es mit ihrem Wissen nicht weit her ist. Wir kennen vielleicht Zeitgenossen, die ähnlich scharfsinnig nachfragen. Um zu erspüren, wie solide unsere Überzeugungen sind, können wir uns in Gedanken einen solchen Zeitgenossen oder gar Sokrates selbst vorstellen, wie er unsere Meinung hinterfragt. Würde er Argumente oder Fragen finden, die uns verunsichern? Halten wir für denkbar, dass er neue Facetten des Themas aufzeigt, die wir bisher nicht wahrgenommen haben? Als ich in den 1990er Jahren zwei Jahre lang als Postdoc am MIT forschte, wurde ich zweimal in das „Condensed Matter Theory Seminar“ der Harvard Universität eingeladen, um dort über meine Forschung vorzutragen. In diesem Seminar saßen drei sehr bekannte, scharfsinnige Professoren, die berüchtigt dafür waren, dass sie die Ausführungen des Vortragenden auseinander nehmen und jeden Fehler aufspüren. Entsprechend besorgt ging ich die beiden Male dorthin. Doch es lief alles gut, meine Forschungsergebnisse hielten dem Nachfragen stand. Es ist eine gute Übung sich vorzustellen, dass man seine Meinungen vor einem derartigen Publikum verteidigen soll!
-
Erkennen, wieviel Wissen es zu dem Thema gibt, das wir gar nicht kennen: Oft bilden wir unsere Meinung auf der Basis von wenig und womöglich einseitiger Information und der Lektüre weniger Texte. Es gibt viele Bücher zu dem Thema, die wir nicht gelesen haben, und es gibt vielleicht ganze Universitätskurse über das Thema, von deren Inhalt wir keine Ahnung haben. Sind wir wirklich sicher, dass das Kennenlernen all dieser Information unsere Meinung nicht ändern würde? Und selbst wenn wir glauben, dass wir bei unserer Meinung bleiben würden, dann macht uns diese Überlegung vielleicht zumindest bescheidener in unserem Auftreten und offener für Gegenargumente.
-
Erkennen, wo wir (oder diejenigen, auf die wir hören) die Grenzen unserer (bzw. ihrer) Expertise überschreiten: Nathan Ballantyne nennt als berühmtes Beispiel den Chemiker Linus Pauling, der zwei Nobelpreise bekam, den für Chemie und den Friedensnobelpreis. Pauling vertrat in seinen späteren Jahren die Auffassung, dass sehr hohe Dosen von Vitamin C gegen Krebs und Arteriosklerose und andere Krankheiten helfen. Er machte sogar eigene Forschung zur Wirkung von Vitamin C. Viele Leute vertrauten den Aussagen des doppelten Nobelpreisträgers, und der Verkauf von Vitamin C vervielfachte sich. Später durchgeführte klinische Studien konnten die Behauptungen Paulings allerdings nicht bestätigen. Die Qualität seiner Forschung auf dem Gebiet der Medizin, die nicht sein Fachgebiet war, war also um vieles schlechter als die seiner chemischen Forschung. In christlicher Literatur beobachte ich derartige Kompetenzüberschreitungen immer wieder: Da äußern sich Ingenieure und Juristen zum Alter der Erde, zum Urknall und zu Evolution und erklären, warum die Fachexperten in diesen Fragen irren. Leider können oft nur fachliche Insider die Fehler in derartigen Ausführungen aufzeigen, aber wir alle können skeptisch sein, wenn jemand sich grenzüberschreitend äußert, und sollten besser noch weitere Informationsquellen zu Rate ziehen. Gegen unsere eigenen Grenzüberschreitungen können wir auch vorgehen. Es gibt im Wesentlichen zwei Wege: Entweder wir lernen so viel über das andere Gebiet, über das wir uns äußern, dass wir ausreichende Kompetenz gewinnen. (Aber Vorsicht: wir überschätzen hierbei oft die schon gewonnene Kompetenz gewaltig!) Oder wir tun uns mit denjenigen zusammen, die das Fachwissen auf dem anderen Gebiet haben. So hatte ich schon mehrfach gemeinsame Forschungsprojekte mit Biologen. Das waren sehr fruchtbare Symbiosen, denn die Biologen steuerten ihr biologisches Fachwissen bei und meine Arbeitsgruppe die Expertise in der mathematischen Modellierung und Computersimulation. Außerdem habe ich dabei sehr viel Biologie gelernt.
-
Herausfinden, wer die Experten sind, denen wir vertrauen können: Wir selbst können nur zu ganz wenigen Themen soviel Wissen erwerben, dass wir fundierte Überzeugungen vertreten können. Daher sind wir darauf angewiesen, uns auf das Wissen derjenigen, die sich auf einem Gebiet auskennen, zu verlassen. Doch wir können wir solche Leute identifizieren? Es gibt Hochstapler und Angeber, hinter deren Worten nicht viel Wissen steckt. Und viele, die ein Basiswissen auf einem Gebiet haben, überschätzen sich gewaltig, so dass wir ihnen besser nicht vertrauen sollten. Hinter dieser Selbstüberschätzung steckt der sogenannte Dunning-Kruger-Effekt: Personen, die unterdurchschnittliche oder durchschnittliche Fähigkeiten oder Kenntnisse haben, schätzen sich oft deutlich besser ein, als sie sind. Und noch schlimmer: Sie können oft nicht Kompetenz erkennen, wenn sie sie vor sich haben. Der Grund ist, dass man zum Erkennen von Kompetenz (oder Inkompetenz) einen gewissen Einblick in die auf dem betreffenden Gebiet relevanten Qualitätsstandards haben muss. Diese Graphik illustriert den Dunning-Kruger-Effekt sehr schön: Nach rechts ist die Menge des Wissens oder Könnens aufgetragen und nach oben das Gefühl der Kompetenz. Wer schon ein wenig Wissen gewonnen hat, meint oft, schon den vollen Durchblick zu haben, und entsprechend hoch ist das Selbstvertrauen. Aber wenn er noch mehr zu dem Thema lernt, wird ihm deutlich, dass er vieles nicht kann und weiß, und das Selbstvertrauen sinkt. Es steigt mit zunehmendem Wissen und Können dann wieder an. Wegen des Dunning-Kruger-Effekts ist es sehr schwierig für Laien, kompetente Fachleute zu identifizieren. Am leichtesten fällt dies, wenn es klare Mehrheiten gibt. Nathan Ballantyne führt als Beispiel das Thema „Klimawandel“ an: 97% der professionellen Klimaforscher sind sich einig darüber, dass der Klimawandel stattfindet und dass er menschengemacht ist. Und von den verbleibenden 3% werden einige zudem noch von der Ölindustrie finanziert. Wenn eine so große Einigkeit unter den Fachleuten besteht, ist dies für Ballentyne Anlass genug, ihrer Auffassung zu vertrauen. Bei Themen, bei denen wir nicht so klar sehen können, was die wirklichen Experten meinen, kann es manchmal am ehrlichsten sein, wenn wir uns einer Meinung enthalten.
Ballentyne schließt das Buch mit dem Tipp, dass wir uns aus der eigenen Komfortzone und der eigenen Gruppe herauswagen sollten, um neues Wissen zu erwerben, mit anderen Meinungen konfrontiert zu werden und andere Positionen besser zu verstehen. Dies wird uns bei der Umsetzung der oben ausgeführten fünf Punkte helfen. So können wir im Laufe der Zeit hoffentlich unbegründete Überzeugungen korrigieren und eine realistischere Einschätzung unseres Wissens gewinnen. Für mich als Christin passt ein solches Verhalten gut zu den traditionellen christlichen Tugenden Wahrhaftigkeit und Bescheidenheit.