Reinhart Gruhn

Wissen und Glauben

 Philosophie, Religion, Vernunft  Kommentare deaktiviert für Wissen und Glauben
Okt 182018
 

Über Vertrauen, Gründe und Meinungen

Vordergründig könnte man denken: Das Thema ist alt und überholt. Wenn sich hinter den beiden Begriffen eine Alternative verbergen sollte, dann ist diese längst entschieden. Das in der modernen Wissenschaft liegende Wissen hat sich als gültig durchgesetzt, der an Religion und Kirche gebundene Glaube ist nahezu irrelevant geworden. Auch die Hinweise auf eine altehrwürdige Tradition einer etwas ausführlicheren und komplizierteren Verhältnisbestimmung hilft da nicht weiter, wo die Frage selber undeutlich und in jedem Falle unbedeutend geworden ist. Dann bleibt allenfalls ein geistesgeschichtliches Thema für Spezialisten übrig.

Hintergründig ist es allerdings so, dass die Frage nach dem Verhältnis von Wissen und Glauben von erheblicher Relevanz und erstaunlicher Aktualität ist. Gerade weil die Frage bloß hintergründig und daher kaum bewusst ist, kann sie Verwirrung stiften, statt ihr Potenzial zur Klärung zu entfalten. Dabei geht es weder um die Bestreitung des Rechtes und der Dominanz rational verantworteter Wissenschaft noch um die Apologie religiös-kirchlicher Bedeutung, sondern um die Klärung gesellschaftlicher Diskurse, die manche Zeitgenossen beunruhigen und die medial eine gewisse Eigendynamik entfaltet haben. „Fake news“ sind in aller Munde, und die Unsicherheit gegenüber wissenschaftlichen Ergebnissen macht sich nicht nur bei Impfgegnern, Veganern und Anhängern sogenannter „traditioneller“ oder ‘alternativer’ Medizin breit. Für ein vermeintlich aufgeklärtes Zeitalter sind wir in vielerlei Hinsicht erstaunlich unaufgeklärt und beharrlich auf Meinungen fixiert. Es ist vielleicht so, dass „Meinungen“ oftmals an die Stelle von „Glauben“, also von religiösen Überzeugungen getreten sind bzw. derzeit ihre aktuelle Erscheinungsform darstellen. Sind Meinungen in Diskussionen ausschlaggebend, dann ist das Interesse an Faktenwissen bereits verloren gegangen: Was ich glaube und meine, zählt. Aus der Frage nach „Wissen und Glauben“ ist dann der Trend vom Wissen zum Meinen geworden.

Marienposten

Marien-Posten im Sauerland – Traditionalismus pur

Nun könnte man einwenden, dass es sich dabei nur um eine medial aufgebauschte Erscheinung handelt, die Randständiges über Gebühr hervorhebe und in den Mittelpunkt der Aufmerksamkeit stelle. Sektiererei habe es eben immer gegeben, und fake news ist nur ein aktuelles Schlagwort derjenigen geworden, die eine vermeintlich einseitige und parteiische Presse oder Medienlandschaft kritisieren. Nicht zu leugnen ist natürlich, dass auch Medien, selbst sich als „Qualitätsmedien“ bezeichnende, nie umfassend und völlig ausgewogen sein können, denn was wäre dafür überhaupt der Maßstab? Es genügt dem Anspruch der Neutralität und der Unabhängigkeit vollkommen, sich als Berichterstatter oder Kommentator an das zu halten, was genaues und unvoreingenommenes Recherchieren als Sache und Fakten herausarbeiten kann. Auch das gerät immer wieder unter den Verdacht des Zweifels, oftmals bewusst geschürt im Interesse anderer, offen oder verdeckter Interessen. Wo es um Fakten und Wissen geht, ist der Zweifel nie fern, das weiß am besten die Wissenschaft selbst, die den methodischen Zweifel, die Überprüfbarkeit, die mögliche Widerlegung und den Versuch der Verbesserung zum Prinzip erhebt. Da liegen dann auf einmal Wissen und Glauben, womöglich auch Wissen und Meinen, gar nicht mehr so weit auseinander. Aber es gibt noch eine grundsätzlichere Überlegung zu diesem ambivalenten Zusammenhang.

Das berühmte Böckenförde-Diktum: „Der freiheitliche, säkularisierte Staat lebt von Voraussetzungen, die er selbst nicht garantieren kann.“ ist viel diskutiert worden, inwiefern es das Eigenrecht der Religion begründe oder inwiefern gerade nicht, wie der Zusammenhang des Zitates wohl nahelegt. In übertragenem Sinn kann dies Diktum auf die Begründung von Wissen und Wissenschaft überhaupt ausgeweitet und angewandt werden. Das Wissen und die Wissenschaft leben von Voraussetzungen, die sie nicht aus sich heraus vollständig begründen können. Man könnte dieses auch als eine Anwendung des Gödelschen Unvollständigkeitssatzes halten: In hinreichend starken widerspruchsfreien Systemen gibt es immer unbeweisbare Aussagen, und: Hinreichend starke widerspruchsfreie Systeme können ihre eigene Widerspruchsfreiheit nicht beweisen. Es mag verwegen erscheinen, diese Grundsätze aus dem Bereich der Logik und der Mathematik, also sehr abstrakten Wissenschaften, auf Politik und Gesellschaft anzuwenden, zumal auf die Frage nach dem Verhältnis von Wissen und Glauben / Meinen. Nun ist die Wissenschaft als solche kein geschlossenes System, im Gegenteil. Die einzelnen Wissenschaften haben oft ihre eigenen Methoden. Man könnte aber an die den Wissenschaften gemeinsamen Prinzipien der Rationalität, Allgemeingültigkeit und Nachprüfbarkeit verweisen., die weder widerspruchsfrei noch vollständig noch abgeschlossen sein müssen. Darum kann die übertragene Bezugnahme auf Gödel nur als Hinweis darauf verstanden werden, dass unser Wissen als Menschen immer sowohl begrenzt als auch vorläufig ist. Es ist begrenzt dadurch, dass Menschen nie aus ihrer subjektiven Perspektive als Einzelne gegenüber dem Ganzen der Welt, dessen Teil sie doch sind, heraus können. Es ist vorläufig, weil alles Wissen auf Theorien und Annahmen beruht, die bestenfalls wohlbegründet, aber niemals absolut gültig sein können. Das Bessere ist der Feind des Guten.

 Man könnte also im Blick auf die Zuverlässigkeit und Vertrauenswürdigkeit unseres Wissens sagen: Unser Wissen, wie genau auch immer es jeweils begründet und gesichert ist, unterliegt einem ständigen Wandel, dem der Mensch als solcher, als Einzelner und als Menschheit insgesamt unterliegt. Das bestbegründete Wissen und die exakteste Wissenschaft beruhen auf der Voraussetzung des Vertrauens in unsere menschliche Rationalität und Erkenntnisfähigkeit, Wahrheit und Irrtum unterscheiden zu können. Sie sind rechenschaftspflichtig über den Erkenntnisweg, müssen also darüber Auskunft geben, welche Annahmen vorausgesetzt und welche Randbedingungen zu beachten sind. Es gibt keine voraussetzungslose Wissenschaft. Auch alles gut begründete und anerkannte Wissen hängt davon ab, dass Menschen davon überzeugt werden können und dass Ergebnisse allgemeine Zustimmung und Anerkennung finden. Das gilt nicht nur für die gesellschaftliche Öffentlichkeit, sondern genauso für die weltweite wissenschaftlichen Community.

Wir leben letztlich mit unserem Wissen und unseren Erfahrungen immer auf der Basis von Glauben und Vertrauen. Wer alles bezweifelt wie der klassische philosophische Skeptiker, muss letztlich auch an sich selbst zweifeln und – verzweifeln. Darum gilt auch die radikale philosophische Skepsis praktisch nur eingeschränkt. Als Alltagsmenschen können wir erst Recht ohne guten Glauben und ohne vorausgehendes Vertrauen kaum leben, kaum einen einzigen Tag bestehen. Bestenfalls kann es darum gehen, uns klar zu werden über die jeweiligen Voraussetzungen, Grundannahmen, Prägungen, Vorlieben und Wertschätzungen, die uns als Personen ausmachen und leiten. Dazu können die Religionen und Philosophien helfen, soweit sie dem Menschen dazu dienen, seine Selbsterkenntnis zu fördern und seine Selbstbegrenzung anerkennen zu können. Dazu kann aber vor allem der kritische Umgang mit Wissensansprüchen dienen, die nie ungeprüft übernommen werden dürfen, soweit das jeweils möglich ist. Je wichtiger uns bestimmte Aspekte des Wissens und Arten des Erklärens sind, desto genauer werden wir uns der Vertrauenswürdigkeit, Reichweite und Gültigkeit einer Theorie oder wissenschaftlichen Erkenntnis vergewissern. In medizinischen Fragen ist es deswegen ohnehin üblich, bei schwierigen Entscheidungen mindestens „zwei Meinungen“ einzuholen. Das gilt eigentlich generell, und nur aus praktischen Gründen stützen wir uns meist zusätzlich oder ersatzweise auf unsere Lebenserfahrung.

Das Bemühen um genaues Wissen und um exakte Fakten bleibt unaufgebbar. Subjektivismus und Konstruktivismus, irrationale Willkür und Scharlatanerie sind die zu vermeidenden Gefahren an den Rändern der Wissenschaft. Aber auch die kühnsten Theorien lassen Fragen offen und zeigen sich als unvollständige Theorien und Modelle. Sogar das „Standardmodell“ der Elementarteilchenphysik, bestens bewährt, hat offenbar seine Grenzen. Dennoch sind Rationalität und nachvollziehbare Methodik, Kritik und Aufklärung die einzigen Mittel, Wissen zu erwerben und unsere Welt zu erkennen. Das ist die Voraussetzung dafür, dass auch unsere Meinungen wohl begründet sind und Vertrauen erwecken. Denn auch Glaube und Vertrauen suchen Erkenntnis und Einverständnis („fides quaerens intellectum“).

Reinhart Gruhn

Rätsel der Einfachheit

 Mensch, Natur, Philosophie, Wissenschaftstheorie  Kommentare deaktiviert für Rätsel der Einfachheit
Aug 282018
 

Im früheren Beitrag Einheit und Vielfalt wurde schon darauf hingewiesen, dass durch eine Theorienreduktion zwar eine Vereinheitlichung der Wissenschaft angestrebt wird, aber der Begriff Reduktion zugleich unscharf und problematisch ist. Erhard Scheibe hat in seinem Buch „Die Reduktion physikalischer Theorien. Ein Beitrag zur Einheit der Physik“ (1997) die vielleicht gründlichste Aufarbeitung des Begriffs Reduktion für den Bereich der Naturwissenschaften am Beispiel der Physik vorgelegt. Zunächst soll daher das Anliegen seines Buches dargestellt werden.

Einige „Rätsel“ der Natur zeigen eine bisher unverstandene Einfachheit, die offenbar der Einheit und Vielfalt der Natur zugrunde liegt. Wie aber kann der Zusammenhang von Einheit und Einfachheit gedacht werden und was verstehen wir eigentlich unter ‚Natur‘?

I.

In seiner Exposition des Problems stellt Erhard Scheibe das Problem der sogenannten „großen“ programmatischen Reduktionen zum Beispiel der Chemie oder der Biologie auf die Physik fest:

Wiederum würde aber eine Resümierung dieser Ergebnisse als einer Reduktion der Biologie auf Physik und Chemie die Sachlage eher verschleiern als aufklären. Wie schon im Falle der Mechanisierung der Physik würde eine solche Zusammenfassung der mühsam errungenen molekular-biologischen Erfolge deren nun erreichten wissenschaftlichen Standard durch die Heranziehung von noch nicht hinreichend durchdachter reduktionistischer Begrifflichkeit wieder aufs Spiel setzen. Es ist viel zu unklar, welches bei derart unqualifizierten Reduktionsbehauptungen schon die Reduktionspartner sind, ganz zu schweigen, was unter der jeweiligen Reduktion selbst verstanden werden soll. Schon die generalisierende Analyse von Phänomenen – die Theoriebildung – ist eine Art Reduktion der Phänomene auf eine Theorie. Man kann Sprachen auf andere Sprachen reduzieren, Theorien auf andere Theorien, Gegenstände auf andere Gegenstände, aus denen sie bestehen, – all dies fließt unkontrolliert in die allgemeine Diskussion um diese Reduktionen ein und läßt kaum erkennen, worum es überhaupt gehen soll. [Scheibe, S. 2f.]

Darum möchte Scheibe „die grandiosen Perspektiven, wie sie durch eine Reduktion
der Chemie auf die Physik, der Biologie auf die Chemie oder gar der Psychologie
auf die Physik gegeben sind, zunächst einmal ganz auszuklammern.“ Deswegen beschränkt er sich auf den Bereich der Physik und darin auf eine präzise Durchführung einer „rationalen Rekonstruktion“ des Reduktionsbegriffs, ausgeführt also als „Theorienreduktion, … also Reduktionen, durch die Theorien auf andere Theorien reduziert werden.“ [S. 3]

In diesem inhaltlich auf die Physik eingeschränkten und methodisch rekonstruktionistisch eingestellten Rahmen ist das eigentlich Neue, das den Leser in diesem Buch erwartet, zum einen eine in der Literatur bisher nicht nachweisbare Theorie der Reduktion, also genauer eine Metatheorie der Reduktion physikalischer Theorien, und zum anderen eine besonders ausführliche Exemplifikation des Reduktionsproblems. [S. 3]

Das führt Scheibe zu einer Zweiteilung des Buches, wobei der zweite Teil den ausführlichen Beispielen gewidmet ist – mathematisch und physikalisch sehr anspruchsvoll. Nicht weniger anspruchsvoll ist der erste Teil, in dem er seinen Reduktionsbegriff entfaltet und immerhin mit einigen ausgeführten Beispielen erläutert. Für seine theoretische Rekonstruktion stellt er fest:

Ihre Neuheit besteht darin, daß der sonst übliche Versuch, in den Mittelpunkt einer solchen Theorie einen für alle Einzelfälle verbindlichen allgemeinen Begriff der Reduktion zu stellen, ersetzt wird durch die Auffindung unterschiedlicher, möglichst spezieller, nicht mehr echt zerlegbarer Reduktionsarten, durch deren Kombination  (Hintereinanderausführung) dann weitere Reduktionsarten gebildet werden. [S. 3]

Dieser „synthetische (oder: rekursive) Aufbau des Reduktionsbegriffs“ vermeidet einen vorgängigen Allgemeinbegriff von Reduktion, den es dann auf die Einzelfälle und Beispiele herunterzubrechen und abzuwandeln gelte. Sein mehr induktiver Ansatz führt Scheibe von vornherein zu einem mehrfach gegliederten und in sich differenzierten Begriff von Reduktion und verschiedenen Reduktionsarten. Das „Iterative“ zeigt sich darin, dass zur Beschreibung einer bestimmten Theorienreduktion verschiedene reduktive Schritte unterschiedlicher Arten nacheinander unternommen werden müssen, um den exakten Vorgang der Übersetzung einer Ausgangstheorie in ihre Zieltheorie auch mathematisch korrekt zu beschreiben. Es ist der mühsame Weg über das konkrete Einzelne, um der Genauigkeit einer gewissen Verallgemeinerung willen. „Im übrigen erfolgt der hier bevorzugte synthetische Aufbau des Reduktionsbegriffs unbeschadet der allgemeinen Leitidee, daß eine physikalische Theorie durch Reduktion im Prinzip entbehrlich oder überflüssig oder redundant gemacht wird durch eben die Theorie, auf die sie reduziert wird.“ [S. 4]

Zwei weitere Problembereiche werden benannt und in der Durchführung seiner Arbeit zumindest gestreift oder teilweise erfüllt. Zum einen geht es um den Nachweis, dass physikalische Reduktionen auch einem empirischen Fortschritt darstellen und sich dadurch bewähren müssen. Die Schwierigkeiten zu zeigen, dass eine Nachfolgetheorie „vollinhaltlich“ die frühere Theorie ersetzen sollte, haben bereits Feyerabend und Kuhn 1) unter dem Stichwort „semantischer Inkommensurabilität“ beschäftigt. – Zum anderen verweist Scheibe auf den „Typ einer ontologischen Reduktion“, wenn „die Gegenstände der reduzierten Theorie aus den Gegenständen der reduzierenden in irgend einem Sinne bestehen.“ [S.5] Klassischer Fall dafür ist die Tradition des Atomismus, die sich heute in dem Schichtenmodell der Elementarteilchen wiederfindet. Hier will Scheibe im Konkreten nachfragen und dabei auch prüfen, wieweit „andererseits anti-reduktionistische Vorstellungen von Ganzheit und Emergenz zu rechtfertigen sind“. [S. 5]

Die grundlegenden Reduktionsarten nach Scheibe sind die exakten und die approximativen Reduktionen 2). In zusammengesetzten Reduktionen, also dem Normalfall, kommt exakten Reduktionen (Punkt-zu-Punkt-Ersetzung durch Verallgemeinerungen oder Äquivalenzen 3)) eine besondere Bedeutung zu. Ein Reduktionsverfahren ist allerdings insgesamt approximativ, wenn auch nur auf einer Stufe eine approximative Reduktion vorkommt. Insgesamt decken die approximativen Reduktionen den größten Bereich ab. 4) Eine größere Bedeutung kommt in der Praxis der Physik aber einem Bereich zu, den Scheibe gar nicht mehr den eigentlichen Reduktionen und Erklärungen zurechnet, nämlich dem Bereich der „partiellen Reduktionen“. Hier hinein gehören die Grenzfall-Reduktionen (z.B. Newton-Mechanik als Grenzfall der Quantenmechanik) und all diejenigen Fälle, in denen nur teilweise Reduktionen (micro-reductions) möglich sind. „Es kommt hinzu – und hier geht es, wenn überhaupt, nur noch um eine Konzession an das menschliche Erkenntnisvermögen -, daß in der Entwicklung der Physik eine Theorie durch eine andere ersetzt und wirklich verbessert werden könnte, auch ohne daß sich erstere auf letztere total reduzieren läßt.“ [S. 8]

Ein schönes Beispiel für Scheibes Vorgehen ist sein Modell des geschlossenen bzw. offenen Reduktionsquadrates innerhalb des Gebietes der partiellen Reduktionen.

gschlossenes Reduktionsquadrat

Das geschlossene Reduktionsquadrat

Angenommen Σ und Σ‘ sind die Axiome je einer Theorie T bzw. T‘, und es ist Σ auf Σ‘ approximativ (und total) reduzierbar. Wenn nun eine Aussage β aus Σ und eventuellen Zusatzannahmen ableitbar ist, so wird man vermuten, daß es eine in demselben Sinne aus Σ‘ gewinnbare Aussage β‘ gibt, welche im Lichte der (totalen) Reduktion von Σ auf Σ‘ die Verbesserung von β in Σ‘ ist. Sofern β und β‘ ebenfalls als Axiome selbstständiger Theorien gelten können, wird nun auch β auf β‘ approximativ reduzierbar sein. Und insofern dies gilt, wird Σ auch partiell, nämlich eben durch die Reduktion von β auf β‘ reduziert sein. [S. 207]

 

offenes Reduktionsquadrat

Das offene Reduktionsquadrat der ,echten‘ partiellen Reduktionen

Hier fehlt also die Angabe einer direkten Reduktion von Σ auf Σ‘, und wir erfahren nur, daß ein ,Ergebnis‘ β von Σ auf ein ,Ergebnis‘ β‘ von Σ‘ (approximativ) reduzierbar ist – allerdings auch hier in der Weise, daß β‘ das ,Ergebnis‘ von Σ‘ ist, welches β in Σ entspricht und also zugleich die Verbesserung von β in Σ‘. In diesem Sinne wäre hier Σ auf Σ‘ also nur partiell reduziert, nämlich in Gestalt der Reduktion von β auf β‘ in ihrer Rolle innerhalb Σ bzw. Σ‘. Das Offenlassen einer direkten Reduktion von Σ auf Σ‘ kann den Grund haben, daß man keine kennt, möglicherweise auch den, daß es keine gibt. [S. 212]

Dies offene Reduktionsquadrat als Modell einer partiellen Reduktion führt Scheibe am Beispiel der Reduktion der klassischen Mechanik auf die Quantenmechanik durch. Uns genügt an dieser Stelle der bloße Hinweis. Mit diesem ‚Umweg-Modell‘ des offenen Reduktionsquadrates gelingt es Scheibe, die in der Physik häufig vorkommenden teilweisen oder nur näherungsweisen Reduktionen zu fassen. Es sind Erklärungen, die in der einen (alten) Theorie gegeben sind und besseren Erklärungen entsprechen, die zu einer neuen Theorie führen. In jedem Falle muss die Durchführung exakt erfolgen und mathematisch quasi Zeile für Zeile rekonstruiert werden können. Nur auf diesem Wege gelingt es Scheibe, einen präzise bestimmten Begriff von Reduktionen zu gewinnen – ein aufwendiges, aber lohnendes und überzeugendes Programm. Scheibe zeigt sehr detailliert, was der Reduktionsbegriff in der Physik tatsächlich leisten und was er nicht leisten kann: Er leistet eine fundierte Kombination, In-Beziehung-Setzung und ‚Rückführung‘ von einzelnen, grundlegenden Theorien aufeinander und erweitert, verbessert, verfeinert unser Verständnis physikalischer Gegebenheiten und Erklärungsmodelle. Er leistet dagegen nicht, uns eine einfache Super-Theorie an die Hand zu geben, mit der alles erklärt und verstanden werden kann.

II.

Zweifellos führen Reduktionen zu einer Vereinheitlichung und Vereinfachung naturwissenschaftlicher Theorien, auch wenn die Durchführung im Einzelnen zu mehr Komplexität führen mag (z.B. quantenmechanische versus klassisch mechanische Beschreibung). Zusammenhänge und reduktive Interdependenzen aufzuzeigen und zu belegen, ist schon für sich genommen ein Schritt hin auf eine vereinheitlichte Sichtweise natürlicher Gegebenheiten. Genau aus diesem Grunde übt der Physikalismus solch eine Faszination aus. Dennoch macht Scheibes Darstellung physikalischer Reduktionen klar, dass der Traum vieler Wissenschaftsphilosophen und Erkenntnistheoretiker von einer einfachen, begrifflich klaren Theoriebildung über die Wirklichkeit der Natur eben nur ein Traum ist. Jede neue allgemeine Theorie mag zwar auf der mathematischen Ebene der Beschreibung an Abstraktion und insofern an ‚Vereinfachung‘ gewinnen, auf der semantischen Ebene aber und erst recht auf der Ebene experimenteller Überprüfung wird sie komplexer, differenzierter und eben schwieriger sein. Etwas Ähnliches findet sich auch bei den rekursiven Algorithmen des Maschinen-Lernens („KI“), deren Ausführung von äußerster Komplexität ist, so dass sie kaum mehr wirklich nachvollzogen werden kann. Aber bleiben wir bei der Physik: Was bedeutet es, dass die wissenschaftliche Beschreibung und Erklärung der Vorgänge in der Natur (Physis) zunehmend komplexer und ambivalenter wird (zum Beispiel bei der Quantenthermodynamik; bei Verschränkung und Superposition), wohingegen die Natur doch als solche, also nicht wissenschaftlich analysiert, sondern alltäglich erlebt, ganz einfach ist?

Auch für den Physiker wird die Beschreibung der Natur dann ‚ganz einfach‘, sofern er sich auf die Gegebenheit von Naturkonstanten bezieht. Fundamental sind im Grunde nur wenige, wenn man die abgeleiteten Fassungen weiterer Konstanten außer Acht lässt, dazu gehören die Lichtgeschwindigkeit, das plancksche Wirkungsquantum, die Gravitationskonstante und die Feinstrukturkonstante. Diese Konstanten sind räumlich und zeitlich unveränderlich und liegen allen Vorgängen in Raum und Zeit zugrunde 5). Zusammen mit der Feinabstimmung (anthopic coincidence) ‚vereinfachen‘ sie die Sicht auf die Vorgänge in unserem Kosmos. Auch das anthropische Prinzip 6) kann zwar als eine erkenntnistheoretische Restriktion verstanden werden, macht aber die Erkenntnis dessen, was in der Natur ist, aus menschlicher Sicht (aus welcher auch sonst?) einfacher. Dennoch aber ist die nicht nur mathematische Abstraktion und Komplexität physikalischer Theorien unermesslich im Vergleich zur alltäglich erlebten und erfahrenen Wirklichkeit der Natur. Man könnte sich fast wundern, dass alles so einfach passiert, was Naturwissenschaftler so umfangreich und kompliziert beschreiben und zu erklären suchen.

Gerade die biologische Natur, die sich als wissenschaftlich äußerst komplex, immer wieder überraschend variationsreich und zum Teil noch unerklärlich erweist, existiert einfach so und hat sich ‚einfach so‘ entwickelt. Zur Bestimmung dessen, was Leben biologisch bedeutet, ist es nötig, von Zellen, Stoffwechsel, Fortpflanzung zu reden. Wir können zwar recht gut beschreiben, was eine Zelle ist und wie sie funktioniert, aber wie es zu dieser Trennung von einem Außen und einem Innen gekommen ist, wissen wir kaum. Man kann den Metabolismus als Etablierung eines Fließgleichgewichtes am entropischen Limit beschreiben (Josef Reichholf) und die Fähigkeit zur Fortpflanzung als evolutionäre Kraft der Veränderung unter den Bedingungen größter genetischer Variabilität und Funktionalität begreifen, – all das steht in keinem Vergleich zur herrlichen Einfachheit der Schlafens und Erwachens, des Essens und Trinkens und der sexuellen Erfüllung. Zum Menschsein gehört gewiss mehr als diese basalen biologischen Grundgegebenheiten, aber ohne sie ist auch alles weitere in der Entwicklung des Geistes und der Kultur nicht möglich. Menschliches Leben ist zunächst einmal von Geburt an das Einfachste, was es gibt – Man lebt, das Baby trinkt an der Brust – , auch wenn die Einbettung in soziale Gegebenheiten sogleich zu etwas Komplexeren gehört: arm oder reich geboren zu sein, krank oder gesund usw. Dass Natur ‚einfach so‘ funktioniert, weckt immer wieder Erstaunen und lässt uns von den „Wundern der Natur“ sprechen. Umgekehrt lässt es erschrecken, wenn durch menschliche Eingriffe scheinbar unbedeutender Art Naturprozesse nachhaltig verändert und uns bedrohlich werden können. Das gilt nicht nur für den Klimawandel. Im Blick auf die gesamte Geschichte der Evolution des Lebens, soweit wir sie überblicken, gilt jedoch zuerst dies: Wäre sie nicht einfach möglich gewesen, gäbe es Natur und Mensch nicht. Uns gibt es aber ganz einfach! Einfach ist hier deswegen das rechte Wort, weil etwas, das faktisch gegeben ist, einfach da ist. Wäre es schwierig oder unmöglich, gäbe es uns nicht oder sogar nichts.

Blumen

Bauerngarten (c) R. Gruhn

Die Einfachheit natürlicher Gegebenheiten von Sonne, Mond und Sternen, Blume, Tier und Mensch hat die Romantiker beflügelt. Das Ideal des „einfachen Lebens“ lässt sich von den Vorsokratikern über die Stoiker bis hin zu den Bio-Anhängern eines ’natürlichen ländlichen Lebens‘ verfolgen. Unsere eigene Erinnerung an die Kindheit mag da, wo sie heil und gut gewesen ist, eben auch die Erinnerung an ein einfaches, unbelastetes und unkompliziertes Leben sein. Dunkle Seiten werden zum Glück leichter vergessen, solange sie nicht traumatisch waren. Der Hinweis auf die Romantik oder auf bestimmte Ideale zeigt aber schon, dass die Wirklichkeit des erlebten Lebens meist gar nicht mehr einfach ist. Individualgeschichtliche Prägungen und soziale Zusammenhänge stellen uns in ein Leben voller komplizierter Verhältnisse und Herausforderungen. Das Einfache wird oft zum reinen Wunschtraum. Das ‚Einfach leben‘ ist überhaupt nicht einfach, wenn man es auf seine Ursachen, Zusammenhänge und naturgegebenen Bedingungen hin untersucht, wie es die Naturwissenschaften umfassend, gründlich und erkenntnisreich tun, und es ist ebensowenig einfach, wenn man es in seinen kulturellen und sozialen Zusammenhängen und Interaktionen betrachtet, immer wieder infrage gestellt von einer ungewissen Zukunft.

III.

In beiden Blickrichtungen erscheint das zunächst Einfache als sachlich komplex bzw. faktisch kompliziert. Die Natur selbst erweist sich bei näherer Betrachtung als äußerst ambivalent. Natur als das dem menschlichen Bereich der Gestaltung Gegenüber- und Entgegenstehende gibt es gar nicht (oder kaum) mehr. Alles, was wir als Natur bezeichnen, ist im Grunde schon kulturell geprägt oder irgendwie anthropoid infiziert. Das gibt dem Ausdruck „Anthropozän“ für unser Zeitalter einiges an Berechtigung. Nur Vulkanismus (und damit verbundene Beben) sowie der weitere extraplanetare Raum sind noch Natur im Sinne von: existieren unabhängig von menschlicher Beeinflussung. Abgesehen davon ist unsere vorfindliche Natur weitgehend Kultur-Natur. Selbst auf Abraumhalden und in Wüsten und an den Polen zeigt sich die Prägekraft des Menschen. Im Klimawandel scheint sich zum ersten Mal eine menschlich verursachte Veränderung global zu manifestieren und global zurückzuschlagen. Die Natur, die wir lieben und gerne aufsuchen, ist der Garten, der Park, der Wald (Forst), in dem es kleine Räume als „Urwald“ geben mag, und auch Präsident Putin präsentiert sich in der sibirischen Taiga nicht mehr im Raum unberührter Natur.

Gerade im Bereich der Forschungen zum Klimawandel zeigt sich die Komplexität der zu untersuchenden Phänomene und der Daten über lange Zeitreihen hin, die insgesamt nur mit Superrechnern simuliert und in Szenarien dargestellt werden können. Naturphänomene wissenschaftlich zu erforschen, bedeutet die Konfrontation mit dieser doppelten Komplexität: komplexe Grundlagen in der theoretischen Basis, komplexe Auswirkungen und Verknüpfungen in dem zu erhebenden Datenbestand. Hier stellt sich das Problem der natürlichen und kulturellen Komplexität in besonderer Weise, sofern für die notwendigen Computersimulationen sowohl hinsichtlich der Ausgangsdaten als auch hinsichtlich der Anwendung der Algorithmen Reduktionen und Eingrenzungen erfolgen müssen, um aussagekräftige Ergebnisse zu erhalten. Die Ergebnisse müssen dann erst aufgearbeitet, interpretiert und in einem bestimmten Rahmen dargestellt werden, um verstanden zu werden und an die Öffentlichkeit gelangen zu können. Eine ziemlich radikale Vereinfachung ist nötig, sollen die Forschungsergebnisse für den einzelnen Bürger fassbar und für sein Verhalten relevant erscheinen und für die Politiker instrumentalisierbar umgeformt und als Motivation zum Handeln eingesetzt werden. Wieviel Bohren dicker Bretter hierbei erforderlich ist, zeigt die öffentliche Diskussion fast täglich.

Unser Ausgang war die Frage nach dem Zusammenhang von Einfachheit und Vielfalt. Zugespitzt auf das Verhältnis von Einfachheit und Komplexität finden wir als Ergebnis, dass es im Grunde komplementäre Perspektiven sind. Wir leben in relativ ‚einfachen‘, will sagen überschaubaren Verhältnissen und Bezügen, weil wir das Leben sonst gar nicht bewältigen könnten. Die Frage nach Ursachen, Zusammenhängen, Auswirkungen und Handlungsmöglichkeiten führt sofort in ein Feld von äußerster Komplexität hinsichtlich der theoretischen Voraussetzungen und der faktischen Möglichkeiten. Dabei ist ein Rückbezug auf das Einfache, Vereinfachte unabdingbar, soll es zu Verständnis sowie Vernunft und Interessen abwägendem Verhalten kommen. Wenn ein Sachverhalt nicht einfach dargestellt werden kann, ist noch nicht verstanden; wenn eine Handlungsmöglichkeit nicht in einzelnen Schritten operationalisiert werden kann, wird es nie zur beabsichtigen Handlung kommen. Dieses Verhältnis von Einfachheit und Komplexität ist nicht neu und im Grunde auch nicht sonderlich interessant.

Anders sieht es aus, wenn nicht nach Komplexität, sondern nach Vielfalt gefragt wird. Das Vielfältige ist sowohl im Bereich der Theorien und Gründe als auch im Bereich der Ursachen und Praktiken zu finden. Wieviel ‚Einfältiges‘ das Vielfältige beinhaltet, wäre noch einmal eine weitere Frage. Hier reicht die Aussage, dass das Vielfältige das Eine und eben Vieles enthält und Vielfalt ebenso die Voraussetzung wie die Folge von Einheit ist. Leben ist nicht eindimensional, und erst Vielfalt der Lebensmöglichkeiten macht uns als Einzelne zu lebendigen und aktiven Personen. Ebenso ist unser Wissen vielfältig, und jede Wissenschaft lebt davon, viele unterschiedliche Ideen, Anstöße, Modelle, Theorien einzusetzen und zu überprüfen. Wird unser Wissen einfach im Sinne von einfältig, eindimensional, dann ist das Ergebnis Dogmatismus und Stillstand. Ist unser Leben einsam und einfältig, dann verkümmern wir, isolieren uns vielleicht stattdessen in einer Gruppe gleich Einfältiger zu einer Gemeinschaft der Verschworenen: gegen die anderen, gegen die Offenheit, Neuem zu begegnen und Vielfältiges zu lernen. Viele ultrarechte und identitäre 7) Denk- und Verhaltensweisen scheinen mir an dieser einseitigen Einfalt und Angst, an einer ideologischen Vereinsamung und Vereinfachung zu liegen. Dabei ist der Mensch schon in sich selber vielfältig, existiert er doch von Anfang an als soziales, auf andere hin sich orientierendes und erst darin sich selbst konstituierendes Lebewesen (vgl. Volker Gerhard). Darüber hinaus besteht persönliches Leben nur als Leben in fortwährender Veränderung, sowohl für sich selbst als auch in den eigenen sozialen Bezügen. Man lebt verschiedene Leben, sowohl in zeitlicher (diachron) als auch in rollenmäßiger (synchron) Verschiedenheit und Vielfalt. „Wer bin ich und wenn ja wie viele“ (Richard David Precht) hat das in seinem Buchtitel populär auf den Begriff gebracht. Vielfalt ist offenbar die Bedingung dafür, dass sich der Mensch als Person und soziales Subjekt konstituiert und weiterentwickelt. Die Einheit und Einfachheit gilt es immer neu zu gewinnen. Sie ist nicht ‚einfach‘ vorhanden. Vorhanden ist das Viele, die Vielfalt, manchmal auch das Durcheinander. Erst Orientierung im Leben und Ordnung im Wissen, gerade auch durch Reduktionen, bringen in der unübersehbaren Vielfalt der Wirklichkeit das Einfache zutage.

Reinhart Gruhn

 

Anmerkungen

  1. Paul Feyerabend, Wider den Methodenzwang, 1976; Thomas S. Kuhn, Die Struktur wissenschaftlicher Revolutionen, 1973 [zurück]
  2. „Reduktion wörtlich verstanden im Sinne von ,Zurückführung'“ Scheibe S. 38 [zurück]
  3. siehe Scheibe Kapitel IV [zurück]
  4. siehe Scheibe Kapitel V [zurück]
  5. siehe dazu die Diskussion über mögliche Veränderungen dieser Konstanten und über die sog. Feinabstimmung, zum Beispiel bei Wikipedia. [zurück]
  6. „Das anthropische Prinzip besagt, dass das beobachtbare Universum nur deshalb beobachtbar ist, weil es alle Eigenschaften hat, die dem Beobachter ein Leben ermöglichen. Wäre es nicht für die Entwicklung bewusstseinsfähigen Lebens geeignet, so wäre auch niemand da, der es beschreiben könnte.“ Wikipedia [zurück]
  7. Die Bezeichnung „Identitäre“ deckt zwar je nach Ländern unterschiedliche politische Erscheinungen ab, hat aber generell den Selbstbezug des Einzelnen auf sich und das eigene ‚Volk‘ als unveränderbar zum Inhalt. Wikipedia [zurück]

Einheit und Vielfalt

 Geist, Naturwissenschaft, Philosophie, Wissenschaft  Kommentare deaktiviert für Einheit und Vielfalt
Jun 012018
 

Seit Langem gibt es das Bemühen, eine „Theorie von allem“, TOE (theory of everything) aufzustellen. Das kann sich im engeren Sinne auf die Physik beziehen, wo darunter eine Vereinheitlichung nicht nur der Teilchenphysik (was als gelungen gelten kann), sondern vor allem der vier Grundkräfte verstanden wird. Die „Weltformel“ spukt dann und wann als Thema des Feuilletons durch die Medien. Sodann gilt es, ganz allgemein gesprochen ‚Relativitätstheorie‘ und ‚Quantenphysik‘ miteinander auszugleichen, was zugleich die Frage nach der Alternative von kontinuierlichem oder diskretem Verständnis der Materie aufwirft. Über die Physik hinaus gibt es aber auch in der Erkenntnistheorie das Streben nach Vereinheitlichung, hier verstanden als Vereinheitlichung der Wissenschaft. Im angelsächsischen Raum ist dies zumeist als Votum für den physikalistischen Naturalismus gemeint. Aber auch der kontinental-europäische Strukturalismus und erst recht das Theorienensemble unter dem Oberbegriff „Systemtheorie“ wollen einen einheitlichen Zugang zur wissenschaftlichen Welterkenntnis bieten. Dem stehen Konzepte des Pluralismus sowohl der Methoden als auch der wissenschaftlichen Grundüberzeugungen gegenüber, teils aus liberalem, teils aus mehr skeptischem Antrieb. Dennoch ist das Streben nach Vereinheitlichung stark und zeigt sich in der lang andauernden Auseinandersetzung mit Reduktionismus-Konzepten insbesondere (aber nicht nur) im Bereich der Hirnforschung im Verhältnis zur Philosophie des Geistes; was Konzepte und Ziele betrifft, geht Letztere gewiss über das hinaus, was enger gefasst unter theory of mind verstanden wird.

Seerose

Seerose (c) R.G.

Was macht die Faszination der „Vereinheitlichung“ aus? Warum sind Menschen bestrebt, eine einheitliche, wissenschaftlich begründete Weltsicht zu präsentieren – einmal vorausgesetzt, es ließe sich überhaupt sachgerecht über „die Welt“ reden (was Markus Gabriel bestreitet). Ist es das rational verständliche Bemühen, Widersprüche zu vermeiden? Widerspruchsfreiheit ist gewiss für die Theorienbildung, für jede Theorie in sich erstrebenswert oder gar notwendig (unter Voraussetzung zweiwertiger Logik), aber ist es ebenso wünschenswert und „notwendig“, ein einheitliches theoretisches Dach zu postulieren oder zu schaffen, unter dem sich alle Theorien anderer Ansätze und Sachgebiete vereinheitlicht und widerspruchsfrei versammeln können? Nun kann ja Vereinheitlichung zunächst als Verbesserung und Korrektur angesehen werden. Der Fortschritt in den Naturwissenschaften vollzog und vollzieht sich mit ganz erheblichen Veränderungen in den Basistheorien, sodass manche älteren Theorien gänzlich verändert und aufgehoben werden. Ein solcher „Paradigmenwechsel“ (Kuhn) ist aber vermutlich seltener als angenommen, denn meist wirken Teile einer alten Theorie in einer neuen fort, umso mehr, wenn die ältere Theorie einen leichteren Zugang zur Erklärung empirischer Befunde im ’normalen‘ Bereich bietet (klassische // relativistische Physik). Die lange Diskussion über Reduktionen zeigt, wie schwierig es ist, überhaupt einen einheitlichen Reduktionsbegriff zu formulieren und an vorhandenen Theorien zu bewähren. Allein im physikalischen Bereich muss man da schon sehr vorsichtig sein ob der Vielfalt der Formen solcher Vereinheitlichungen bzw. Reduktionen (vgl. Erhard Scheibe). Unproblematisch ist es offenbar dort, wo Theorien sowohl in ihren Grundlagen als auch in ihren Auswirkungen auf Anwendungsbereiche Verbesserungen, Verfeinerungen, Anpassungen darstellen. Die Naturwissenschaften in ihren verschiedenen Fächern verfahren da ziemlich pragmatisch und instrumentell, was die Anwendung unterschiedlicher Theorien angeht. Dabei ist es wesentlich, zu unterscheiden zwischen epistemologischen Ansätzen und ontologischen Ansprüchen: Geht es jeweils „nur“ um die Verbesserung, Verfeinerung, Veränderung von Theorien, insbesondere in ihren mathematischen Formulierungen auf der Ebene gedanklicher Konstruktion, oder steht jeweils die möglicherweise dahinterstehende Ontologie zur Debatte, und meint dann Vereinheitlichung nicht nur die der Theorien, sondern die Vereinheitlichung der Wirklichkeit? Dann kommen sehr schnell Weltbilder ins Spiel, die als metaphysische Voraussetzungen und Grundannahmen unausgesprochen Regie führen. „Physikalismus“ meint als Sammelbegriff eben mehr als nur eine Theorienreduktion, der Begriff bezeichnet faktisch die Weltanschauung der Reduktion aller Dinge (der Welt) auf die Grundeinheiten und Axiome der Physik. Eine solche ontologische „Vereinheitlichung“ ist sicher in hohem Maße problematisch und kaum überzeugend darzustellen.

 

Noch einmal: Was macht dennoch die bleibende Faszination der „Vereinheitlichung“ aus? Eine mögliche Antwort hängt damit zusammen, wie sich der Mensch in der Welt verortet, wie er sich ’seine‘ Welt aneignet und wie er mit seiner gedanklichen, geistigen Arbeit Erkenntnis gewinnt und die Welt strukturiert. Dabei ist es zweifellos so, dass der Mensch mit seinem Gehirn denkt und alle geistige Arbeit verrichtet. Strittig wird es erst, wenn Mentales, hier im weiteren Sinne verstanden als geistige Aktivität, auf neurophysiologische Prozesse ‚reduziert‘, womöglich mit ihnen identifiziert wird. Hier reicht es jetzt aus, die unauflösliche Verbindung von Denkprozessen mit Hirnvorgängen festzustellen, ohne weiterhin zu klären, wie das im Einzelnen zu beschreiben ist (z. B. Supervenienz). Stirbt der Mensch, versagt auch das Hirnorgan (für die Feststellung des Todes ist es sogar umgekehrt). Das mit diesem Organ einst Erdachte und Produzierte, sei es gedanklich, sei es künstlerisch, wird weiterexistieren, sofern es in Wort, Schrift, Bild oder Tönen gefasst und aufbewahrt ist. Dies zeigt den Doppelaspekt des Geistigen, dem darum schon im lebendigen Menschen Rechnung zu tragen ist: mit dem Biophysischen verbunden zu sein, aber zugleich eine Eigenständigkeit zu besitzen, die einen eigenen Bereich kennzeichnet. Dieser Doppelaspekt hat Auswirkungen. Einerseits ist das Denken ein Vorgang, der auf neurobiologischen Prozessen, Verbindungen und Strukturen beruht (offen gelassen, wie das „beruht auf“ genauer zu verstehen ist). Dadurch verhält sich der Mensch nicht nur als ein bewusstes Lebewesen, sondern vor allem als ein seiner selbst bewusstes, sich selbst denkendes Lebewesen. Die Strukturen seines Denkorgans, des Gehirns in allen seinen Teilen und Funktionen (Gefühl, Erinnerung, Erwartung usw.), geben also zumindest den Rahmen, vermutlich auch die Strukturen des Denkens selbst weitgehend vor. Wie weitgehend, genau das gilt es näher zu klären. Denn nun kommt der zweite Aspekt des Geistigen ins Spiel: Das Vorgestellte, Gedachte, Erkannte, Gestaltete, Gebildete, ist eine selbstständige Entität. Es sind Erinnerungen, Befürchtungen, Hoffnungen, es sind strukturierte Gedanken über sich selbst (Selbstbilder) und über die Um-Welt (Weltbilder), wobei die Reihenfolge hier vermutlich umgekehrt, zumindest reziprok ist (vgl. V. Gerhard); es sind Vergegenständlichungen in Form von Reflexionen, Betrachtungen und Theorien; es sind Vergegenständlichungen in Formen der Kunst, also in Sprachgeschichten und Gedichten, Bildnissen und Plastiken, in Tönen und musikalischen Kompositionen. Textschrift (Buchstaben) und Tonschrift (Noten) sind dabei die Mittel der dauerhaften Äußerung und Vergegenständlichung, die Kunstgegenstände an sich schon besitzen. Wer lesen kann, dem eröffnet sich die geistige Welt dessen oder derer, die ihre Gedanken und Bilder eben in Worte gefasst und in Schrift umgesetzt haben. Wer Noten lesen kann, dem eröffnet sich die Welt der Klänge und Harmonien schon beim Lesen, wiewohl Kunst mehr als Gedankentexte auf Rezitation und Vortrag angewiesen ist, um zum vollen Ausdruck zu kommen. Über das Verhältnis geistiger Gegenstände in Text oder Ton und Bild(nis) ließe sich noch weit mehr sagen, wir bleiben hier aber noch etwas beim ‚theoretischen‘ Denken selbst.

„Theôria“ bedeutet im Altgriechischen Schau, Betrachtung, hat etwas mit ‚Sehen‘, äußerlich gegenständlich wie innerlich geistig zu tun. Wenn man sich Gedanken macht über etwas, stellt man sich etwas bildlich vor, wie überhaupt Bilder und ‚Karten‘ (maps) vielleicht diejenigen Strukturen sind, die das Gehirn mit dem Gedachten ursprünglich verbinden (A. Damasio). Im Denken meiner selbst befinde ich mich also in einem Zirkel: Das Gehirn mit seinen Strukturen und Prozessen ist das entscheidende Vehikel, mittels dessen ich über meine Umwelt und mich selbst Betrachtungen anstelle und Theorien aufstelle. Insofern sind die Strukturen des Denkaktes zugleich Grundlage und Limit des Gedachten. Das besagt schon der Satz des Vorsokratikers Empedokles: hê gnôsis tou homoiou tô homoiô – Gleiches wird durch Gleiches erkannt (Text bei Aristoteles, De Anima). Vereinfacht gesagt: Wir können nicht mehr und anderes denken, als es unsere Synapsen und Schwingungen der Hirnströme zulassen. Nun kommt aber die Eigendynamik des inhaltlich Gedachten hinzu. Das Gedachte, die Theorie, sei es ‚Betrachtung‘, sei es ‚Spekulation‘, sei es moderne wissenschaftliche ‚Analyse‘, kann und wird jeweils ganz eigene Strukturen erdenken und ausdrücken. Das macht gerade die Kreativität menschlichen Denkens aus, über die eigenen Grenzen hinausdenken zu können, sich selbst zu transzendieren. Ideen, Phantasien, Visionen – all dies sind geistige ‚Gegenstände‘, also das, was das Denken als Gedachtes aus sich heraussetzt. Die Lehre Platons von den Ideen hat das einzigartig formuliert, auch wenn man ihm in Gänze nicht mehr folgen möchte und die Substanz gebundene Form des Aristoteles vielleicht praktischer ist. Entscheidend für unsere Überlegung ist hier, dass sich der Doppelaspekt des Geistigen ambivalent auswirkt: Der Denkakt ist an die Strukturen und Grenzen des neurobiologischen ‚Substrats‘ gebunden, die Gedanken und Ideen können darüber hinausgehen und neue Strukturen und Konstrukte erschaffen – die Voraussetzung dafür, als homo faber tätig zu werden und Gedanken und Theorien ins weltliche Werk zu setzen. Mindestens zwei Fragen bleiben dabei aber offen: 1. Wieweit geht die geistige Unabhängigkeit wirklich? und 2. Welche Illusionen werden dadurch möglich?

Es ist zum Allgemeingut des Wissens geworden, dass soziale Gegebenheiten, insbesondere das soziale Umfeld, den Menschen maßgeblich beeinflussen und mitprägen, und zwar in allem, was er sich vorstellt, denkt und tut. In welchem Ausmaß und in welchen Grenzen das geschieht, braucht hier nicht erörtert zu werden. Da liegt die Vermutung nahe, dass auch unsere biophysische Ausstattung maßgeblich an den Fähigkeiten und Grenzen des Denkens beteiligt ist. Wieweit geht tatsächlich die Fähigkeit, die im Gehirn angelegten Strukturen und Prozesse zu transzendieren, oder andersherum, wie plastisch, anpassungsfähig und wandelbar muss das Gehirn als Denkorgan des Menschen sein, um einen solch plastischen, anpassungfähigen und phantasievollen Menschen hervorzubringen, wie er nun einmal ist? Liegen die Strukturen und Gesetze der Mathematik (zum Beispiel) bereits als Schaltmöglichkeiten im Gehirn vor oder entwickeln sie sich fortwährend eigendynamisch und eigengesetzlich als ‚mathematische Ideen‘ fort? Werden Zahlenverhältnisse entdeckt oder erfunden – oder beides? Platon hatte es einfach, für ihn sind Zahlen und die „platonischen Körper“ Inbegriff der eigentümlichen Ideenwelt. Sind sie das oder sind sie nur ‚genial‘ vom menschlichen Geist konstruiert? In welche Zwickmühlen kann das Nachdenken über Möglichkeiten und Grenzen geistiger Unabhängigkeit (also der Eigenständigkeit der Gedanken, und Theorien) führen, wenn beim Erforschen der natürlichen Welt immer wieder Unvereinbarkeiten auftauchen – zwischen Welle und Teilchen, zwischen Quanten und dem raumzeitlichen Kontinuum, zwischen Wahrscheinlichkeiten, lokalen Kausalitäten und einem wirklichen, nicht-lokalen Zufall (N. Gisin)? Die moderne Physik ist voll von solchen (scheinbaren?) Unvereinbarkeiten, und die Genetik, Neurobiologie und Biophysik stoßen auf überraschend wandelbare Strukturen – mehr als auf festgelegte Funktionen. Welche Konstanten unsere natürliche Welt wirklich beherrschen, ist in der Kosmologie ebenso rätselhaft wie fragwürdig, inwieweit es wirklich Konstanten sind – usw.. Nicht zuletzt ist die genaue Weise der Entstehung des Lebens bisher ebenso unverstanden wie die Art und Weise, in der Physisches und Geistiges tatsächlich interagieren, korrelieren, supervenieren, wie auch immer. Theorien gibt es viele, aber vielleicht auch ebenso viele Widersprüche und Fragezeichen. Wie wird Unvereinbares vereinbar? Die Logik hilft hier in der Epistemologie, aber weniger in der Ontologie. Da wird die Metaphysik wieder lebendig als das, was den fragenden, suchenden, forschenden Geist vor-einnimmt und letztlich immer wieder (unausgesprochen) bestimmt. Die geistige Unabhängigkeit (unsere erste Frage) bleibt also als etwas durchaus Ambivalentes bestehen. So könnte es sein, dass die Wirklichkeit, wie sie sich uns anschaulich (theôria) zeigt und uns forschend und erkennend begegnet, selber in sich ambig, nicht nur ambivalent ist und uns in dieser letzten Ungreifbarkeit und darum auch Unbegreiflichkeit fordert, lockt und – narrt. Dann wäre der Zirkel des sich mittels Gehirn selbst erkennenden Geistes nur das geringste Problem.

Daraus ergibt sich die zweite Frage: Welche Illusionen werden dadurch möglich? Es sind eigentlich nur zwei: die der Überforderung und die der Unterschätzung. Sie hängen zusammen, weil sie nur in zwei unterschiedliche Richtungen zielen. Es wird eine Überforderung des Denkens und jeder möglichen Theorie sein, alles in eins zu fassen. Was so ambivalent ist wie die geistig-physischen Prozesse des Denkens und zugleich so ambig ist wie die ins Visier genommene Wirklichkeit, lässt keine eindeutige Antwort erwarten. Die Suche nach der ‚Weltformel‘ oder TOE ist aus dieser Sicht eine Illusion. Den erkenntnistheoretischen Generalschlüssel dürfte es kaum geben. Es scheint ein Wunschtraum zu sein, angelegt in den Strukturen unseres Denkvermögens, geboren aus der „synthetischen Einheit der transzendentalen Apperzeption“ (I. Kant, siehe unten). Zugleich liegt darin eine Unterschätzung dessen, was wir „Wirklichkeit“ oder „Natur“ im allgemeinen Sinn nennen. Es ist damit nicht gemeint, dass der Mensch sozusagen im letzten Bruchteil einer Sekunde seit dem Entstehen und in einem Wimpernschlag des Bestehens des Kosmos existiert und daraus ein Gesamtverständnis des Kosmos und seiner eigenen Welt und Rolle darin erkennen und beurteilen zu können glaubt. Man könnte dies allenfalls als einen Nebengedanken, als eine zur Bescheidenheit mahnende Beobachtung am Rande, gelten lassen. Bedeutender ist die wachsende Erkenntnis, und zwar ausdrücklich in den Naturwissenschaften selbst, dass das, was man sich darin zu erforschen, zu erklären, zu erhellen, zu begreifen, möglichst auch widerspruchsfrei mathematisch zu beschreiben vorgenommen hat, dass sich dies immer wieder einer letzten Eindeutigkeit entzieht. Man kann das auf das bisher noch unzureichende Wissen oder die jeweilige Vorläufigkeit aller Theorien (bis zum Erweis des Besseren) zurückführen und den Gedanken einer möglicherweise prinzipiellen letzten Ambiguität und also Undurchsichtigkeit der Naturverhältnisse und Naturgegebenheiten als voreilig oder pessimistisch, auf jeden Fall aber als unwissenschaftlich ablehnen. Der Fortschritt schreitet unaufhörlich fort, so ist das wohl. Sowohl erkenntnismäßig als auch technisch wird gewiss noch Ungeahntes möglich werden. Die möglichen Ergebnisse, und zwar alle, bleiben stets so unsicher, wie es jedem induktiven Verfahren eigen ist, und jede Theoriekonstruktion taugt so lange etwas, wie ihre Gültigkeit nicht widerlegt ist (Popper). Insofern gründet sich die zweite Frage nach den möglichen Illusionen zwar auf einer nicht abgesicherten Vermutung, aber dennoch auf guten Gründen.

Das Streben nach Vereinheitlichung einer überwältigenden Vielfalt an Erscheinungen und Theorien ist dem Menschen offenbar eingepflanzt, und das mag auch gut sein. Es hat sich bisher als äußerst produktiv erwiesen, wenn auch produktiv hinsichtlich vieler Sackgassen. Darum ist wahrscheinlich derjenige theoretische Versuch am überzeugendsten, der sich von vornherein Grenzen setzt und sich in seinem begrenzten Feld um größtmögliche Genauigkeit bemüht. Das gilt für den Begriff der Reduktion ebenso wie für jede andere Definition von Begriffen oder Erklärung von Sachverhalten. Zum Glück haben wir dafür zwei ‚Werkzeuge des Geistes‘ zur Verfügung, die es an Vielfalt und Ambiguität mit jeder anderen Wirklichkeit aufnehmen können: Phantasie und Sprache …

Reinhart Gruhn

 


Immanuel Kant über die „Sythetische Einheit der transzendentalen Apperzeption“

Nun können keine Erkenntnisse in uns stattfinden, keine Verknüpfung und Einheit derselben untereinander, ohne diejenige Einheit des Bewußtseins, welche vor allen Datis der Anschauungen vorhergeht, und worauf in Beziehung alle Vorstellung von Gegenständen allein möglich ist. Dieses reine ursprüngliche, unwandelbare Bewußtsein will ich nun die transzendentale Apperzeption nennen. … [Diese] transzendentale Einheit der Apperzeption [stiftet] einen Zusammenhang aller dieser Vorstellungen nach Gesetzen…. [Diese Einheit wäre nicht möglich,] wenn nicht das Gemüt in der Erkenntnis des Mannigfaltigen sich der Identität der Funktion bewußt werden könnte, wodurch sie dasselbe synthetisch in einer Erkenntnis verbindet. Also ist das ursprüngliche und notwendige Bewußtsein der Identität seiner selbst zugleich ein Bewußtsein einer ebenso notwendigen Einheit der Synthesis aller Erscheinungen nach Begriffen, d. i. nach Regeln, die sie nicht allein notwendig reproduzibel machen, sondern dadurch auch ihrer Anschauung einen Gegenstand bestimmen, d. i. den Begriff von Etwas, darin sie notwendig zusammenhängen; denn das Gemüt könnte sich unmöglich die Identität seiner selbst in der Mannigfaltigkeit seiner Vorstellungen, und zwar a priori, denken, wenn es nicht die Identität seiner Handlung vor Augen hätte, welche alle Synthesis der Apprehension (die empirisch ist) einer transzendentalen Einheit unterwirft und ihren Zusammenhang nach Regeln a priori zuerst möglich macht. (zitiert nach KrV 1. A. tr. Anal. 1. B. 2. H. 2. Abs. 3)

 

 

 

 

 

Über den deutschen Protestantismus

 Ethik, Religion, Theologie  Kommentare deaktiviert für Über den deutschen Protestantismus
Apr 012018
 

Lehre fundamental, Ethik liberal, Leben egal

In der Nähe großer kirchlicher Feiertage mag sich der eine oder die andere an christlicher Religion Interessierte fragen, wo seine bevorzugte Konfession denn heute steht und wie ’seine‘ / ‚ihre‘ Kirche dran ist. Religion ist ‚in‘, aber Kirche ist ‚out‘, so scheint es. Der Protestantismus in Deutschland ist jedenfalls in den vergangenen Jahrzehnten um fast die Hälfte seiner Mitglieder geschrumpft mit hohen Jahresraten, die im Vergleich deutlich über denen der Katholiken liegen. Das muss ja Gründe haben. Vielleicht gehört ja das, was mir als Theologen und ehemaligem Kirchenmann auffällt, auch irgendwo zu dem wackelig gewordenen Untergrund.

In der Passions-und Osterzeit rückt das Dogmatische mehr in den Mittelpunkt, weil es bei diesem Festkreis um die Fundamente des christlichen Glaubens geht, insbesondere in seiner protestantischen Ausprägung. (Advent und Weihnachten sind demgegenüber mit märchenhafter Romantik behaftet, und von Pfingsten weiß eigentlich keiner mehr etwas.) Allerdings ist dies Fundamentale in der Öffentlichkeit nicht präsent: Krippen kann man in allen Formen ausstellen, eine geschundene und gekreuzigte Figur eignet sich dazu weniger, und wozu sollte es nützen? Nur die einigermaßen kirchlich Verbundenen wissen und erfahren es in der Passionsmusik, den Passionsgebeten, Lesungen und Predigten, in der erst strengeren und darauf folgend fröhlicheren gottesdienstlichen Feier, dass es hier um Grundlegendes geht: Kreuz und Auferstehung, genauer um die Kreuzigung, den Tod und die Auferstehung des Jesus von Nazareth. Was das genau heißen will und zu bedeuten hat, das zu sagen bemühen sich Theologen Jahrhunderte lang in sich weiter füllenden Bibliotheken. Das führt dazu, dass überlieferte und seit Alters ‚bewährte‘ Interpretationen bevorzugt werden, besonders dann, wenn bestimmte Interpretamente in kirchlichen Auseinandersetzungen ‚kanonische‘, also unbedingte Bedeutung erlangt haben. Bei „Kreuz und Auferstehung“ ist das gleich mehrfach der Fall.

Ostern

Um mich nicht in theologischen Details zu verlieren, bleibe ich bei der am meisten verbreiteten, dogmatisch bewährten Interpretation: Der Gottessohn (!) starb stellvertretend (!) für die Sünden (!) der Welt und rechtfertigte (!) die gläubigen Sünder, indem er von Gott-Vater-König (!) erhöht und ins Recht (!) gesetzt wurde und den Menschen ihre eigenen Sünden, deretwegen sie dem ewigen Verderben (!) hätten preisgegeben werden müssen, „um Christi willen“ nicht mehr zugerechnet (!) werden. Der Tod gilt dabei als „der Sünde Sold“ (!), darum dürfen auch die Gerechtfertigten (!) auf das ewige Leben (!) hoffen. Der dies „Werk“ vollbringende Jesus wird daraufhin der „Gesalbte“ (Messias (!) genannt, neben Gott-Vater auf den Thron (!) gesetzt und selber zum Erlöser, König, Weltenherrn, Pantokrator (!). Der einzelne Gläubige kann sich diese Rechtfertigung und zugesagte Erlösung im Glauben und / oder durch die Anteilgabe der Kirche im Mysterium der Messe aneignen, jedenfalls beides aus reiner Gnade (!). Bitte hier beim Lesen nicht aussteigen, weil das alles total unverständlich und unvorstellbar ist. Ich habe deswegen jeweils ein Rufzeichen (!) dort hingesetzt, wo es weiterer ausführlicherer Erklärungen bedarf, bzw. wo allein schon die Begriffe, also das, wovon die Rede sein soll, den wenigsten heute überhaupt noch klar und verständlich sind. Ich behaupte: nicht nur denjenigen außerhalb, sondern auch denen innerhalb der Kirchen. Was soll schon die Rede von Recht, Sünde, Strafe, Königtum, Thron, ewigem Leben besagen? Was für eine altertümliche Gedanken-, Bilder- und Begriffswelt wird hier bemüht? Hier zieht sich der Protestantismus auf eine heute weitgehend unverständliche und unverstandene „reformatorische Lehre“ zurück, der Katholiszismus (und erst recht die Orthodoxie) hat das ganze „Heilsgeschehen“ der Kirche selber verfügbar gemacht und vergegenwärtigt in jeder Messfeier bildlich-real das ewige Mysterium des Heilsangebotes Gottes durch die Kirche. Der Protestant ist da geschichtlicher, nüchterner und bildloser – und hat es damit schwerer, mit dem umzugehen, was da religiös verhandelt und geglaubt werden soll.

Vor bald einhundert Jahren gab es eine Bewegung in den evangelischen Theologien und Kirchen, umstritten zwar, aber doch wirksam, die einer „Entmythologisierung der Bibel“ das Wort redete: Die Zeichen und Wunder, von denen die Bibel berichtet, sollten nun nicht mehr wörtlich, sondern bildhaft und symbolisch verstanden werden als Hinweise darauf, dass der Glaube Berge versetzen und Gott auch mein Leben, meine Existenz positiv umkrempeln kann. Vielen eher konservativen Christen, insbesondere Protestanten, war das schon zu viel Moderne und Verständlichkeit, dabei war es doch nur ein leichtes Kratzen an der dogmatischen Hülle. „Entmythologisierung“, also besser gesagt die Entrümpelung und Reinigung von altertümlichen Weltbildern, von völlig überholten Rechts- und Herrschaftsvorstellungen, von einem patriarchalisch-autoritären Menschen- und Gottesbild, müsste endlich die Dogmatik selber betreffen, also mit den merkwürdigen Vorstellungen aufräumen, die ohnehin nur noch historisch kundigen Theologen einigermaßen verständlich sind: „Lehre von der Rechtfertigung des Sünders allein durch die Gnade Gottes im Glauben“. (Ich denke, so ist das dogmatisch korrekt formuliert). Wenn das keiner mehr versteht, bei niemandem mehr ankommt, ist es abgestandener Plunder, überflüssiger Ballast – Restmüll. Da rettet auch keine reformatorische Liturgie.

Nun gab und gibt es immer schon Frauen und Männer, sogar Theologinnen und Theologen, denen dieser Mangel in der kirchlichen Lehre aufgefallen ist. Die einfachste Alternative ist noch diejenige, die alles, was da geschehen oder nicht geschehen sein mag bei Kreuz und Auferstehung, nur davon reden möchte, „dass die Sache Jesu weitergeht“ (Willi Marxsen). Welche Sache? Nun ja, eben Jesu Menschenfreundlichkeit, Nächstenliebe, Friedfertigkeit. Wir sind dann ganz schnell bei der Ethik, und darauf hat sich der moderne Protestantismus dann mit Hingabe konzentriert. Der Punkt ist allerdings der, dass mit der reinen Ethisierung der biblischen Aussagen und Erzählungen dasjenige, was die frühen Christen an „Kreuz und Auferstehung“ dieses Menschen aus Nazareth entdeckt haben und was ihnen wichtig war, überhaupt nicht mehr getroffen wird. Etwas genauer und gründlicher sollte es also schon zugehen beim Aufräumen der kirchlichen Lehren. Und pathetische Osterpredigten, dass der Tod nun besiegt sei und es für jeden eine heilvolle Zukunft gebe, das ist doch einfach zu platt – und unaufrichtig. Ethisch hui – dogmatisch pfui, das reicht nicht. Man muss sich schon sehr viel Mühe geben, um das verständlich herauszuarbeiten, worum es den biblischen Erzählern und den alten Christen eigentlich gegangen ist, sofern und soweit wir das überhaupt noch durch die dicken Schichten und Überformungen der Tradition erkennen können. Aber vielleicht müssen wir das gar nicht, sondern können frei und ernsthaft darauf los phantasieren, was es für uns denn heute zum Tod der Hoffnungslosen und zu dem, was uns wirklich Kraft gibt und Mut macht, zu hören und zu sagen gäbe. Ich bin mir sicher, die neutestamentlichen Geschichten um Karfreitag und Ostern fangen als ‚geistliche Literatur‘ von ganz alleine wieder an zu sprechen. (siehe zum Beispiel den Podcast vom WDR 3 „In der Tiefe der Nacht – Erfahrungen in der Nachtwache“).

 

Kommen wir also zur Ethik. Protestanten lieben die Ethik, zu allem und jedem Thema heute gibt es eine kirchliche Verlautbarung oder gar offizielle Stellungnahme, die moderne „Dreieinigkeit“ von „Gerechtigkeit, Frieden und Bewahrung der Schöpfung“ allem vorangestellt. Diversität, Gleichstellung der Geschlechter, Ehe für alle, Genetik, Abtreibung, Armut, Europa, Migration, Integration – schauen Sie sich selber einmal in den Themen der EKD um (www.ekd.de – weit herunter scrollen!) Das ist alles wichtig und vieles richtig, es folgt nur meist dem gerade aktuellen Mainstream und ist insgesamt eher liberal und sozial orientiert (im Unterschied zur eher konservativen Morallehre der katholischen Kirche). Ein wirklicher Repräsentant dieser ethischen Ausrichtung und ihrer Handlungsmaximen ist der derzeitige EKD-Ratsvorsitzende Bedfort-Strohm: Immer freundlich konservativ, etwas abgehoben und intellektuell, aber letztlich unverbindlich und bei öffentlichen Stellungnahmen mit sterilen Floskeln. Er passt genau zum deutschen Protestantismus, – und ist doch angesichts der Herausforderungen unserer Zeit und ihrer Religionen eine – sorry – völlige Fehlbesetzung. Sachliche Aufgeschlossenheit, Aufmerksamkeit suchende Richtungsweisung, Experimentierfreude – bei ihm Fehlanzeige.

 

Das ist darum das Letzte, was mir quasi als Zusammenfassung einfällt: Das Leben der evangelischen Kirche und das, was sie zum Leben der normalen Menschen zu sagen hat, ist ziemlich egal, ziemlich gleichgültig, ziemlich ausrechenbar sozial-liberal. Das muss nicht schlecht sein, aber es ist zu dürftig, zu konturlos. Da hat auch das Reformationsjubiläum wenig Abhilfe geschaffen und neue Akzente gesetzt. Wenn Menschen, wenn evangelischen Christen ihre Kirchengemeinde egal wird, wenn ihnen die Bedeutung ihres Glaubens für ihr Leben nicht mehr klar ist und sie nicht mehr wirklich berührt, dann wird ihnen auch irgendwann ihre Zugehörigkeit zur Kirche als Institution egal sein. Genau das merkt man jedes Jahr neu, wenn man die Zahlen des Schrumpfens liest, nicht nur durch den „Sterbeüberhang“, sondern durch Austritte und unterlassene Taufen.

 

Mir tut es leid um die vertanen Chancen. Die Bibel und ihre Geschichten, protestantisches Leben und  Handeln, Denken und Glauben im Blick auf Freiheit und Individualität und menschliche Mitverantwortung hätte doch so viel Potential – vielleicht sogar als ein möglicher Katalysator im heftig gewordenen Streit der unterschiedlichen Gruppen und Meinungen in unserer Gesellschaft. Religion ist ein fundamentales Bedürfnis der Menschen, sie sucht sich immer ein Ventil, strebt nach Erfüllung. Aus der Geschichte zu Geschichten von religiöser Zuversicht: Christliche Tradition bietet dafür vielleicht die besten Geschichten, Bilder und Symbole an – auch für den Umgang mit Leid und Sinnlosigkeit, Einsamkeit und Tod, aber auch mit Hoffnung und voller Leben! Womit wir wieder bei Karfreitag und Ostern wären – und hoffentlich auch ein paar Gottesdiensten, wo der Glaube in der Welt lebendig wird und Menschen mit Freude und Freiheit ansteckt.

Reinhart Gruhn

Freges Sprachphilosophie

 Philosophie, Sprache  Kommentare deaktiviert für Freges Sprachphilosophie
Jan 202018
 

Will man sich heute mit der Sprachphilosophie von Gottlob Frege (1848 – 1925) beschäftigen, so ist dies ein philosophiegeschichtliches Thema. Zum einen hat Frege vor mehr als 100 Jahren gewirkt, zum anderen sind seine Arbeiten zur Logik und Sprachphilosophie heute kaum mehr von aktueller Relevanz. Wichtig und bemerkenswert daran sind die Grundlegungen und Anstöße, die weit über seine Zeit hinausgewiesen haben und die heutigen Darstellungen des Werkes von Frege beschäftigen. Bertrand Russell, Ludwig Wittgenstein, Rudolf Carnap haben sich auf Frege bezogen. Damit wird deutlich, dass seine Philosophie zu den Wegbereitern der analytischen Sprachphilosophie, der analytischen Philosophie überhaupt geworden ist. Das ist wohl auch der Grund dafür, dass Frege heute generell und zumal in manchen Hochburgen der deutschsprachigen analytischen Philosophie eine Art revival erlebt 1). Vielleicht ist das Motiv aber gleichwohl ein aktuelles. Der spätestens mit der ordinary language philosophy (Austin) in den 1950er Jahren und mit dem Strukturalismus überwunden geglaubte Logizismus der Sprachtheorie erwacht dank der Digitalisierung zu neuem Leben, wenn Sprache digital erfasst und in ein Kalkül übersetzt wird. Die logische Strukturierung à la Frege leistet dafür vielleicht Vorarbeit.

Programmatisch ist seine „Begriffsschrift“ von 1879 mit dem Untertitel: „Eine der arithmetischen nachgebildete Formelsprache des reinen Denkens“. Im Vorwort schreibt Frege:

„Das Erkennen einer wissenschaftlichen Wahrheit durchläuft in der Regel mehre Stufen der Sicherheit. Zuerst vielleicht aus einer ungenügenden Zahl von Einzelfällen errathen, wird der allgemeine Satz nach und nach sicherer befestigt, indem er durch Schlussketten mit andern Wahrheiten Verbindung erhält, sei es dass aus ihm Folgerungen abgeleitet werden, die auf andere Weise Bestätigung finden, sei es dass er umgekehrt als Folge schon feststehender Sätze erkannt wird. … Die festeste Beweisführung ist offenbar die rein Iogische, welche, von der besondern Beschaffenheit der Dinge absehend, sich allein auf die Gesetze gründet, auf denen alle Erkenntnis beruht. Wir theilen danach alle Wahrheiten, die einer Begründung bedürfen, in zwei Arten, indem der Beweis bei den einen rein logisch vorgehen kann, bei den andern sich auf Erfahrungsthatsachen stützen muss.“ 2)

Frege geht es in dieser Schrift um den ersten, ‚analytischen‘ Teil der Begründung wahrer Sätze.

„Damit sich hierbei nicht unbemerkt etwas Anschauliches eindrängen könnte, musste Alles auf die Lückenlosigkeit der Schlusskette ankommen. Indem ich diese Forderung auf das strengste zu erfüllen trachtete, fand ich ein Hindernis in der Unzulänglichkeit der Sprache, die bei aller entstehenden Schwerfälligkeit des Ausdruckes doch, je verwickelter die Beziehungen wurden, desto weniger die Genauigkeit erreichen liess, welche mein Zweck verlangte. Aus diesem Bedürfnisse ging der Gedanke der vorliegenden Begriffsschrift hervor. Sie soll also zunächst dazu dienen, die Bündigkeit einer Schlusskette auf die sicherste Weise zu prüfen und jede Voraussetzung, die sich unbemerkt einschleichen will, anzuzeigen, damit letztere auf ihren Ursprung untersucht werden könne. Deshalb ist auf den Ausdruck alles dessen verzichtet worden, was für die Schlussfolge ohne Bedeutung ist. Ich habe das, worauf allein es mir ankam, in § 3 als  begrifflichen Inhalt bezeichnet.“ [ebd.]

Frege nennt seine Formalisierung „ein für bestimmte wissenschaftliche Zwecke ersonnenes Hilfsmittel“, das sich auf die Arithmetik stützt und ihre Logik weiterführt und umbildet.

„Wenn es eine Aufgabe der Philosophie ist, die Herrschaft des Wortes über den menschlichen Geist zu brechen, indem sie die Täuschungen aufdeckt, die durch den Sprachgebrauch über die Beziehungen der Begriffe oft fast unvermeidlich entstehen, indem sie den Gedanken von demjenigen befreit, womit ihn allein die Beschaffenheit des sprachlichen Ausdrucksmittels behaftet, so wird meine Begriffsschrift, für diese Zwecke weiter ausgebildet, den Philosophen ein brauchbares Werkzeug werden können. … Schon das Erfinden dieser Begriffsschrift hat die Logik, wie mir scheint, gefördert.“ [a.a.O. S. XII f.]

Die ausführlichen Zitate zeigen das gewisse Pathos Freges bei seinem grundsätzlichen und weitreichenden Anspruch, auf dem Weg der wissenschaftlichen Wahrheitsfindung durch die Anwendung logischer Regeln und Gesetze weiterzukommen. Sie bringen aber auch das Leiden an der Unzulänglichkeit und Beschränkung der Sprache zum Ausdruck, deren Unklarheit sich immer wieder als Hindernis und Anlass zur Verwirrung herausstelle. Diese Klage Freges zieht sich durch alle seine logischen Schriften. Gerade darum möchte er sich in der Formalisierung der Begriffsschrift von der Nähe zur natürlichen Sprache und zur Grammatik lösen. Dem dient auch seine Ersetzung der Begriffe ‚Subjekt‘ und ‚Prädikat‘ durch ‚Argument‘ und ‚Funktion‘. Er erfindet einen eigenen Satz von Formeln und Zeichen, die sich zwar nicht durchgesetzt haben, sondern von der Peano-Russell-Notation ersetzt wurden, die aber eine in sich schlüssige Axiomatisierung seiner Logik (Erstformulierung einer mehrstufigen Prädikatenlogik) ermöglichten und Vorbild wurden für alle Nachfolger in moderner formaler Logik. Ob es ihm allerdings gelang, die „Herrschaft des Wortes über den menschlichen Geist zu brechen“, steht auf einem anderen Blatt.

In seiner Schrift „Funktion und Begriff“ von 1891, die auf einem Vortrag beruht, führt Frege die genaue Bestimmung und Unterscheidung von ‚Begriff‘, ‚Funktion‘, ‚Gegenstand‘ und „Wert“ bzw. „Wertverlauf“ durch. Einige aus dem Zusammenhang herausgegriffene Zitate aus dem Text als Beispiel für den O-Ton Frege:

„Ein Begriff ist eine Funktion, deren Wert immer ein Wahrheitswert ist. –
Wir können als Begriffsumfang den Wertverlauf einer Funktion bezeichnen, deren Wert für jedes Argument ein Wahrheitswert ist. Die sprachliche Form der Gleichungen ist ein Behauptungssatz. Ein solcher enthält als Sinn einen Gedanken – oder macht wenigstens Anspruch darauf, einen zu enthalten –; und dieser Gedanke ist im allgemeinen wahr oder falsch. –
Gegenstand ist alles, was nicht Funktion ist, dessen Ausdruck also keine leere Stelle mit sich führt. –
Wertverläufe von Funktionen sind Gegenstände, während Funktionen selbst es nicht sind. Auch Begriffsumfänge sind also Gegenstände, obwohl die Begriffe selbst es nicht sind. –
Für die Begriffe haben wir hierin die Forderung, daß sie für jedes Argument einen Wahrheitswert als Wert haben, daß für jeden Gegenstand bestimmt sei, ob er unter den Begriff falle oder nicht; mit anderen Worten: wir haben für Begriffe die Forderung ihrer scharfen Begrenzung, ohne deren Erfüllung es unmöglich wäre, logische Gesetze von ihnen aufzustellen. –
Wie nun Funktionen von Gegenständen grundverschieden sind, so sind auch Funktionen, deren Argumente Funktionen sind und sein müssen, grundverschieden von Funktionen, deren Argumente Gegenstände sind und nichts anderes sein können. Diese nenne ich Funktionen erster, jene Funktionen zweiter Stufe.“ 3)

Was Frege hier, wenngleich in schriftlicher Fassung überarbeitet, als Vortragstext seinem Publikum, der Jenaischen Gesellschaft für Medizin und Naturwissenschaft, zugemutet hat, muss schon erstaunen. Es wird vielleicht daraus verständlich, warum Frege zu Lebzeiten eine größere Resonanz auch auf dem wissenschaftlichen Parkett verwehrt blieb. Damit ist allerdings über die inhaltliche Bedeutung und formale Stringenz seiner Argumentation noch nichts gesagt, das müsste eine genauere Darstellung seiner Schrift ergeben, was hier nicht zu leisten ist. Wer von heutiger moderner Logik ausgeht, wird die wegweisenden Formulierungen bei Frege anerkennen.

Gottlob Frege

Gottlob Frege – Büste in Wismar

Freges bekannteste und wirkungsgeschichtlich vielleicht bedeutendste Schrift ist die „Über Sinn und Bedeutung“ 4). Seine Unterscheidung von ‚Sinn‘ und ‚Bedeutung‘ ist ein locus classicus: „Es liegt nun nahe, mit einem Zeichen (Namen, Wortverbindung, Schriftzeichen) außer dem Bezeichneten, was die Bedeutung des Zeichens heißen möge, noch das verbunden zu denken, was ich den Sinn des Zeichens nennen möchte, worin die Art des Gegebenseins enthalten ist.“[24] In seinem oft verwendeten Beispiel „Abendstern“ und „Morgenstern“ ist zwar die Bedeutung dieselbe, nämlich der Planet Venus, aber der Sinn, die Art des Gegebenseins ist verschieden. Sinn und Bedeutung in Freges Gebrauch sind wohl miteinander verknüpft, aber nicht jeder Sinn hat auch eine Bedeutung, wie zum Beispiel in der Poesie, und die zugehörigen Ausdrücke (Zeichen) können verschieden sein: „Die regelmäßige Verknüpfung zwischen dem Zeichen, dessen Sinn und dessen Bedeutung ist derart, daß dem Zeichen ein bestimmter Sinn und diesem wieder eine bestimmte Bedeutung entspricht, während zu einer Bedeutung (einem Gegenstande) nicht nur ein Zeichen zugehört.“ [25] In einem gegebenen Zusammenhang sollte aber dasselbe Wort stets denselben Sinn haben. Von der Bedeutung und dem Sinn eines Zeichens unterscheidet Frege ferner die (subjektive) Vorstellung von einem sinnlich wahrgenommenen Gegenstand mittels der Anschauung. Aber auch die Kunst bedient sich der Vorstellung, wenn sie „Färbungen und Beleuchtungen“ ausdrücken möchte [28]. Die skeptisch erhobene Frage, ob denn ein bestimmtes Wort tatsächlich eine Bedeutung habe, weist Frege mit dem Hinweis ab, dass es nur auf die „Absicht beim Sprechen oder Denken“ hinsichtlich der Bedeutung ankomme ungeachtet dessen, ob sie bzw. der Gegenstand wirklich vorhanden ist oder nicht [28f.].

Im zweiten, größeren Teil der Arbeit befasst sich Frege mit dem Satz und mit Satzverbindungen. Ein Behauptungssatz enthält einen Gedanken. Der Gedanke ist nun aber nicht die Bedeutung des Satzes, sondern sein Sinn. Dennoch kommt es gerade auf die Bedeutung eines Satzes oder Satzteiles und den in ihm enthaltenen Gedanken an: „Der Gedanke verliert für uns an Wert, sobald wir erkennen, daß zu einem seiner Teile die Bedeutung fehlt.“ Das Streben nach Wahrheit in der Wissenschaft sei es, das nach der Bedeutung fragt. Entscheidend ist die Wahrheit oder Falschheit eines Gedankens, also sein Wahrheitswert. „So werden wir dazu gedrängt, den Wahrheitswert eines Satzes als seine Bedeutung anzuerkennen.“ [30] Der Wahrheitswert ist ein Gegenstand nach Frege und drückt den „Schritt von der Stufe der Gedanken zur Stufe der Bedeutungen (des Objektiven)“ aus. So versteht er auch das Urteilen als Fortschreiten des Gedankens zu seinem Wahrheitswert. Gleiche Wahrheitswerte sind aber austauschbar, sodass der Wahrheitswert eines Satzes unverändert bleibt, wenn man einen Ausdruck durch einen gleichbedeutenden ersetzt. Das kann aber bei Satzkonstruktionen aus Haupt- und Nebensatz kompliziert werden, und so prüft nun Frege an allen erdenklichen Arten von Nebensätzen nach, wie sich Bedeutungen der Satzteile im ganzen Satz auf seinen Wahrheitswert auswirken. Eine besondere Rolle spielen dabei die Nebensätze in ungerader, also indirekter Rede (sagen, glauben, meinen, dass…), weil ihre Bedeutung kein Wahrheitswert, sondern ein Gedanke ist. Ferner liegen die Dinge anders, wenn der Nebensatz keinen vollständigen Gedanken enthält, sondern auf den Gedanken des Hauptsatzes verweist oder einen unbestimmten Bestandteil hat oder einen gemeinsamen Bestandteil in Form eines Eigennamens enthält (Der ein Philosoph in Athen war, starb…). Entscheidend ist immer, ob und wann man Teilsätze durch andere mit demselben Wahrheitswert ersetzen kann, ohne dass sich der Wahrheitswert des Ganzen ändert. Die Austauschbarkeit der Wahrheitswerte gerät aber nach Frege besonders dort an ihre Grenze, wo unausgesprochene  „Nebengedanken“ hinzutreten: „wir hätten dann mehr einfache Gedanken als Sätze“ [43]. Genau dies kommt aber in der gesprochenen Sprache sehr häufig vor, so dass die Ersetzung desselben Wahrheitswertes nur in genau umgrenzten und wohl bestimmten Zusammenhängen möglich ist. Durch Nebengedanken und Färbungen wird die Sprache zwar reicher, sagt Frege, aber eben auch unklarer [42]. Hier gerät auch Freges analytische Sprachlogik an ihre Grenze, wenn er bedauernd feststellt: „Es ist schwer, alle in der Sprache gegebenen Möglichkeiten zu erschöpfen.“ [45]

In den „Ausführungen über Sinn und Bedeutung“ 5) klärt Frege genauer das Verhältnis zwischen ‚Eigennamen‘ und ‚Begriffswörtern‘ in Hinsicht auf ‚Sinn‘ und ‚Bedeutung‘. Frege führt dazu aus:

„Jedem Begriffsworte oder Eigennamen entspricht in der Regel ein Sinn und eine Bedeutung, so wie ich diese Wörter gebrauche. In der Dichtung haben die Wörter freilich nur einen Sinn, aber in der Wissenschaft und überall, wo uns die Frage nach der Wahrheit beschäftigt, wollen wir uns nicht mit dem Sinne begnügen, sondern auch eine Bedeutung mit den Eigennamen und Begriffswörtern verbinden; und wenn wir es etwa aus Versehen doch nicht tun, so ist das ein Fehler, der leicht unser Nachdenken zuschanden machen kann. Die Bedeutung eines Eigennamens ist der Gegenstand, den er bezeichnet oder benennt. Ein Begriffswort bedeutet einen Begriff, wenn das Wort so gebraucht wird, wie es in der Logik zweckmässig ist. Um dies zu erklären, erinnere ich an einen Umstand, der sehr zugunsten der Logiker des Umfangs gegen die des Inhalts zu sprechen scheint, dass nämlich, unbeschadet der Wahrheit, in jedem Satze Begriffswörter einander vertreten können, wenn ihnen derselbe Begriffsumfang entspricht, dass also auch in Beziehung auf das Schliessen und für die logischen Gesetze Begriffe nur insofern sich verschieden verhalten, als ihre Umfänge verschieden sind. Die logische Grundbeziehung ist die des Fallens eines Gegenstandes unter einen Begriff: auf sie lassen sich alle Beziehungen zwischen Begriffen zurückführen. Indem ein Gegenstand unter einen Begriff fällt, fällt er unter alle Begriffe desselben Umfangs, woraus das Gesagte folgt. Wie also Eigennamen desselben Gegenstandes unbeschadet der Wahrheit einander vertreten können, so gilt dasselbe auch von Begriffswörtern, wenn der Begriffsumfang derselbe ist. Freilich wird sich bei solchen Ersetzungen der Gedanke ändern; dieser aber ist der Sinn des Satzes, nicht dessen Bedeutung. Diese aber, nämlich der Wahrheitswert, bleibt ungeändert.“ [128]

Bei der Anwendung seiner Definition, den ‚Begriff‘ als ‚Funktion‘ zu verstehen 6), stößt Frege auf die Schwierigkeit der „prädikativen Natur“ des Begriffs, nämlich dass ein Begriffswort erst zusammen mit einem Eigennamen eine Bedeutung und damit einen Wahrheitswert erhält. Ist er ‚wahr‘, folgt das Urteil, dass der als Argument gewählte Gegenstand unter den Begriff fällt. Diese Differenzierung zwischen funktionalem Begriffswort und Eigennamen / Gegenstand als Argument macht den Ausdruck ‚Begriff‘ unklar.

„Dies Wesen des Begriffes ist nun ein grosses Hindernis für den sachgemässen Ausdruck und für die Verständigung. Wenn ich von einem Begriffe reden will, zwingt mir die Sprache mit kaum entrinnbarer Gewalt einen unpassenden Ausdruck auf, wodurch der Gedanke verdunkelt – fast könnte ich sagen verfälscht – wird. …
Aus dem Gesagten geht hervor, dass Gegenstände und Begriffe grundverschieden sind und einander nicht vertreten können. Das gilt auch von den entsprechenden Wörtern oder Zeichen. Eigennamen können nicht wirklich als Prädikat gebraucht werden. Wo es etwa so scheint, lehrt die genauere Betrachtung, dass sie dem Sinne nach nur ein Teil des Prädikates sind: Begriffe können nicht in denselben Beziehungen stehen wie Gegenstände.“ [130]

Genau um diese Schwierigkeit geht es Frege im Fortgang dieses  Aufsatzes. Er entwickelt darin in sehr komprimierten Gedanken eine extensionale Logik 7) gegen den „Inhaltslogiker“, der nur beim ‚Sinn‘ stehenbleibe, ohne zur Bedeutung und damit zur Frage nach dem Wahrheitswert zu gelangen. Voller Emphase stellt Frege fest:

„Wenn es einem auf die Wahrheit ankommt- und auf die Wahrheit zielt die Logik hin – muss man auch nach den Bedeutungen fragen, muss man Eigennamen verwerfen, welche keinen Gegenstand bezeichnen oder benennen, wiewohl sie einen Sinn haben mögen; muss man Begriffswörter verwerfen, die keine Bedeutung haben. Das sind nicht etwa solche, die Widersprechendes vereinigen – denn ein Begriff kann recht wohl leer sein – sondern solche, bei denen die Umgrenzung verschwommen ist. Es muss von jedem Gegenstand bestimmt sein, ob er unter den Begriff falle oder nicht; ein Begriffswort, welches dieser Anforderung an seine Bedeutung nicht genügt, ist bedeutungslos. [133] Und der Dichtung genügt der Sinn, der Gedanke auch ohne Bedeutung, ohne Wahrheitswert, aber nicht der Wissenschaft.“ [134]

Das Zitat macht deutlich, wie sehr Frege dem Impetus der Wahrheitssuche folgt. Das Streben nach Wahrheit und der Trennung des Wahren vom Falschen macht für ihn das Wesen der Wissenschaft aus. Dem dienen alle Formalismen, Definitionen, Abgrenzungen, Präzisierungen, dem allein dient auch seine Insistieren auf Eindeutigkeit und Klarheit, demgemäß auf der Logik und ihren Gesetzen. Sie allein verbürgen für Frege vernünftiges, inhaltsvolles Denken und damit mehr und mehr Erkenntnis der Wahrheit, wie sie in Sätzen und Gedanken der Wissenschaft formuliert werden kann. Genau auf diesem Hintergrund wird verständlich, warum ihn der logische Widerspruch, ausgedrückt in der Russellschen Antinomie , völlig aus der Bahn warf. Frege hatte von Russell selbst in einem Brief davon Kenntnis erhalten. Er sah dadurch die „Grundlagen meines Baues erschüttert“. Auch sein Programm einer Begründung der Mathematik auf reiner Logik (→ Logiszismus), genauer der Rückführung der Sätze der Arithmetik auf logische Wahrheiten, wie er es in seiner Schrift „Die Grundlagen der Arithmetik. Eine logisch mathematische Untersuchung über den Begriff der Zahl“ (1884) unternommen hatte, war von diesem Verdikt betroffen. Frege zog sich zurück und wurde auch von den akademischen Zeitgenossen weithin ignoriert. Er veröffentlichte erst Jahrzehnte später wieder einige Schriften, die aber zu seinen Lebzeiten kaum Widerhall fanden. 8)

Eine vergleichbare Themenverschiebung von der logischen Sprachkritik zur ‚Philosophie der normalen Sprache‘ („Sprachspiele“) findet man in der Entwicklung Ludwig Wittgensteins, wenn man den frühen Wittgenstein des „Tractatus“ mit dem späteren der „Philosophischen Untersuchungen“ vergleicht 9). Das Programm des Logizismus verbindet sich ab den dreißiger Jahren des vorigen Jahrhunderts vor allem mit Rudolf Carnap („Logische Syntax der Sprache“, 1934), aber auch er wandte sich in seinen späteren Werken dem Aufbau unterschiedlicher logischer Systeme zu; manche rechnen ihn nun zum Behaviorismus. – Eine ganz eigene Richtung der Sprachphilosophie findet sich dann in den unterschiedlichen Entwürfen des Strukturalismus und Poststrukturalismus. Es sind dies vielleicht die eher indirekten Erben Gottlob Freges. Seine Arbeiten zur Logik der Sprache und zur Mathematik (Arithmetik) schlugen frühzeitig (wissenschaftsgeschichtlich gesehen vielleicht ‚vor‘ ihrer Zeit) Themen an, welche die Philosophie des 20. Jahrhunderts durchweg bestimmten. Frege begann noch voller Enthusiasmus und Zuversicht, der wissenschaftlichen Erkenntnis der Wahrheit in Form von wahren Sätzen durch eine eindeutig bestimmte und widerspruchsfreie axiomatische Logik ein zuverlässiges Gerüst zu geben. Russells Antinomie war ein erster Schlag gegen dieses Konzept, die Unvollständigkeitssätze Gödels (1931) erlebte er nicht mehr. Diese zeigten die Grenzen formaler Systeme auf, indem erstens in einem hinreichend starken formalen System wie der Arithmetik es Aussagen gibt, die nicht beweisbar sind (Unvollständigkeit) und dass zweitens in hinreichend starken widerspruchsfreien Systemen die Widerspruchsfreiheit nicht beweisbar und damit Hilberts Programm des Aufbaus einer widerspruchsfreien Mathematik nicht lösbar ist 10). Insofern hat Frege eine Entwicklung mit angestoßen, deren Tragweite und Fruchtbarkeit er erhofft, aber kaum wirklich übersehen hat, deren Probleme, Grenzen und Abhängigkeit von jeweiligen Rahmenbedingungen und Interpretationen er nur ansatzweise wissenschaftlich und biografisch erfahren hat. Für die Geschichte der modernen Philosophie, insbesondere in ihrem analytisch verfahrenden Zweig, ist die Bedeutung Gottlob Freges kaum hoch genug einzuschätzen.

 

Bleibt noch ein Blick auf die Sprachphilosophie insgesamt. Im angelsächsischen Bereich wird darunter nahezu ausschließlich die analytische Sprachphilosophie verstanden 11). Im europäischen Raum sind die Hermeneutik und der (Post-) Strukturalismus bedeutsamer gewesen. Sprache und Macht (Diskurstheorie, Michel Foucault), herrschaftsfreier Dialog (Theorie kommunikativen Handelns, Jürgen Habermas), antimetaphysische, gesellschaftliche Dekonstruktion (Schrift und Differenz, Jacques Derrida) nehmen sowohl psychologische (Lacan) als auch existenzphilosophische (Martin Heidegger) Traditionen auf. Sprachphilosophie im Umfeld von Entwürfen sozialen Handelns, gesellschaftlicher Kommunikation oder metaphysischer Ontologien reicht also sehr viel weiter als der auf Logik und analytische Philosophie beschränkte Ausschnitt. Das relativiert die Bedeutung Freges, weist ihm aber innerhalb einer bestimmten Entwicklungslinie der Sprachphilosophie eine besondere Bedeutung zu. Wieweit in der Nachfolge Freges die Anwendung logischer Systeme und aktueller Sprachtheorien im Blick auf eine Logik der digitalisierten Sprache 12) fruchtbar gemacht werden kann, bleibt ein spannendes Thema. 13)

Reinhart Gruhn


Anmerkungen

1) So ist Freges Sprachphilosophie Thema eines Graduierten-Seminars an der Uni Bielefeld. – Seine wichtigsten sprachphilosophischen Schriften hat Günther Patzig 1962 herausgegeben. Sie wurden 2008 neu aufgelegt: Gottlob Frege, Funktion – Begriff – Bedeutung. Fünf logische Studien, Textausgabe TB V&R 2008 [zurück]

2) Gottlob Frege, Begriffsschrift und andere Aufsätze. Mit E. Husserls und H. Scholz‘ Anmerkungen, herausgegeben von Ignacio Angelelli, 1993 (4. Nachdruck der 2. Auflage 1964), S. X [zurück]

3) zitiert nach dem Abdruck von „Funktion und Begriff“ in der Taschenbuch-Ausgabe (1), S. 2 – 22. [zurück]

4) Über Sinn und Bedeutung, in: Ztschr. f. Philos. u. philos. Kritik, NF 100, 1892, S. 25–50, heute auch in der unter 1) genannten Textausgabe. Bei Zitaten beziehe ich mich auf die Seitenzahlen in diesem Taschenbuch. [zurück]

5) Ausführungen über Sinn und Bedeutung. 1892 /1895, in: Frege, G., Nachgelassene Schriften. Unter Mitwirkung von Gottfried Gabriel und Walburga Rödding bearbeitet, eingeleitet und mit Anmerkungen versehen von Hans Hermes, Friedrich Kambartel, Friedrich Kaulbach. Zweite, revidierte Auflage. Hamburg 1983, 128–136. [zurück]

6) siehe „Funktion und Begriff“ im Taschenbuch unter 1). [zurück]

7) „Was zwei Begriffswörter bedeuten, ist dann und nur dann dasselbe, wenn die zugehörigen Begriffsumfänge zusammenfallen“ a.a.O. S. 133 [zurück]

8) Einen ersten Überblick gibt der Wikipedia-Artikel zu Gottlob Frege (besser der englische Artikel). Er soll ein recht unfreundlicher, antisemitisch und nationalistisch eingestellter Zeitgenosse gewesen sein. – Unter den Artikeln findet man eine gute Auswahl weiterführender Literatur vor allem der Gegenwart und Weblinks. [zurück]

9) Die Interpretationen des Werkes Wittgensteins sind uferlos und hoch umstritten. Fast jede kurze Kennzeichnung sticht in ein Wespennest und zieht sich den Vorwurf der Fehlinterpretation zu. Überblick im Wikipedia-Artikel zu Wittgenstein. [zurück]

10) Die Unvollständigkeitssätze Kurt Gödels und ihre Rezeption gehören zu den Meilensteinen der modernen Philosophiegeschichte ebenso wie zur Geschichte der Mathematik. Heute wird eher auf die begrenzte Bedeutung der Gödelschen Sätze hingewiesen, die dem Aufbau widerspruchsfreier logischer bzw. mathematischer Systeme nicht im Wege stehen müssen. [zurück]

11) Diese Einschränkung räumt zum Beispiel die US-amerikanische Internet Encyclopedia of Philosophy bei ihrem Artikel zu ‚Philosophy of Language‘ ausdrücklich ein. [zurück]

12) Hierbei ist zuerst an die Logik der Programmiersprachen zu denken, dann aber auch an die Umsetzung und Erkennung natürlicher Sprache in bzw. durch digitale Systeme. [zurück]

13) Nachtrag: Knapp und präzise ist die Darstellung der Sprachphilosophie Freges in heutiger Begrifflichkeit in: Johannes Hübner, Einführung in die theoretische Philosophie, 2015, S. 96 – 112 [zurück]


Hier geht es zur Fassung als e-book (PDF):

Freges Sprachphilosophie

Das Maß der Vernunft

 Kunst, Philosophie, Religion, Vernunft, Wissenschaft  Kommentare deaktiviert für Das Maß der Vernunft
Dez 072017
 

Über das Maß der Vernunft zu sprechen bedeutet, dass Vernunft nicht maßlos ist. Ein Maß ist eine Begrenzung, in diesem Fall eine begriffliche Bestimmung. Vernunft ist nicht alles und jedes, was denkt, weil nicht alles Denken und nicht alle Welt vernünftig ist. Man kann Unsinniges denken, man kann sich etwas ausdenken, man kann sich selbst etwas denken. Denken scheint als Tätigkeit des menschlichen Geistes umfassender zu sein als das, was unter Vernunft verstanden wird. Vernunft ist regelgeleitetes Denken, das Denken aufgrund von Prinzipien und Kategorien (Kant). Man kann mit Kant davon den Verstand unterscheiden als praktische Tätigkeit des Unterscheidens und Urteilens, aber das ist in unserem Zusammenhang nicht wichtig. Einverständnis herrscht darüber, dass die Betätigung des menschlichen Geistes nicht ohne die funktionale Ebene der physischen Basis (Gehirn) geschehen kann. Auch diese Unterscheidung wird jetzt nicht weiter verfolgt. Eine dritte Unterscheidung interessiert mich hier, die zwischen Vernunft und Wirklichkeit. Auch wenn diese mit den vorigen beiden Unterscheidungen zusammenhängt, kann sie zunächst für sich betrachtet werden.

Abgesehen vom alten und neuen Skeptizismus besteht in der heutigen Philosophie, vor allem in ihrer „analytischen“ Ausprägung, Einigkeit darüber, dass sich die Vernunft auf die Wirklichkeit der Welt bezieht. Wirklichkeit wird vor allem auf naturwissenschaftlicher Basis definiert und entsprechend naturalistisch verstanden. Auch dies sei hier zunächst einmal nicht weiter hinterfragt. Die Aufgabe der Vernunft ist es dann, sich an der Wirklichkeit abzuarbeiten, sie zu erkennen, zu durchdringen, Regeln und Muster zu finden und diese in einer möglichst klaren und eindeutigen Sprache (Mathematik) zu beschreiben, zu „formulieren“. Ferner ist es Aufgabe der Vernunft, über ihre eigenen Verfahren und Regeln (Logik, Sprache) Rechenschaft abzulegen. Wenn man will, kann man auch über die Bedingungen der Möglichkeit des angemessenen Vernunftgebrauchs nachdenken, also über das, was man heute die Metaebene nennen würde und was bei Kant die Bestimmung des Transzendentalen ist. Diese Art einer klar begrenzten Metaphysik ist gerade noch gelitten. Kurz gesagt ist die Vernunft die Basis des wissenschaftlichen Umgangs mit der Welt. Die Frage ist aber, ob die Vernunft der ausschließliche Umgang mit Wirklichkeit ist, ob also ein bestimmter vernünftiger Kanon von Denkweisen und Methoden, wie er in den Wissenschaften verwirklicht ist, auch das Ganze der Wirklichkeit bestimmt, die uns überhaupt irgendwie zugänglich ist.

Man wird schnell einsehen, dass dies nicht der Fall ist. Es gibt viele andere Wege zur Wirklichkeit, beispielsweise über die Emotionen, das „Bauchgefühl“, über Stimmungen, Töne, Tanzen, alle weiteren Sinneswahrnehmungen wie z. B. Düfte, über willkürliche Aneignung von Wirklichkeit, wie sie subjektiven Vorstellungen entspricht (Schopenhauer). Die Kunst, also die Gesamtheit der künstlerischen Tätigkeiten und Gestaltungen der Wirklichkeit, ebenso wie die Religion und ihr transzendenter Weg zur Wirklichkeit und schließlich der Politik mit Erwerb und Verlust von Macht als entscheidender Einwirkungsweise auf die Wirklichkeit sind als wichtigste Bereiche neben der Vernunft zu nennen. Diese Bereiche sind nicht per se unvernünftig, aber jedenfalls eigenständig und folgen nicht in erster Linie den Regeln und Methoden der Vernunft. Die Wirklichkeit, wie sie uns zugänglich ist, reicht also weiter als das, was mit dem Begriff Vernunft begrenzt und bestimmt ist. Man könnte darüber hinaus auch noch an Wirklichkeiten denken, die uns nicht zugänglich sind, über die sich darum auch nichts sagen lässt, die es aber geben kann, die man darum als Grenzmöglichkeiten stehen lassen muss.

Es ist ein verführerischer Weg, die Vernunft, wie sie sich in den Wissenschaften verwirklicht, von vornherein als beschränkt und eingegrenzt anzusehen. Sie droht dann bald in der Beliebigkeit unterschiedlicher Zugänge zur Wirklichkeit zu versinken. So behauptet es die Redeweise vom postfaktischen Zeitalter, als wäre nun, da die Vernunft selbst als korrumpierbar erscheint, alles gleich möglich, wirklich, richtig. Das verkennt die ausgezeichnete Stellung, die der menschlichen Vernunft in Kultur- und Geistesgeschichte zugewachsen ist. Die Vernunft ist das einzige Mittel, das Menschen haben, um ihre Welt und Umwelt methodisch zu erkennen und intersubjektiv zu vermitteln, das heißt, eigene Erkenntnis mitzuteilen und  durch andere infrage stellen zu lassen, und zwar auf dem Boden gemeinsamer, anerkannter Wege und Verfahrensweisen. Dieses aufzugeben kann mit guten Gründen niemand wollen. Bloßer Wille und eigenes Interesse, Machtgewinn und -durchsetzung existieren sehr wohl weithin, ohne auf vernünftige Begründung und Rechtfertigung angewiesen zu sein. Umso mehr ist zur Begrenzung von Macht und Willkür vernünftiges Denken und Argumentieren unerlässlich, wenn der Primat einer humanitären Orientierung der Wirklichkeit (gleiche Würde und Rechte des Menschlichen) bestehen bleiben soll. Wissenschaft ist nicht eine beliebige Option unter vielen gleichwertigen, sondern eine ausgezeichnete, weil die Vernunft selbst zu den ausgezeichneten Eigenschaften des Menschen gehört. Über die Art, die Grundlagen und die Grenzen der jeweiligen Wissenschaft lässt sich dennoch sehr wohl streiten, aber eben als Auseinandersetzung um den besten, weil angemessensten und sachgerechtesten Weg, Erkenntnis zu gewinnen, auf der Basis gleicher Regeln und Verfahren des Vernunftgebrauchs.

Himmel

Die ausgezeichnete Stellung der Vernunft nachdrücklich zu behaupten und zu verteidigen, heißt aber nicht, die Vernunft als den einzigen und allein gültigen Zugang zur Wirklichkeit zu definieren. Das hieße, das Kind mit dem Bade auszuschütten. Es gibt andere Wege, weniger objektivierbare und regelgeleitete, aber oft ebenso intersubjektiv vermittelbar, bisweilen sogar deutlich weitreichender kommunizierbar als der Weg über die Vernunft, Wissenschaft und Sprache. „Musik kennt keine Grenzen“, sagt man, und meint damit genau dies, dass die „Sprache“ der bildenden Kunst oder eben der Musik eine unmittelbare Verbindung der teilnehmenden Menschen in und mit ihrer Wirklichkeit bewirkt. Darüber hinaus kann auf den Wegen der künstlerischen Weltdarstellung mehr und anderes erschlossen werden, als es der wissenschaftliche Zugang zulässt. Intuition, Kreativität, Ahnung, unklare Gedanken und gemischte Seelen- und Gemütszustände können sich hier Ausdruck verschaffen und so auf die Vieldeutigkeit und Ambiguität der Wirklichkeit angemessen Antwort geben. Das meint auch das heute gebrauchte Wort der Resonanz: auf Wirklichkeit und Umwelt anders antworten und eingehen als objektiv, vernünftig, regulär und analytisch. Die für alle Wissenschaft nötige Objektivierung kann in anderen Bereichen und Zugängen der Wirklichkeit gerade hinderlich sein. Gerade nicht erst dann, wenn ich ein Musikstück analysiere, habe ich es genossen, sondern es ist eher umgekehrt: Weil es mich anspricht, mich bewegt, mir eine neue Welt erschließt, kann ich auch das Interesse aufbringen, es weiter zu untersuchen und in seinen besonderen Strukturen zu verstehen und schätzen zu lernen. Dieser zweite Schritt kann sein, muss es aber nicht. Kunst spricht aus sich selber, und für ihre Kommunikation gibt es keine vernünftigen Regeln und Grenzen.

Ein besonderes Erlebnis war ein Konzert von Musikern und Musikerinnen der Musikhochschule Münster. Zu hören, zu sehen und zu erleben, wie sich junge Menschen Musikwerke aneignen, sie umformen und ihren eigenen Ausdruck finden hinsichtlich dessen, was ein Musikstück ausstrahlt, ist eindrucksvoll und schafft eine neue musikalische Wirklichkeit.

In anderer Weise gilt das auch für die Religion. Sie ist mitnichten als ein gesellschaftliches System (Niklas Luhmann) angemessen beschrieben. Religion als derjenige Bereich des Menschlichen, der es mit dem Göttlichen zu tun bekommt, ist ein so wesentlicher eigenständiger Bereich, dass er nicht in der Antithese von Immanenz und Transzendenz erfasst werden kann. In den Religionen vollzieht sich auf sehr unterschiedliche Weise durch Meditation, Tanz, Ritual usw. eine Selbstbeziehung, Selbstbegrenzung und Selbsttranszendierung auf etwas, das den Menschen sowohl einzeln als auch innerhalb einer Gemeinschaft übersteigt. Der Mensch sieht sich konfrontiert mit einer Wirklichkeit, die sein natürliches Dasein begründen, begleiten und ausrichten kann und die ihn unter, inmitten und jenseits der natürlichen Welt umgibt. Diese vagen Formulierungen deuten an, dass Religion in ihrer jeweiligen kulturellen Ausprägung sowohl innerweltlich (Schamanen, Ahnen) als auch vorweltlich (Traumzeit) und jenseitig (das Göttliche, Gott) und zugleich als Verschränkung dieser drei Dimensionen beschreibbar ist. Jenseitige-Welt-Vorstellungen, wie sie dem christlich-jüdisch- islamischen Religionskreis zugeschrieben werden, sind, falls sie zutreffen, kein exklusives Muster, das als Maßstab dienen kann. Religionen als kulturelle Gegebenheiten sind so vielfältig, dass es schwerfällt, das darin sich äußernde Welt- und Lebensgefühl auf einen gemeinsamen Nenner zu bringen. Vielleicht ist es dies, dass sich der Mensch innerhalb seiner natürlichen Welt von einer darüber hinausgehenden Wirklichkeit umgeben und durchdrungen sieht, die sich dem zweckrational-technischen, nur verstandesmäßigen Zugriff entzieht. Als gesellschaftlich geronnene Form mag Religion dann auch soziologisch als System beschreibbar sein und theologisch rational gestaltet werden.

Wie immer man sich selbst gegenüber der Welt der Kunst oder gegenüber der Wirklichkeit der Religion verortet und verhält, positiv, negativ oder indifferent, muss jeder einzelne mit sich ausmachen. Es gibt das bekannte Bonmot, man sei „religiös unmusikalisch“ (Max Weber; Jürgen Habermas, siehe dazu Dirk Kaesler), um eine distanzierte Nähe oder Ambivalenz auszudrücken. Es ist kein Zufall, dass diese Metapher Kunst und Religion verbindet, als sei die Religion mit der Musik und diese mit der Religion vergleichbar oder zusammengehörig. Vielleicht drückt sich darin sehr prägnant aus, wie ‚Vernunftmenschen‘ und ausgewiesene Wissenschaftler bei aller notwendigen rationalen Verpflichtung ihrer Arbeiten doch um eine Grenze wissen, um ein Anderes gegenüber der Vernunft, dessen man teilhaftig sein kann oder nicht, dessen Kraft und Wirklichkeit aber für diejenigen, die religiös oder musikalisch oder beides sind, unzweifelhaft gegeben ist. Genau so verstanden ist Vernunft maßvoll und wirksam, ausgezeichnet als eine der besten Fähigkeiten des Menschen, aber doch nur als eine der vielfältigen Lebensäußerungen, die Kultur und Welt prägen, die den Menschen zugleich einbetten in eine umfassendere Wirklichkeit, die nicht auszumessen und letztlich nicht zu ergründen ist.

Reinhart Gruhn

Christentum als Religionsfamilie

 Geschichte, Religion  Kommentare deaktiviert für Christentum als Religionsfamilie
Sep 242017
 
Religiöse Strömungen im Wandel der Zeit.

Wir sprechen von der Religion des Christentums oder vom Islam als Religion. Sowohl unter „dem Islam“ als auch unter „dem Christentum“ werden aber sehr verschiedene, teilweise gegensätzliche religiöse Vorstellungen und Ausprägungen verstanden. Dass der Unterschied zwischen Sunniten und Schiiten im Islam bedeutsam ist und gewaltsame Auseinandersetzungen einschließen kann, ist allein schon deswegen bekannt, weil dadurch politische Auseinandersetzungen und Machtkämpfe zum Beispiel im Irak oder zwischen Irak, Iran und Saudi Arabien bestimmt, zumindest mitbestimmt werden. Innerhalb des Christentums gab es zwar ebenfalls heftige „Religionskriege“, aber erstens liegen die meist und zum Glück länger zurück und zweitens betonen wir heute eher die politischen und ökonomischen Hintergründe dieser dann nur noch sogenannten Religionskriege. Natürlich ging es im Dreißigjährigen Krieg in Europa und Deutschland um weit mehr als nur um Religion, es ging aber eben auch nicht zuletzt um Religion, um Glaubens- und Denksysteme. Man sollte aber noch weiter zurückgehen und die Anfänge und frühe Entwicklung in den Blick nehmen, nicht nur beim Islam, sondern gerade auch beim Christentum, um die heutigen unterschiedlichen Ausprägungen religiöser Erscheinungen, in unserem Falle der christlichen, besser verstehen zu können. Natürlich ist jeder Blick in die Geschichte eine Rekonstruktion im Interesse der Gegenwart. Dann zeigt sich: Das Christentum ist kein einheitlicher Block, sondern eine weitverzweigte Religionsfamilie.

Schaut man auf die ersten 3 – 4 Jahrhunderte nach der Entstehung der christlichen Religion, dann kommt ein sehr bunter Strauß unterschiedlichster religiöser Formen, Glaubenswelten und kultisch-sozialer Lebensverhältnisse zum Vorschein. Frühe christliche Gemeinden, das heißt Gruppen von Menschen, die sich in irgendeiner Form im Bekenntnis zu einem „Jesus Christus“ ( = Retter und HERR) einig wussten, haben sich in sehr unterschiedlichen Weisen religiös verwirklicht. Das hing von der religiösen Umwelt ab, von vorhergehenden Traditionen, ferner von Einflüssen aus den naheliegenden Kulten und Kulturen. 1) Solche frühen christlichen Gemeinden haben sich je nach Ort und Herkunft verstanden als eine besondere jüdische Gruppe, als hellenistische Erlösungsgemeinde, als Anhänger eines Mysterienkultes, als Verkörperung einer dualistischen Weltsicht und jenseitigen Lebenshoffnung, als damals ‚moderne‘, das heißt hellenistische Bewegung, als Gruppen, die nüchtern und praktisch einem Staatswesen zur gemeinsamen Grundlage werden konnten. In einem langwierigen Prozess der Auseinandersetzung, Anpassung, Abstoßung, Verschmelzung usw. haben sich einige Hauptrichtungen durchgesetzt, die wir dann „Kirchen“ nennen. Es gab von Anfang an mehrere konkurrierende Kirchen. Die Geschichte, wie wir sie hauptsächlich kennen, ist zumeist aus der Sicht der Sieger, der Erfolgreichen geschrieben, so auch hier. „Kirchengeschichte“ ist darum meist gleichbedeutend mit einer parteilichen Sicht auf die Entstehung und Durchsetzung einer ganz bestimmten Form christlichen Glaubens, Lebens und kirchlicher Institutionen. Auch wenn man von den altkirchlichen „ökumenischen“ Konzilien spricht und damit Zusammenkünfte einiger der wichtigsten Bischöfe und Regionen vor allem der römischen Welt meint, so war schon damals „ökumenische“ Einheit und Verständigung mehr Wunschtraum als Realität. Zu oft fand sich da zeitlich begrenzt zusammen, was eigentlich wie Feuer und Wasser aufeinanderprallte. In den mühsam errungenen Kompromissen, die in entsprechende Formeln gegossen wurden (altkirchliche Symbole als „Formelkompromisse“), zeigten sich große Unterschiede des Glaubens, Lebens und kirchlicher Organisation, die sofort nach diesen Konzilien wieder aufbrachen in der Frage, wer die richtige Interpretation dieser Formeln beanspruchen könne. Nebenlinien wurden als „Sekten“ und „Häresien“ ausgegrenzt. Dabei schälten sich einige wenige Hauptströmungen heraus, die bis heute bedeutsam geblieben sind.

I

Da gibt es in den Anfängen eine östliche Strömung, geprägt von persisch-dualistischen Vorstellungen, oft verbunden mit mystischen Kulten, wie sie in den syrischen und afrikanisch-koptischen Gemeinden verbreitet waren. Von dieser bunten Vielfalt eines Christentums, das weit entfernt war von dem, was sich dann in Ost und West des Römischen Reiches durchsetzte, wissen wir erst Genaueres seit einigen Jahrzehnten aufgrund der Schriftfunde bei Nag Hammadi, die uns ein ganz andersartiges, „gnostisches“ Christentum zeigen, das seinerzeit sehr verbreitet war, aber spätestens nach der islamischen Expansion untergegangen ist 2). Auch die Textfunde von Qumran erzählen von einer bisher unbekannten ‚geheimen‘ religiöse Welt, innerhalb derer das Christentum entstanden ist. Mit heutigen Erfahrungen würden wir da auf den ersten Blick kaum etwas als christlich identifizieren. Manches erscheint sehr „anthroposophisch“ (also dort auch nichts Neues), anderes mystisch-poetisch mit fernöstlichem Einschlag. Dieses Christentum war ziemlich offen für Vieles. Besonders eine dualistische, gemeinhin „gnostisch“ genannte Vorstellungswelt pflegte Kulte, die sich dem jungen Christentum im persisch – ägyptischen Einflussbereich als Verstehens- und Ausdruckshilfen anboten. „Gnosis“ ist ein Sammelbegriff für eine religiöse Kult- und Ideenwelt, die sich aus diversen Quellen speiste und vor allem dadurch gekennzeichnet war, dass man diese schlechte böse Welt der Finsternis überwinden wollte hin zu einer reinen, guten Welt des himmlischen Lichts. Den Aufstieg dorthin erlangte man auf unterschiedlichen Wegen, die man „Erkenntnis“ (griechisch „gnosis“) nannte. Beide Welten waren strikt antagonistisch, die jetzige böse Welt auch nur von einem verderblichen Baumeister („Demiurg“) erschaffen. Um die ins Dunkle gefallenen Seelen („Lichtfunken“) zu erlösen, musste ein Erlöser kommen, der ihnen den Weg zurück wies. Genau diese Rolle erkannten viele junge Christengemeinden in Jesus, dem Gottessohn. Das gnostische Interpretationsschema war einleuchtend, gut bekannt, offen für Ergänzungen (synkretistisch) und darum im frühen Christentum als „Ideenbörse“ beliebt und weit verbreitet, auch unter anerkannten Kirchenlehrern. Das gnostische „U“ bot sich als Verstehenshilfe für die ‚Christusverkündigung‘ geradezu an: Der himmlische Erlöser stieg auf die Erde hinab, um die Erkenntnis Suchenden zu erlösen und hinaufzuführen ins himmlische Licht. Wir finden auch in der biblischen Überlieferung solche Vorstellungen. Sie waren im weiteren Verlauf der christlichen Religionsgeschichte in der einen oder anderen Form geschichtlich äußerst wirksam bis in unsere Tage. Alle Erlösungsmystik bedient sich im Steinbruch der Gnosis. Neben dem Christentum entstand im Manichäismus sogar eine unmittelbare gnostische Konkurrenz, die bis ins frühe Mittelalter im östlichen römischen Reich bis nach Asien hinein wirksam und verbreitet war. Es ist kein Wunder, dass diese sich kultisch artikulierende Vorstellungswelt der Gnosis (Mysterienfeiern als Formen der Sakramente) in großen Teilen des Christentums vielfachen Zuspruch fand. Fast schwerer zu erklären ist es, warum und unter welchen Umständen die christlich-gnostischen Gemeinden nach zwei, drei Jahrhunderten wieder von der Bildfläche verschwanden und wie der orthodoxe bzw. katholische christliche Mainstream diese Vorstellungen einfangen und entschärfen konnte. Mystik spielte im Christentum künftig nur noch eine Nebenrolle von geringer Bedeutung.

II

Ganz anders entwickelte sich dasjenige Christentum, das sich als „rechtgläubig“ und dogmatisch festgelegt im östlichen Römischen Reich etablierte, die Orthodoxie. Es ist diejenige Form des Christentums, die in seinem ersten Jahrtausend wahrscheinlich die bedeutendste war. Das hing natürlich auch mit der Stärke des Oströmischen Reiches und seiner Hauptstadt Konstantinopel zusammen. Hier wurde eine christliche Kirche zum ersten Mal für Jahrhunderte ’staatstragend‘. Wiewohl sie Staatskirche war wie im westlichen Römischen Reich, existierte die christlich-orthodoxe Kirche doch verschieden vom Westen in einer eher harmonischen Symbiose mit dem Kaisertum. Der Kaiser verstand sich als Vizekönig Gottes auf Erden – und der Patriarch als oberster Seelenhirte, der eine für das Diesseits, der andere für die Vergegenwärtigung der jeneitigen Welt zuständig. In Ostrom wurde so der „Cäsaropapismus“ zum Begriff, wenngleich nicht ganz zutreffend. Das vertrug sich bestens mit einem Verständnis vom Christentum, das in der Kirche, der einzig wahren, rechtgläubigen (das ist die Übersetzung von „orthodox“), das Abbild des Himmels der Erlösten sah, die Repräsentation des Jenseits im Diesseits, die prachtvolle und liturgisch ausgiebig gefeierte Vorwegnahme der endzeitlichen und endgültigen Herrschaft des Christus als Weltenherrn (Pantokrator). Die Bedeutung der Liturgie als Vollzug der ewigen Freude und Anbetung, die Ikonen als Bilder, die in ihrem Licht den Schein der ewigen Herrlichkeit im Diesseits abbildeten, vermittelten das Seelenheil allen Schmerzen und Leiden zum Trotz und prägten so ihre Frömmigkeit. Es war eine machtvolle Kirche mit einer wirkungsvollen Ideologie, nämlich einer Religion, die sich als allumfassend und wahrhaftig, als vorweggenommene Einheit der erlösten Welt darstellte. Differenzen und Meinungsverschiedenheiten in Fragen der Lehre (Dogmatik) konnten da nur stören und mussten nicht zuletzt auf Geheiß des Kaisers auf Konzilien, denen er selbst präsidierte, beigelegt und kanonisiert werden. Mit der Dogmatik der altkirchlichen Konzilien im 4. bis 7. Jahrhundert war ein Abschluss erreicht, der sich nicht mehr überbieten, sondern nur noch im Laufe der verrinnenden Zeiten bis zum erwarteten Ende liturgisch darstellen und feiern ließ. Diese orthodoxe Frömmigkeit und Kirche, die dann mit dem Niedergang des byzantinischen Reiches an innerer Kraft gewann und sich insbesondere vor und nach dem Fall Konstantinopels (1453) ins russische und bulgarische Reich verlagerte, konnten dann die wechselvollen Verhältnisse der Jahrhunderte dadurch überstehen, dass sie sich als Inseln der Ewigkeit in der Zeit verstanden und die Hoffnung auf die herrliche Weltherrschaft des Christus Pantokrator lebendig hielten. Die politischen und sozialen Verhältnisse, unter denen man lebte, waren vergleichsweise unerheblich. Darum ist es kein Wunder, dass eine solche Kirche auch Stalinismus und Kommunismus in der russischen Sowjetunion überleben und sich danach wie Phönix aus der Asche erheben konnte – zeitlos die ewige Wahrheit Gottes verbürgend.

III

Ehe wir zu der anderen Großkirche im Westen des Römischen Reiches kommen, sollen zwei teilweise sachlich konkurrierende, teilweise parallele Entwicklungen genannt werden, die es gleichsam als Nebenlinien der großen Kirchen im Osten und Westen gab, die Marcioniten (Marcion) und die Arianer. Auf die genauen Lehren und dogmatischen Unterschiede kann hier nicht eingegangen werden 3), sie stellen aber Typen von Denk- und Glaubensweisen dar, die sich über die Jahrhunderte hinweg im Christentum durchgehalten haben oder in bestimmten Zeiten und unter besonderen Umständen einflussreich wiederkehrten. Einmal geht es um das Verhältnis zum Judentum, aus dem das frühe Christentum entstanden war (Jerusalem), und zur „Heiligen Schrift“ des Judentums, christlich das Alte Testament. Marcioniten lehnten die Verbindung zum Judentum, dem Alten Testament und dem Gott des Judentums ab und sahen in der christlichen Religion etwas Neues, das sie mit gnostischen Gedanken ausfüllten. Diese dezidiert antijüdische Position hat sich in den Großkirchen zwar nicht durchgesetzt, sondern wurde ausdrücklich verworfen (die christliche Bibel besteht demnach aus Altem und Neuem Testament), aber ein antijüdischer Reflex blieb doch durchweg erhalten, sofern das Judentum nur als fehlgeleiteter Vorgänger („Alt“, „verworfen“) und die jüdische „Heilige Schrift“ nur in christlicher Uminterpretation und Abgrenzung eben als Altes Testament angenommen und dem christlichen Neuen Testament vorangestellt wurde. Marcion bzw. das, was man für marcionitisch hielt, wurde immer wieder aktuell, wenn Kirchen Antijudaismus als eine Form des Antisemitismus aufgriffen und gegen „die Juden“ als die klassischen „Feinde“ des Christentums einsetzten. Diese unselige Geschichte des christlichen Antisemitismus lässt sich bis in die jüngste Neuzeit verfolgen; sie spielte auch in der Reformation Martin Luthers (ab 1517) eine bedeutsame Rolle.

Die andere Nebenlinie, die Arianer, repräsentieren einen Jesus – Glauben, der sich von den theologischen Dogmen der Gottessohnschaft und der Trinität absetzte. Auch diese Form christlichen Glaubens wurde von den Mehrheitskirchen in den altkirchlichen Konzilien abgelehnt und als falsche Lehre verworfen (Häresie, Ketzerei), dennoch aber erfreute sich der Arianismus beim Übergang zum frühen Mittelalter vor allem in der Sachsen- und Germanenmission großer Beliebtheit. Die gotische Wulfilabibel war arianisch geprägt. Bis heute finden die Gedanken einer ‚Entrümpelung‘ von schwierigen Dogmen wie der Trinität (Gott Vater, Gott Sohn, Gott Heiliger Geist) oft Zustimmung, ebenso wie eine schlichte Jesus-Nachfolge mit einem bestimmten moralischen Rigorismus, der nicht nur bei Franz von Assisi zu finden ist, sondern ebenso bei den heutigen Jesus-People, ferner in der Form einer religiös-ethischen Verehrung des Menschen Jesus als Vorbild der Mitmenschlichkeit und Nächstenliebe (Albert Schweitzer). Schwierig ist dabei immer, dass mit einer einfachen Jesus – Frömmigkeit alle möglichen Wunschbilder von einem moralischen Vorbild mit „Jesus“ gefüllt werden können, da wir faktisch vom historischen Menschen Jesus kaum etwas wissen. Alles, was in der Bibel darüber zu lesen ist, ist aus dem Christusbekenntnis heraus zurückgeblendet. Dennoch hat die Jesus-Nachfolge besonders in Abgrenzung zu den als unverständlich empfundenen Dogmatiken und Kirchenlehren zu allen Zeiten ihre Anhänger und Freunde gehabt. – Für beide Nebenlinien gilt: Das Christentum ist ohne diese beiden Strömungen, ohne seine vielen Nebenlinien über die zwei Jahrtausende hinweg nur unzureichend zu verstehen und nur unvollständig beschrieben. Zur Geschichte des Christentums als ‚Religionsfamilie‘ gehören eben auch wesentlich seine „Ketzergeschichten“.

IV

Die andere vor allem im zweiten Jahrtausend des Christentums dominierende Form der christlichen Religion ist die römisch-katholische Kirche. Spätestens nach 1204 (Plünderung Konstantinopels durch venezianische Kreuzfahrer), im Grunde aber schon seit der gegenseitigen Bannung des römischen Papstes und des byzantinischen Patriarchen 1054 hatte man sich zwischen dem westlichen und dem östlichen Teil der christlichen Religionsfamilie nicht mehr viel zu sagen. Dieses Jahr wird aus westlicher Sicht als Beginn des „Morgenländischen Schismas“ bezeichnet. Seitdem ist diese westliche Form des Christentums zur vorherrschenden geworden, insbesondere nach der Kolonialisierung Amerikas und weiterer Erdteile. Die römisch-katholisch geprägte Kirchenform ist schon sehr speziell, auch von ihrer Entstehung her. Ihre Bedeutung geht letztlich zurück auf das Dekret eines römischen Kaisers, das Mailänder Edikt Konstantins (313). Darin wird im ganzen Reich Religionsfreiheit gewährt, was faktisch der christlichen Kirche zur Anerkennung und weiteren Ausbreitung verhalf. Staatsreligion wurde das Christentum dann im Jahre 380 unter Kaiser Theodosius. Im Westen des Römischen Reiches entwickelte es sich daraufhin als römisch-katholische (=allumfassende) Kirche, die vom Kaisertum bewusst als einigendes Band im großen Reich und als ‚Staatsdoktrin‘ auserkoren war. Das führte zu einigen Eigentümlichkeiten: Die Christenheit als römisch-katholische Kirche organisierte sich strikt hierarchisch und exklusiv als priesterliche Bischofskirche, genauer als Papstkirche; sie nahm für ihre quasi-staatliche Organisation das römische Recht auf und führte es weiter, und sie formte sich zur unverzichtbaren Heilsinstitution – „außerhalb der Kirche kein Heil“! 4) Diese drei Eigenheiten haben die abendländische Geschichte nachhaltig geprägt bis auf diesen Tag. Jeder Jurastudent lernt die Grundlagen des Römischen Rechtes kennen, das ab dem Mittelalter das gemeine Recht schlechthin wurde; es ist auf uns gekommen nur durch die kirchliche Vermittlung. Die Hierarchie der Priester und Bischöfe wurde zum Urbild gegliederter mittelalterlicher Ordnung, die bei Fürsten, Königen und Kaisern ihre Entsprechung und Sakralisierung fand (bis hin zur heftigen Konkurrenz), und „Kirche als Heilsanstalt“ ist ein Erfolgsrezept gewesen mit solch starker Wirkung, dass man sich lange Zeit, Jahrhunderte lang, unter dem Christentum nichts anderes vorstellen konnte.

Die besondere Leistung der römisch-katholischen Kirche als religiöse, christliche Großorganisation besteht darin, sich über Jahrhunderte behauptet, an Bedeutung und Macht gewonnen und weltweit ausgebreitet zu haben. Insbesondere die Art der Heilsvermittlung wurde zum wirkungsvollen Weg, Macht und Einfluss über die Seelen der Menschen zu gewinnen – und letztlich sogar einen Kaiser in die Knie zu zwingen (Heinrich IV. in Canossa). Es war der Kirche gelungen, eine religiöse Botschaft, das Narrativ des Evangeliums von dem Gottessohn Jesus Christus, in ein instrumentelles Heilsmittel zu verwandeln, es von seinen geschichtlichen Ursprüngen zu lösen und in sich selbst zu reproduzieren und zu monopolisieren: Nur die Kirche vermittelte nun in ihren gegenwärtigen Sakramenten das Heil der ewigen Seligkeit, und dieses war absolut lebensnotwendig, um nicht der Strafe Gottes und der ewigen Verdammnis zu verfallen. Feierte die Orthodoxie in ihrer Liturgie die schon gegenwärtig sichtbare Herrlichkeit des künftigen Weltenherrn, so vollzieht die römisch-katholische Kirche das heilsnotwendige Opfer in jeder Messe neu und eignet es durch Buße und Kommunion den Gläubigen in eigener Machtvollkommenheit zu. Den Papst als Stellvertreter Christi auf Erden zu verstehen, ist da nur konsequent. Diese theologisch-kirchliche Konstruktion erwies sich als Schlüssel zu nahezu unbegrenzter Macht über Menschen und Gewissen. Die Drohung mit ewiger Verdammnis war wirkungsvoll, besonders in vormoderner Zeit, denn einmal gab es eine lange apokalyptische Tradition eines furchtbaren Endgerichtes, zum andern trugen Texte der Bibel dazu bei, den Zorn und strafenden Vernichtungswillen Gottes gegenüber dem ‚Sünder‘ ernst zu nehmen. Zwar wurde die Bibel vom Volk nicht gelesen und auch in der Messe nur lateinisch, also für die Gläubigen unverständlich dargeboten, aber dafür gab es umso wirkungsvollere Bilder und Malereien in den Kirchen, Klöstern und Kathedralen, die sowohl das Beispiel der Märtyrer und Heiligen schilderten als auch die Höllenstrafen ausmalten. Hieronymus Bosch (Renaissance) ist hierfür ein später Zeuge mit seinen bedrohlichen und düsteren Schreckensbildern. Ohne Zweifel sollte all das der Mahnung und Anleitung zum rechten Leben dienen, aber dieser Kult war und ist letztlich auf Angst und Macht gebaut – um nur durch exklusiv kirchliches Regiment Gewissheit des Heils und der Erlösung zu geben. Durch diese Tür sollte jeder hindurch müssen. Wäre da nicht die andere Seite einer fröhlichen Sinnenfreudigkeit für die Zeit, solange das Ende noch nicht da und noch Zeit zur Buße ist, hätte sich die römisch-katholische Kirche wohl kaum so erfolgreich ausgebreitet, wie es dann im westlichen Europa und später im kolonialen Amerika, Afrika und Asien geschehen ist. Hier kam eine vierte Eigenart zum Tragen: Sich ungemein flexibel an andere Kulturen anpassen zu können, um dadurch das Wesentliche, die sakramentale Heilsvermittlung in eigener päpstlicher Regie behaupten zu können. Dieser Doppelaspekt prägte die katholische Kirche in der Geschichte bis heute und findet sich wieder in der Auseinandersetzung zwischen konservativem Klerus (also Priestern und Bischöfen) und liberalen Laienbewegungen unserer Tage, aber auch in den lockeren Formen eines rheinischen oder gar südamerikanischen Katholizismus. Diese Wandlungsfähigkeit bei gleichzeitigem Machtbewusstsein, beharrlicher Prinzipientreue und genauer Kenntnis psychologischer Mechanismen macht vielleicht ein Stück weit das Erfolgsgeheimnis dieser großen christlichen Kirche aus.

Hieronymus Bosch, Endgericht

V

Was dann in der beginnenden Neuzeit vor 500 Jahren geschah und mit „Reformation“ bezeichnet wird, war tatsächlich eine neue, kräftige Verzweigung im Entwicklungsbaum der christlichen Religion. In diesen Tagen ist anlässlich des „Reformationsjubiläums“ eine Menge geschrieben und veröffentlicht worden. Die Einschätzungen der Bedeutung der Reformation und insbesondere Martin Luthers umfassen naturgemäß eine große Weite. Hier geht es aber darum, die Besonderheit dieser neuen Linie gegenüber den bisherigen Hauptströmungen der christlichen Religionsfamilie dazustellen.

Der Protestantismus, oder die „Evangelischen“, wie sie sich selbst lieber nannten, brach mit zwei Grundprinzipien der bisherigen Großkirchen: der Kirche als Heilsanstalt und der Entgeschichtlichung der Glaubensbasis. Die Kirche als zentrale Institution zur Heilsvermittlung (West) bzw. der Vergegenwärtigung der jenseitigen Herrlichkeit (Ost) und die Aufhebung der Göttlichkeit des Christus in die Gegenwart des liturgisch-kultischen Heilsgeschehens zeigten sich als die Kernpunkte der beiden christlichen Großkirchen. Der Protestantismus schaffte das Verständnis der Kirche als unverzichtbare Heilsanstalt ab und setzte an die Stelle der Bischofskirche (Klerus samt Papsttum) die Synoden und Kirchenversammlungen – und an die Stelle der priesterlichen Sonderrechte („character indelebilis“) das „Priestertum aller Gläubigen„, das besonders im Pietismus und der Hauskreisfrömmigkeit im 19. Jahrhundert Bedeutung erlangte. Die Reformatoren stellten den einzelnen Menschen unmittelbar vor Gott; durch das Hören des „Wortes Gottes“ in der Heiligen Schrift und die Entscheidung des Einzelnen, der Gnade Gottes zu vertrauen und den Geboten nachzufolgen, versicherte man sich des Heils, das heißt der Zugehörigkeit zu den am Ende Erlösten. Hierin liegt die dem Protestantismus inhärente Betonung der eigenen Persönlichkeit und die Tendenz zum neuzeitlichen Individualismus begründet. Im Zuge der Renaissance und des Humanismus war zudem der Ruf „ad fontes„, „zurück zu den Quellen“, ein Motiv, die Bibel vor allem des Neuen Testamentes in den Mittelpunkt der Glaubenslehren zu stellen. Das bedeutete ein Stück weit die Rückgewinnung des geschichtlichen Ursprungs des Narratives vom heilvollen Leben, Sterben und Auferstehen des Gottessohnes Jesus Christus. Von dort aus entwickelten sich im Protestantismus sowohl der Hang zu einer unmittelbaren Jesus – Nachfolge und Jesus – Frömmigkeit als auch die mit der Aufklärung und dem Rationalismus aufkommende stärkere Frage nach den historischen Ursprüngen des christlichen Glaubens und insbesondere der biblischen Überlieferung (Frage nach dem „historischen Jesus„). Nur in diesem Zusammenhang konnte sich eine kritische Bibelwissenschaft als theologische Aufgabe innerhalb der Kirche entwickeln, die mit der Ausarbeitung der „historisch-kritischen Methode“ ein auch literarisch brauchbares Werkzeug zur Erforschung historischer Texte schuf. Letztlich war diese Methode auch nicht mehr an den Glauben gebunden, sie praktizierte einen „methodischen Atheismus“, wie es die neutestamentliche Interpretation der Bultmann – Schule im 20. Jahrhundert durchführte. Das blieb im Protestantismus nicht unwidersprochen, und die Kontroversen um die ‚richtige‘ Bibelinterpretation (beispielsweise die in evangelikalen Kreisen verbreitete Lehre von der „Verbalinspiration“) halten bis heute an. Das ist nicht verwunderlich, denn im Protestantismus, der kein autoritatives Lehramt mehr kennt und sich an die Geschichtlichkeit seiner religiösen Stiftung gebunden hat, fällt alles Gewicht eben auf die Textzeugnisse des christlichen Glaubens und auf die Person des ‚Stifters‘. In der Folgezeit konnten die Auffassungen innerhalb des Protestantismus weit auseinandergehen, und sie reichen von einem liberalen, kritischen Glaubensverständnis auf dem Boden neuzeitlicher Weltbilder und Wissenschaft bis hin zum dogmatisch – evangelikalen Konservativimus und christlich – politischen Extremismus (USA) oder zum evangelikalen Enthusiasmus der Pfingstkirchen (Südamerika, Korea).

Man könnte vom Protestantismus selbst als einer eigenständigen Religionsfamilie innerhalb des Christentums sprechen, denn er hat sich in den fünfhundert Jahren seines Bestehens derart vielfältig ausdifferenziert und zum Teil so gegensätzlich entwickelt, dass es schwerfällt, all diese nachreformatorischen Strömungen, Kirchen und Denominationen noch unter dem Dach „Protestantismus“ zusammenzufassen. Nicht einmal der Ökumenische Rat der Kirchen (seit 1948) als weltweite protestantische Dachorganisation fasst alle Strömungen und Formen zusammen. Die religiöse ‚Farbenlehre‘ reicht weit über bestehende Organisationen hinaus. So findet man einerseits eine große Nähe zwischen konservativem Luthertum (zum Beispiel in Bayern) und dem deutschen Katholizismus, andererseits einen liberalen Protestantismus 5), der sich in Europa und Nordamerika positiv mit der neuen wissenschaftlich geprägten Welt arrangiert und den Glauben auf den existenziellen Binnenraum der Werte und persönlichen Überzeugungen beschränkt. Daneben und dazwischen gibt es so gut wie alle Schattierungen an innerprotestantischen Glaubensrichtungen und Denkweisen, wie sie sich in der übrigen kulturellen Welt ebenfalls widerspiegeln. Allein die verschiedenen Formen der Frömmigkeit übergreifen die protestantischen Glaubensrichtungen und verlaufen oft noch einmal quer zu bekenntnismäßigen Unterschieden („Jesus loves you“: evangelikales, aber auch allgemeinkirchliches Motto). In den Pfingstgemeinden, dem am stärksten wachsenden protestantischen Ableger, gibt es alles von fundamentalistischen Antimodernisten bis hin zu einem ein erfolgreiches Leben verheißenden ‚Wohlfühl – Christentum‘.  In dieser Entwicklung des Protestantismus zeigt sich einerseits die produktive Kraft christlich – religiöser Vorstellungswelten, andererseits die institutionelle Schwäche in der Organisation subjektiver Glaubensweisen ohne zentrale Instanz der Lehre und der Heilsvermittlung. Aber eben dadurch hat der Protestantismus auch zu einer Belebung und Veränderung der beiden älteren Großkirchen, des Katholizismus und der Orthodoxie geführt. Insofern ist diese neue starke Linie innerhalb der christlichen Religionsfamilie ein wesentlicher und unverzichtbarer Teil geworden, der auf seine Weise zur Weiterentwicklung des Christentums beiträgt. Alte Traditionen und neuzeitliches Leben verlangen von allen Christenmenschen welcher Couleur auch immer jeweils neue Antworten. Allein diese Position ist schon ein Ergebnis der christlichen Religionsgeschichte.

VI

Denn es geht auch anders. Ohne zu einem religionsgeschichtlichen Rundblick auf alle ‚Weltreligionen‘ auszuholen, soll aus heutigem Anlass ein kurzer Blick auf den Islam geworfen werden, wie er sich in und im Blick auf Europa darstellt.

Nicht ganz zu Unrecht ist verschiedentlich darauf hingewiesen worden, dass sich das Christentum bei seiner Ausbreitung in andere Traditionen inkulturiert und sich in die bis dahin fremde Lebenswelt und Kultur hineinbegeben habe, der Islam dagegen bei seiner Verbreitung fremde Kulturen sich selbst anverwandelt habe, – diese wurden ‚islamisch‘ beherrscht, wobei der Islam selbst möglichst unveränderlich geblieben sei. So wurde die Bibel in fast alle Sprachen der Welt übersetzt, der Koran dagegen ist und bleibt arabisch und wird nur arabisch rechtmäßig rezitiert. Zwar gab es in dem sogenannten ‚goldenen Zeitalter‘ des Islam vom 8. bis zum 12. Jahrhundert vielfältige Traditionen und geistig-religiöse Strömungen, die von muslimischen Gelehrten und Herrschern aufgenommen wurden – siehe die persische und griechische Philosophie – aber daneben hielten sich auch immer eher konservativ ausgerichtete Schultraditionen, die sich auf die quasi kanonische Zeit des Propheten Mohammed beriefen und diese zum unveränderlichen Modell erklärten. 6) Hieran konnten der Salafismus und die Wahhabiten seit dem 18. Jahrhundert anknüpfen. Darüber hinaus ist für den Islam die Einheit seiner Weltsicht bestimmend geworden; die Trennung in einen ‚geistlichen‘ und einen ‚weltlichen‘ Bereich ist hat es nie in der Weise gegeben wie in der christlichen Welt. Der Islam konnte sich darum immer zugleich unpolitisch wie politisch definieren.

Der heutige radikale und zum Teil terroristische Islam ist nicht vom Himmel gefallen, er ist auch nicht nur eine Reaktion auf den Kolonialismus, er ist durchaus „home grown“. Festzuhalten ist: Die überwältigende Mehrheit der Muslime weltweit lebt friedlich und weitgehend apolitisch, allerdings einen Islam, der sich als kulturell unfruchtbar, literarisch unproduktiv, kultisch erstarrt und ethisch archaisch-paternalistisch zeigt. Die kleine Minderheit von Radikalen sind Fundamentalisten, die einen rückwärts gewandten, gewaltsamen, antiwestlichen und antimodernen Islam militant vertreten – und auch Terroristen als ihre legitimen Kinder aus sich heraussetzen. 7) Selbst höchste Autoritäten des sunnitischen Islam wie der Großscheich der Al Azhar ‚Universität‘ Kairo, Mohammed Tantawi, äußern sich zu Terror und Gewalt nur äußerst widerwillig und ambivalent. 8) Die Hoffnungen auf einen ‚Euro – Islam‘, der sich der Moderne mit Aufklärung, Menschenrechten und Pluralismus öffnet und seine eigenen Grundlagen und Geschichte kritisch aufarbeitet (zum Beispiel mit historisch-kritischer Koranforschung), haben sich bisher nicht erfüllt. Auch Lehrstühle für Islamwissenschaft in Deutschland wie zum Beispiel in Münster Prof. Dr. Mouhanad Khorchide als liberales ‚Aushängeschild‘ tragen nur sehr begrenzt zu einer kritischen Aufarbeitung der eigenen islamischen Theologie und Geschichte bei 9). Vieles erscheint da doch als Apologetik (Abwehr, Verteidigung) anstelle von offener und kritikfähiger Diskussion. Zumindest hat der Islam als eine weltoffene, neuzeitliche Religion mit einer langen und anspruchsvollen Tradition (zum Beispiel Ibn Rushd – Averroës) noch einen weiten Weg vor sich. Der wird erst gelingen können, wenn sich der Islam gerade auch dort, wo er die Mehrheitsbevölkerung stellt, von der Umklammerung durch radikale Fundamentalisten und antisemitische Nationalisten, erst recht von Terroristen im Namen des Islam befreit. Vielleicht ist dafür die historische Chance vorerst schon wieder geringer geworden, sind doch antimoderne Fundamentalisten und populistische Nationalisten aller Couleur an vielen Orten auf dem Vormarsch, sogar innerhalb des Westens selbst. Hier wird sich die Kraft der christlichen Religionsfamilie im Blick auf ein aufgeklärtes, kulturell offenes Christentum erst wirklich bewähren können – und müssen. Die Zeiten werden es lehren.

 

Reinhart Gruhn

 

Anmerkungen

  1. Die Literatur dazu ist uferlos, wenn man zum Beispiel googelt „Bücher zur Früh- Geschichte des Christentums“. Hier können nur einige Linien skizziert werden. [zurück]
  2. Einen gut lesbaren Einstieg in diese Funde und ihre Vorstellungswelt bietet Elaine Pagels, Das Geheimnis des fünften Evangeliums, 2003, dt. 4. Auflage 2009. [zurück]
  3. Gute Literatur zu diesen beiden „häretischen“, also von den Mehrheitskirchen kritisierten und abgelehnten Richtungen ist nicht so leicht zu greifen, wohl typisch für unterdrückte sogenannte Häresien. In Übersichtsdarstellungen der frühen Christenheit kommen sie zu kurz, ausführliche Studien sind vor allem im universitären Bereich zu finden. Für Interessierte verweise ich auf Arbeiten des Erlanger Kirchenhistorikers Hanns Christof Brennecke[zurück]
  4. Extra ecclesiam nulla salus“ des Cyprian von Karthago, bereits Anfang des 3. Jahrhunderts. [zurück]
  5. Liberaler Protestantismus ist nicht zu verwechseln mit dem ökonomischen oder politischen Liberalismus. Gewiss gibt es Berührungspunkte, die aber auf die Betonung der Individualität beschränkt bleiben. Siehe dazu beispielhaft die Schriften von Friedrich Wilhelm Graf. Insofern kann der protestantische Liberalismus durchaus politische Implikationen haben. [zurück]
  6. Auch hier ist die Literatur zumal aus neuerer Zeit unüberschaubar. Neben Wikipedia-Artikeln für den ersten Überblick ist immer noch das Standardwerk zur Geschichte des Islam empfehlenswert: Ulrich Haarmann, Geschichte der arabischen Welt,1987, 4. Auflage 2004. [zurück]
  7. Die fatale Rolle, die das Saudische Königshaus mit seinen immensen Finanzmitteln zur Förderung des Wahhabismus / Salafismus weltweit spielt, ist bekannt, siehe jüngst bei n-tv[zurück]
  8. Siehe zum Beispiel die Stellungnahme Tantawis zum Angriff auf das World Trade Center New York in: Frankfurter Allgemeine Zeitung, 30.11.2002, Nr. 279 / Seite 33; oder im Interview mit der Süddeutschen Zeitung vom 17.05.2010 (auf www.sueddeutsche.de). Der Großscheich gilt als ‚Liberaler‘. [zurück]
  9. Eigene Erfahrungen aus Vortragsveranstaltungen von Khorchide bestätigen das. Siehe zum Thema Islam auch Reinhart Gruhn, Christen – Juden – Islam. Grenzlinien in einem interkulturellen Dialog, Vortrag 2006 [zurück]

22.10.2017 Link: Michel Houellebecq: Religion ist nicht zu zertrümmern

Kausalität – causation

 Naturwissenschaft, Philosophie  Kommentare deaktiviert für Kausalität – causation
Aug 202017
 

I

Eine wesentliche Bedingung unseres heutigen physikalischen Weltbildes ist kausale Geschlossenheit. Die Behauptung kausaler Geschlossenheit ist ein Schlüsselargument sowohl in anti-metaphysischer Zielrichtung (was soll bei kausaler Geschlossenheit der Physik noch „meta = darüber hinaus“ sein?) als auch in einer naturalistischen theory of mind, die entweder reduktionistisch mentale Prozesse mit physikalischen bzw. physiologischen Prozessen gleichsetzt oder epiphänomenal mentale Prozesse über physikalischen ’supervenieren‘ lässt, ohne dass die mentale Ebene ihrerseits physikalische Prozesse auslösen (gegen Überdeterminierung) oder initiieren kann: Genau dies wird ausgeschlossen durch das Argument der kausalen Geschlossenheit physikalischer Prozesse. Auch innerhalb der Physik selber ist die kausale Geschlossenheit lokaler Prozesse ein Dogma von hohem Stellenwert. „Spukhafte Fernwirkungen“ (Quantenphysik) waren Einstein ein Gräuel, der gerade mit der Relativitätstheorie Newtons Gravitation lokal ‚geerdet‘, nämlich auf Inertialsysteme bezogen hatte. Nun sollte die Quantenphysik mit nicht-lokalen Ereignissen die kausale Geschlossenheit wieder aushebeln? Wir wissen, sie tut es. Aus diesem Grunde versuchen Physiker nach wie vor, die Quantentheorie mit dem Weltbild der Relativitätstheorie zu versöhnen, um die kausale, wenngleich nicht unbedingt deterministische Geschlossenheit des theoretisch-physikalischen Weltbildes aufrechtzuerhalten oder wiederherzustellen.

Auch der Determinismus hängt wesentlich von kausalen Verhältnissen ab, wird doch ‚deterministisch‘ als etwas verstanden, das notwendig durch eine Kausalkette bestimmt ist und in einer gegebenen Welt von Naturgesetzen beherrscht wird. Damit taucht der dritte Begriff auf: Naturgesetz, der mit Kausalität und Determinismus zu einem Theoriegebäude zusammengehört. Die drei Begriffe verweisen wechselseitig aufeinander, wobei der Grundbegriff der Begriff der Kausalität ist. Kausale Verknüpfungen bestimmen alle Prozesse der physikalischen, sogar der natürlichen Welt, lassen sie als von Ursachen bedingte Ereignisse verstehen und erklären und führen durch Verallgemeinerung zur Formulierung von Naturgesetzen, die ihrerseits Prognosen über künftige Verläufe zulassen. Der Begriff des Naturgesetzes ist zwar seinerseits problematisch und von Induktion, Konditionen und Regularitäten abzugrenzen, dennoch hängt er engstens mit dem Verständnis kausaler Verknüpfungen und kausaler Geschlossenheit zusammen. Kausalität ist offenbar der beste Weg zu „erkennen, was die Welt im Innersten zusammenhält“ (Faust I). Dafür ist es allerdings erforderlich, genau zu wissen, was denn Kausalität eigentlich ist. Darum bemüht sich heutige Philosophie, und es ist sehr viel schwieriger, als man beim ersten Anschein meinen könnte. Ich möchte hier drei Ansätze skizzieren und sehen, ob die bisherige Diskussion über Kausalität zu mehr Klarheit und besserem Verständnis geführt hat. 1)

II

Der moderne locus classicus des Problems einer Definition von Ursache (cause) und Wirkung (effect) steht bei David HumeAn Enquiry Concerning Human Understanding (1748), Kap VII/2:

We may define a cause to be an object, followed by another, and where all the objects, similar to the first, are followed by objects similar to the second. Or in other words, where, if the first object had not been, the second never had existed. The appearance of a cause always conveys the mind, by a customary transition, to the idea of the effect. Of this also we have experience. We may, therefore, suitably to this experience, form another definition of cause; and call it, an object followed by another, and whose appearance always conveys the thought to that other. … But though both these definitions be drawn from circumstances foreign to the cause, we cannot remedy this inconvenience, or attain any more perfect definition, which may point out that circumstance in the cause, which gives it a connexion with its effect. We have no idea of this connexion…

Humes Ausführungen breiten ein Tableau von Fragestellungen aus, das die Philosophie die nächsten Jahrhunderte bis heute beschäftigt. Was unterscheidet eine kausale Abfolge von einer bloß zufälligen? Selbst wenn eine Beziehung zwischen zwei zeitlich auf einander folgenden Ereignissen vermutet werden kann, wie kann sichergestellt werden, dass es sich nicht nur um Korrelationen (statistisch ermittelt), sondern um Kausalverhältnisse handelt? Was begründet und beinhaltet diese connexion, von der Hume keine Vorstellung zu haben einräumt? Liegt die kausale Verknüpfung in re, in der ‚Sache selbst‘, oder ist er lediglich ein Produkt unserer Vorstellung, nach dem der menschliche Geist erfahrungsgemäß aufgrund eines Ereignisses c ein zweites Ereignis e erwartet (‚konstruiert‘) und ähnliche Folgeereignisse daraus ableitet wie die Klänge aus den Schwingungen einer Saite? Liegt die Verknüpfung von cause und effect also nur in der Tätigkeit unseres Verstandes, wie es Kant nahelegt? Lässt sich etwas Genaueres über die Art der Verknüpfung herausfinden, die die Verbindung zweier Ereignisse zu einer Kausalverknüpfung macht und den Prozess dieser und folgender Verknüpfungen zu einer Kausalkette der Ereignisse selbst werden lässt? Was genau unterscheidet cause und effect, Ursache und Wirkung, die doch offenbar raumzeitlich irgendwie verbunden sind?

III

David Lewis setzt in seinem Aufsatz „Causation“ 2) bei dem zweiten Teil von Humes erster Definition an, der Negativaussage: „Or in other words, where, if the first object had not been, the second never had existed.“ Lewis will den Schwierigkeiten entgehen, die eine Analyse von Regularitäten, Epiphänomenen und potentiellen Effekten mit sich gebracht haben. Darum schlägt er mit dem negativen Ansatz eine kontrafaktische Erklärung von Verursachung vor 3), wiewohl ihm die Schwierigkeiten mit counterfactual conditions sehr wohl bewusst sind. Lewis möchte darum keine zu weitgehende Definition wagen, sondern sich bei kontrafaktischen Erklärungen darauf beschränken, was sie ganz einfach leisten können: mögliche Alternativen zu gegenwärtigen Situationen aufzuzeigen. Er glaubt, damit konsistent Kausalität zu beschreiben und eigentliche Ursachen von Effekten, Epiphänomenen und bloß potentiellen Ursachen unterscheiden zu können. 4) So definiert Lewis:

Causal dependence among actual events implies causation. If c and e are two actual events such that e would not have occurred without c, then c is a cause of e. But I reject the converse. Causation must always be transitive; causal dependence may not be.

Der zweite Teil der Definition zeigt schon, wo der Hase im Pfeffer liegen kann: Verursachung darf unter kontrafaktischen Bedingungen nicht in umgekehrter Richtung (converse) verlaufen, muss also ‚transitiv‘, vorwärts gerichtet, sein, um Fehlschlüsse zu vermeiden. Schon die Scholastik wusste, das Schlüsse ex negatione trügerisch, bestenfalls widersprüchlich sind – spurious causal dependence nennt es Lewis. Rückwärts gerichtete Verursachung bleibt in jedem Falle höchst problematisch. Aber aus dem kontrafaktischen Schluss „c verursacht e, weil, wenn c nicht wäre, es auch e nicht gäbe“, folgt eben nicht (verboten nach Lewis), dass „wenn e nicht da ist, es auch c nicht gibt“. Dies sei nur ein Problem des Determinismus, dass jede Änderung von e (Zukunft) auch eine Änderung von c (Vergangenheit) bedinge. Das ist absurd, meint Lewis, eher müsse man Abweichungen von Naturgesetzen in Kauf nehmen: „Violation is a matter of degree.“ 5) Das muss einen nicht unbedingt überzeugen. Diese „Was-wäre-wenn-Theorie“, wie ich es etwas salopp nennen möchte, krankt genau daran, was Lewis gesehen hat, aber vermeiden wollte: Es müssen zum einen eine Reihe von Zusatzbedingungen erfüllt werden, um die kontrafaktische Erklärung kausaler Verknüpfungen nicht unsinnig werden zu lassen, d. h. unsinnige Schlussfolgerungen zu vermeiden, und man muss sich zum anderen betreffs der Wahrheitsbedingungen von counterfactuals auf Viele-Welten-Theorien (und seien es auch nur ähnliche Welten) verpflichten, was erkenntnistheoretisch auch nicht überall Begeisterung hervorruft. Ich sehe nicht, wo Lewis über Humes Eingeständnis hinauskommt: „no idea about this connexion“.

IV

Direkt auf das Problem der Art der Verknüpfung (connexion) von Ursache und Wirkung steuert Wesley C. Salmon zu. In seinem Aufsatz „Causality without counterfactuals“ legt er einen revidierten Entwurf seiner Definition von Kausalität vor 6), denn eine solche liefert er im Unterschied zu Lewis. Salmon definiert causal interactions im Rahmen kausaler Prozesse (causal lines [Russell] mit spacetime intersections) als grundlegende kausale Mechanismen, in denen einem Objekt etwas (marks, conserved quantities) übermittelt wird. Damit will er genau die kausale Verknüpfung konkret bestimmen, die Hume vergeblich zu fassen suchte. 7) Zugleich gilt es, kausale Prozesse von Pseudoprozessen zu unterscheiden, was weder Russell gelungen sei noch mit counterfactuals möglich sei. Darum muss Salmon in seiner Definition strikt ohne kontrafaktischen Aussagen auskommen. Was ist nun dieses Etwas, das im kausalen Prozess objektiv physikalisch übermittelt wird?

Billard Anstoss

Break

1984 definiert Salmon einen kausalen Prozess als die Fähigkeit, „marks“, Eigenschaften zu übermitteln, „marks“ können Energie, Information oder andere kausale Einflüsse sein, gewissermaßen Qualitäten eines Objekts, das Teil eines kausalen Prozesses ist 8). Paradebeispiel ist das Verhalten von Billardkugeln oder das eines Lichtstrahls, der mit einem Rotfilter auf eine Wand geworfen wird 9). Dies ist noch ziemlich unscharf und erklärungsbedürftig und wurde insbesondere von P. Dowe einer substanziellen Kritik unterzogen. Dowe schlägt vor, statt von marks besser von conserved quantities zu sprechen. Diesen Vorschlag aufgreifend und weiter präzisierend bestimmt Salmon nun einen kausalen Prozess als die sich kreuzenden Weltlinien eines Objekts mit einem anderen Objekt, das dabei Werte einer Erhaltungsgröße übermittelt 10). Unter conserved oder invariant quantity versteht Salmon die basalen Erhaltungsgrößen der Physik wie Masse / Energie, Impuls, Ladung. Er fügt zwar noch ‚Information‘ an, ohne zu präzisieren, was unter dieser über die Erhaltungsgrößen hinaus denn vorzustellen wäre 11). Aufgrund des plastischen Beispiels mit den Billardkugeln nenne ich Salmons Vorschlag die Billardtisch-Theorie. Es gelingt ihm tatsächlich zu benennen, was der eigentliche Inhalt der Verknüpfung ist, die sich in einem kausalen Prozess manifestiert, nämlich die Übermittlung oder Weitergabe von numerischen Werten basaler physikalischer Größen, die von Erhaltungssätzen in jedem Bezugssystem (darum invariant) regiert werden. Humes „no idea“ ist durch eine konkrete Bestimmung ersetzt, die Salmon sowohl von sogenannten Pseudoprozessen, also solchen, die keine invariante Größen übermitteln wie z.B. Schatten, unterscheiden und die er zugleich ohne kontrafaktische Bedingungen definieren kann. Salmons klares Modell hat nur einen Nachteil: Es ist auf physikalische Kausalprozesse beschränkt, sogar auf mechanistische, denn quantenphysikalische Prozesse „übermitteln“ nichts. Über Ursache und Wirkung in anderen lebensweltlichen Bereichen ist mit Salmon wenig gewonnen. Aber mehr wollte er vielleicht gar nicht, wenn er als sein Ziel erklärt, eine „Prozesstheorie physikalischer Kausalität“ zu begründen 12). Dies Ergebnis bleibt also hinsichtlich einer umfassenden Theorie der Kausalität unbefriedigend.

V

In eine ganz andere Richtung bewegt sich James Woodward. In seinem Buch „Making Things Happen“ (2003) legt er eine umfassende Theorie kausaler Erklärungen vor. Woodward leistet damit eine Aufarbeitung und Darstellung bisheriger Lösungsvorschläge für eine Theorie der Kausalität ebenso wie eine ausführliche und detailliert dargestellte Erklärung der Beziehungen und Strukturen kausaler Verhältnisse und Prozesse. Er nennt es eine manipulability theory of causation , also eine funktionale Theorie kausaler Verursachung und Kontrolle. Er greift damit einen Ansatz unter anderem von Roger Newton auf, Kausalität zu begreifen als die Möglichkeit, mittels eines Eingriffs in A (command) eine Veränderung (switch) in B zu erzeugen. Woodward geht es in seinem Ansatz in erster Linie darum zu zeigen, wie Kausalverhältnisse strukturiert sind, wie sie wirken / funktionieren und wie man sich bedingter Verursachung zwecks Beeinflussung und Manipulation (neutral verstanden) erzielbarer Wirkungen bedienen kann. Seine Erklärungen und grafischen Modelle stellen vielleicht am genauesten dar, wie in der experimentellen Praxis der Naturwissenschaften und der empirischen Gesellschaftswissenschaften tatsächlich verfahren wird. Seine Arbeit ist zwar die Ausarbeitung einer Theorie kausaler Erklärung (Untertitel), aber immer in pragmatischer Absicht: Wozu ist das nütze? Was kann man damit machen? Insofern ist der Buchtitel Making Things Happen durchaus Programm. Bei diesem Ansatz kann man schon vermuten, dass es Woodward weniger um die Beantwortung der Frage nach Humes „no idea“, also der Art der Verknüpfung geht. Nicht was Kausalität eigentlich ist, sondern wie sie funktioniert ist das Ziel seiner Ausführungen – im besten Sinne eine funktionale Theorie kausaler Beziehungen.

Woodwards grundlegende Definition lautet: „Eine notwendige und hinreichende Bedingung für X, eine direkte Ursache von Y zu sein in Bezug auf eine variable Menge V ist die, dass es einen Eingriff an X gibt, der Y oder die wahrscheinliche Verteilung von Y verändert, wenn man alle anderen Variablen Z in V mit einem bestimmten Wert unverändert lässt.“ 13) Entsprechend definiert er eine Mit-Ursache so, dass es einen direkten Pfad von X zu Y gibt derart, dass jede Verknüpfung auf diesem Pfad eine direkte kausale Beziehung ist 14). Das klingt im Original sehr kompliziert, und es bedarf auch ausführlicher Erklärungen, die Woodward gibt, um seine Theorie abzugrenzen gegen andere zum Beispiel kontrafaktische oder strukturale Modelle. Dazu unterscheidet Woodward penibel Gesamtursachen (total cause), Mit-Ursachen (contributing cause), direkte Ursachen (direct cause), notwendige und hinreichende Bedingungen, gerichtete Wirkungspfade bzw. Kausalketten (directed path), kausale Faktoren (causal factors), berücksichtigt die gültigen Variablen, bezieht Wahrscheinlichkeiten in die Verursachung ebenso ein wie nur begrenzte und darin näher zu bestimmenden Interventionen. Eine eigene Untersuchung ist der aktuellen Verursachung (actual causation) gewidmet, die sich von einer allgemein möglichen durch ihre konkrete Einmaligkeit unterscheidet. Seine getroffenen Festlegungen verdeutlicht er am Beispiel einer Gesundheitserhebung, welche die Wirksamkeit eines Präparats mittels einer ausgesuchten Testgruppe und einer ebenso ausgesuchten Kontrollgruppe (ohne Präparat) in ihren Auswirkungen untersucht. Hier gehen viele nur annähernd bestimmbare und nur begrenzt vorhersehbare Variablen ein wie der jeweilig Gesundheitszustand, Alter, Bereitwilligkeit, Zuverlässigkeit usw. der Testpersonen. Nicht zufällig wählt Woodward sein Beispiel aus dem Bereich empirischer Sozialwissenschaften und nicht, wie Salmon, aus der Physik. Hier bestimmt er genauer, was eine Intervention ist und von welchen Variablen sie abhängt. Breiten Raum nehmen seine Graphen ein, mit denen er die komplexen möglichen oder aktuell gegebenen Bezüge zwischen verschiedenen Ursachen und ihren Wirkungen anschaulich macht. Heraus kommt das recht realistisch Bild von Verursachung als eines Cluster – Konzepts. Seine Definitionen von Interventionen / Manipulationen nennt er ein „regulatives Ideal“, um auch in nicht-experimentellen Situationen Kriterien für die Beurteilung von Kausalzusammenhängen zu haben 15). Daher ist es auch klar, dass Woodward bestimmte kontrafaktische Bedingungen in Gedankenexperimenten über Kausalität keine Sorgen bereiten müssen 16).

Ohne Zweifel gelingt Woodward in seinem Buch eine eindrucksvolle Zusammenfassung bisheriger Lösungsansätze zur Beschreibung und zum Verständnis des Ursache – Wirkungs- Zusammenhangs mit weitreichender explanatorischer Kraft und einer Vielzahl von Anwendungsbereichen 17). Woodward hat wohl recht mit der Feststellung, dass sein Konzept einer manipulability theory of causation mehr den empirischen Wissenschaften zugewandt ist als den Philosophen, gleichwohl ist es ein umfassender, detailliert ausgearbeiteter philosophischer Entwurf eines funktionalen Verständnisses von Kausalität 18).

VI

Zum besseren Verständnis dessen, was Kausalzusammenhänge bedeuten, haben wir drei Entwürfe betrachtet, das „Was-wäre-wenn-Modell“ (Lewis), das Billardtisch – Modell (Salmon) und das „Wozu-ist-das-nütze – Modell“ einer funktionalen Theorie der Kausalität (Woodward). Es sind keineswegs die einzigen oder einzig möglichen, aber gegenwärtig bedeutende und erhellende Ansätze, über Kausalität nachzudenken. Haben wir dadurch auch eine Antwort auf Humes Frage bekommen, was denn die Verknüpfung in einer kausalen Beziehung wirklich ist? Am ehesten hat Salmon mit seiner Theorie der Übermittlung von invarianten Eigenschaften diese Frage beantwortet, aber sie gilt allenfalls im physikalischen Bereich. Alle drei Entwürfe müssen sich außerdem der Frage stellen, die Hume in seiner zweiten Definition anklingen ließ, nämlich inwieweit der Kausalzusammenhang nur in mente, nur in der Vorstellung des Menschen besteht, der auf ein bestimmtes Ereignis ein genau darauf folgendes, dem vorhergehenden entsprechendes Folgeereignis erwartet. Salmon geht darauf ein, wenn er sich am Ende seines Aufsatzes von 1994 mit P. Kitchers Einwand befasst. Es ist mit Salmons Worten der Einwand, dass das „Weil“ der Verursachung bloß abgeleitet ist vom „Weil“ der (besten) Erklärung 19); er lässt ihn als eben entgegengesetzt mehr oder weniger unbeantwortet stehen. Woodward stellt sich diese Frage gar nicht aufgrund seiner funktionellen Analyse. Bei der Frage „Wozu ist das nütze?“ braucht er sich nicht damit aufzuhalten, was die kausale Verknüpfung ‚eigentlich‘ ist; die Funktionalität geht über die Alternative in re – in mente hinaus. Schließlich bleibt aber auch hier zu fragen, worin und wodurch Kausalverhältnisse unterschieden und anders sind als Korrelationen, seien sie zufällig oder durch natürliche Verteilungsverhältnisse hervorgerufen. In mancher Hinsicht mag die Frage nach dem konkreten Nexus der Kausalverbindung überflüssig sein, wenn zum Beispiel Stochastik und Chaostheorien auf ganz andere Weise Zusammenhänge und Verknüpfungen konstruieren und abbilden können.

Dennoch scheint es so, als wäre Kausalität so etwas wie der Notenschlüssel der Partitur, in der die Natur ihre Harmonien und Sprünge erklingen lässt, nur dass wir diesen Notenschlüssel immer noch nicht ganz verstanden haben. Humes Tableau der offenen Fragen ist weiterhin aktuell.

Reinhart Gruhn

 


Anmerkungen

  1. Diese Ausführungen sind angeregt durch ein Seminar über Kausalität ua. von Prof. Ulrich Krohs im SS2017 an der WWU Münster. [zurück]
  2. David Lewis, Causation, The Journal of Philosophy, Volume 70, Issue 17, 1973, S. 556-567 [zurück]
  3. „A promising alternative is not far to seek. Hume’s „other words“ —that if the cause had not been, the effect never had existed—are no mere restatement of his first definition. They propose something altogether different: a counterfactual analysis of causation.“ S. 557 [zurück]
  4.  „In this paper, I shall state a counterfactual analysis, not very different from Hume’s second definition, of some sorts of causation. Then I shall try to show how this analysis works to distinguish genuine causes from effects, epiphenomena, and preempted potential causes.“ S. 558 [zurück]
  5. „Under determinism any divergence, soon or late, requires some violation of the actual laws. If the laws were held sacred, there would be no way to get rid of e without changing all of the past; and nothing guarantees that the change could be kept negligible except in the recent past. That would mean that if the present were ever so slightly different, then all of the past would have been different— which is absurd. So the laws are not sacred. Violation of laws is a matter of degree.“ S. 567 [zurück]
  6. Wesley C. Salmon, Causality without Counterfactuals, in: Philosophy of Science, Vol. 61, No. 2 (Jun., 1994), pp. 297-312. Angeregt durch P. Dowe überarbeitet er darin seinen 1984 vorgelegten Entwurf über die „Causal Structure of the World“. [zurück]
  7. „The main point is that causal processes, as characterized by this theory, constitute precisely the objective physical causal connections which Hume sought in vain.“ S. 297 [zurück]
  8. „A causal process is one that is self-determined and not parasitic [non-pseudo] upon other causal influences. A causal process is one that transmits energy, as well as information and causal influence. The fundamental criterion for distinguishing self-determined energy transmitting processes from pseudo-processes is the capability of such processes of transmitting marks.“ S. 146 (1984) [zurück]
  9. Salmon benutzt sehr ausführlich das Beispiel einer rotierenden Lichtquelle in der Mitte eines runden Gebäudes, eines „super-Astrodomes“, um kausale Prozesse, z.B. der rot ‚markierte‘ Lichtstrahl, der als roter Punkt auf die Wand trifft, von Pseudoprozessen, also der auf der Wand herumhuschende Lichtpunkt, zu unterscheiden, siehe S. 141 ff (1984). [zurück]
  10. „A causal process is a world-line of an object that transmits a nonzero amount of an invariant quantity at each moment of its history (each spacetime point of its trajectory).“ S. 308 (1994) [zurück]
  11. „A necessary condition for a quantity to be transmitted in a process is that it can meaningfully be said to characterize or be possessed by that process at any given moment in its history.“ S. 306 (1994) [zurück]
  12. „We have, I believe, clean definitions of causal interaction, causal transmission, and causal processes on which to found a process theory of physical causality.“ S. 310 (1994) [zurück]
  13. „A necessary and sufficient condition for X to be a (type-level) direct cause of Y with respect to a variable set V is that there be a possible intervention on X that will change Y or the probability distribution of Y when one holds fixed at some value all other variables Z in V.“ S. 59 [zurück]
  14. Die vollständige Formulierung lautet: „A necessary and sufficient condition for X to be a (type-level) contributing cause of Y with respect to variable set V is that (i) there be a directed path from X to Y such that each link in this path is a direct causal relationship: that is, a set of variables Z1… Zn such that X is a direct cause of Z1, which is in turn a direct cause of Z2, which is a direct cause of … Zn, which is a direct cause of Y, and that (ii) there be some intervention on X that will change Y when all other variables in V that are not on this path are fixed at some value. If there is only one path P from X to Y or if the only alternative path from X to Y besides P contains no intermediate variables (i.e., is direct), then X is a contributing cause of Y as long as there is some intervention on X that will change the value of Y, for some values of the other variables in V.“ ebd. [zurück]
  15. „I emphasized above that the point of the conditions in IN is not that reliable causal inference is possible only when those conditions are met. Instead, the role of IN (and thus of M and TC) is to serve as a kind of regulative ideal: they tell us what must be true of the relationship between X and Y if X causes Y and in this way tell us what we should aim at establishing, perhaps on the basis of nonexperimental evidence or on the basis of an imperfect or nonideal experiment, if we want to show that a causal claim is true. In other words, when we engage in causal inference regarding the effects of X in a situation in which there is no variable that satisfies all of the conditions for an intervention variable with respect to X (or at least there is no such variable that we are able to observe or measure), we should think of ourselves as trying to determine what would happen in an ideal hypothetical experiment in which X is manipulated in such a way that the conditions in IN are satisfied.“ S. 114 – Der Absatz ist typisch für den Stil und die Genauigkeit Woodwards. [zurück]
  16. Bezogen auf sein Beispiel des Gesundheitstests führt er als mögliche Überlegung aus: „If those in the control group had received the drug, the incidence (or expected incidence) of recovery in that group would have been much higher.“ S. 122 [zurück]
  17. „This book is an attempt to construct a comprehensive account of causal explanation that applies to a wide variety of causal and explanatory claims in different areas of science and in ordinary life, which engages some of the relevant literature from other disciplines and avoids at least some of the difficulties faced by previous philosophical treatments.“ S. 4 [zurück]
  18. „The manipulability conception plays an important role in the way that scientists themselves think about causal explanation but has received rather less attention from philosophers.“ S. 9 [zurück]
  19. „Kitcher’s motivation is essentially the opposite; he supports an altogether different account of causality. His thesis is that „the ‚because‘ of causation is always derivative from the ‚because‘ of explanation“ (ibid., 477). My view is roughly the opposite,“ S. 311 (1994) [zurück]

Der Sinn des Lebens II

 Ethik, Philosophie  Kommentare deaktiviert für Der Sinn des Lebens II
Mai 212017
 

Der Sinn des Lebens ist das Leben. Viel mehr als diese Selbstbezüglichkeit lässt sich darüber material kaum sagen. Der Sinn des Lebens liegt in ihm selber. „Leben wollen inmitten von Leben, das leben will.“ (Albert Schweitzer)

„Leben inmitten von Leben“ – das ist das Erstaunliche: Es gibt Leben! Um das festzustellen, muss man schon leben. Es scheint für uns das Selbstverständlichste auf der Welt zu sein. Das stimmt auch: in unserer Welt. Bislang ist diese einzigartig, wir wissen von keiner anderen, die Lebensformen enthält. Auf der Suche ist man schon lange, die SETI – Projekte haben sich insbesondere dieser Aufgabe verschrieben. Man findet wohl Bedingungen, die Leben in der uns bekannten Form, also auf Kohlenstoff basierend, ermöglichen könnten, hat auch auf Asteroiden komplexere Moleküle gefunden, die einmal zu Bausteinen des Lebens werden könnten. Man sucht und findet Exo-Planeten, die sich in einer „lebensfähigen Zone“ befinden und Wasser aufweisen könnten. Aber Leben selbst, ganz zu schweigen von intelligentem Leben, hat man noch nirgendwo sonst im Universum gefunden – außer hier, auf diesem Planeten Erde.

Es kann durchaus sein, dass Leben auf der Erde einzigartig ist. Das passt zwar nicht in das derzeitige astronomisch-physikalische Weltbild, das keine Einzigartigkeiten liebt, schon gar keine Teleologie, sondern nur Kausalität und Geschlossenheit, Prognostizierbarkeit und Wahrscheinlichkeit. Aber der „echte“, der quantenphysikalische Zufall könnte einem hier schon zu denken geben, denn er passt nur schwer in das sonst so stimmige Standardmodell der Physik und der Kosmologie. Dennoch ist einige Wahrscheinlichkeit gegeben, dass es noch andere lebensdienliche Planeten geben könnte. Doch dies sind theoretische Modelle, die sich an Beobachtungen und Experimenten (zum Beispiel beim CERN) bewähren müssen. Ob dann wirklich einmal außerirdische Lebensformen entdeckt werden können, die unsere Einsamkeit im Universum beenden, bleibt dahingestellt. Bis dahin sind wir auf dem lebensförmigen Planeten Erde einzigartig. Das ist auf jeden Fall erstaunlich.

Der Bildschirmschoner des SETI@home-Client (c) wikimedia

Es ist bisher trotz aller Bemühungen nicht gelungen, Leben künstlich herzustellen. Das will heißen, es ist bisher nicht möglich gewesen, aus anorganischer Materie Leben zu formen. Alle bisherigen Versuche und Laborergebnisse beruhen entweder auf bereits organischer Materie und deren Veränderung und Anpassung (am erfolgreichsten bisher mit der CRISPR/Cas-Methode) oder enden bei vororganischen Molekülen und Molekülketten, den sogenannten Bausteinen des Lebens. „Bausteine“ und genetische „Baupläne“ schön und gut, aber offensichtlich fehlt noch die Kenntnis und die Fähigkeit, aus anorganischer, „toter“ Materie lebendige Wesen, Organismen zu schaffen. Die dafür erforderlichen Prozesse sind äußerst komplex und, wenig erstaunlich, sprechen auch die Molekularbiologen hier von einem “magical mechanism” (vgl. Essence of Life ). Selbst wenn es einmal gelingt, Lebendiges aus Nicht-Lebendigem zu erschaffen, herzustellen, zu organisieren, wie auch immer man es nennen will, dann geschieht es doch unter absolut lebensfreundlichen Rahmenbedingungen, nämlich unter denen auf der Erde, und in Kenntnis dessen, was Leben ist und wie es funktioniert – hier auf der Erde, und wie man es manipulieren und instrumentell herstellen kann – von lebendigen Wesen hier auf der Erde. Diese Rahmenbedingungen lassen den „Nachbau“ dann weniger wunderbar und durchaus möglich erscheinen. Aber auch so erweist sich Leben als etwas durchaus einzigartiges, dessen Mechanismen und Zusammenhänge zu verstehen auch intelligente Wesen wie den Menschen an die Grenzen des Erfassbaren bringt.

Diese Einzigartigkeit, zumindest diese extrem herausgehobene Besonderheit und Seltenheit des Lebens liefert auch schon einen weiteren Aspekt (vgl. Blogbeitrag) für die Beantwortung der Frage nach dem Sinn des Lebens. Jedes lebendige Wesen trägt seinen Sinn in sich selber, weil es lebt und nicht tot ist. Leben zu können, leben zu dürfen, darüber hinaus mit Bewusstsein und Selbstbewusstsein ausgestattet zu sein, wie es der Mensch ist, gehört zu dem Erstaunlichsten und Wunderbarsten überhaupt. Die Spitze der Erstaunlichkeit ist, dass wir Menschen dies auch in vollem Sinne wahrnehmen und erkennen können. Auch die Tierwelt, ja vielleicht auch die Pflanzen- und Pilzwelt ahnt etwas davon. Jedes Lebewesen will leben, sich selbst behaupten, sich fortpflanzen, also die Kette des Lebens aufrecht erhalten. Höher entwickelte Tierarten mit für uns erkennbarem Bewusstsein, vielleicht sogar Selbstbewusstsein (Primaten, Rabenvögel …) hängen am Leben, können Schmerz und Trauer empfinden, wie man es schon bei Elefanten eindrücklich erleben kann. Ist dies nicht Sinn genug, Sinn, über den hinaus es kaum etwas Größeres geben kann?

Wir Menschen meinen oft, der Sinn des Lebens müsse in etwas Höherem bestehen, nur zu leben reiche nicht. Daraus folgt die Suche nach dem Wahren, Guten, Schönen, heute nach dem Glück und „Erfüllung“. Das hat sicher sein Recht und seinen Platz, wenn es um das „bessere“, „wahrere“ Leben geht, sozusagen um die Luxus-Variante. Das Leben selbst mit Selbsterhaltung und Fortpflanzung, mit Freude und Leid, mit täglichem Überlebenwollen und Glücksmomenten, muss dann schon bewältigt sein, wenn da „noch mehr“ sein soll. Ich vermute, allenfalls ein Viertel der Menschheit kann sich über dieses „Mehr“ überhaupt Gedanken machen. Schon die alten griechischen Philosophen mussten Muße haben, um nachdenken zu können, Sokrates brauchte seine Xanthippe. Aber wir sollten nicht meinen, alles andere Leben, was nicht über sich selbst und seine „höheren Ziele“ nachdenken könne, sei sinnlos – welche Überheblichkeit! Uns Menschen täte es manchmal gut, den Sinn des eigenen Lebens erst einmal genau darin zu suchen und zu finden: im Frieden mit sich selbst und mit seinem Nachbarn zu leben, das heißt das Leben-wollen in einem möglichst freien und friedlichen Umfeld für sich und seine Nachkommen verwirklichen zu können.

Schon dies ist ein Anspruch, den vielleicht nur die Wenigsten für sich erfüllen können. Könnten sie es, würde sie daraus ein hohes Maß an Zufriedenheit schöpfen, – die Voraussetzung für das eigene kleine Glück. Wer so zu leben versteht und sich dessen bewusst ist, dass Leben als solches schon ein ganz außerordentlicher Glücksfall ist, und der das, was er für sich erstrebt (Selbstgenügsamkeit und Zufriedenheit) auch für andere erstreben und anderen zubilligen möchte, der hat den Sinn des Lebens gefunden. Er / Sie wird kaum weiter danach fragen wollen.

Apr 232017
 

Letztlich ist alles Physik. Richten wir den Blick auf die basalen Gegebenheiten in unserer Welt, so landen wir stets auf der physikalischen Ebene. Anthropologie? Beruht auf Biologie einschließlich einer darüber supervenierenden mentalen Ebene. Biologie beruht auf Biochemie und Thermodynamik – plus Emergenz. Chemie insgesamt ist ein ‚emergenter‘ Bereich, der sich auf der Physik aufbaut. Unter allem liegt die Physik mit Raum-Zeit-Punkten und wirkungsvollen Feldern. Darunter gibt es nichts mehr (außer vielleicht strings, aber die sind aus der Mode gekommen). Allerdings ist es schwierig, diese basale Ebene der Physik, nämlich Raumzeit und Felder, genauer zu bestimmen, von Materie und Energie ganz zu schweigen. Was Materie und Energie eigentlich sind, kann man nämlich nicht sagen, sie sind eben wechselseitig da. Felder und die Raumzeit hängen ja auch zusammen, ist die Raumzeit doch ihrerseits ein gravitatives vielfach ‚gekrümmtes‘ Feld. Was ein Feld eigentlich ist, kann man zwar mathematisch formulieren, aber sprachlich kaum beschreiben. Immerhin gilt es für die Naturwissenschaften als ausgemacht, dass man mittels konsequenter Reduktion auf die Physik (top down) und umgekehrt auf physikalischen Prozessen aufbauend (bottom up) mittels Emergenz und Supervenienz ‚alles‘, also die Wirklichkeit, beschreiben und erklären kann. Mit ‚Kausalität‘ ist man inzwischen vorsichtiger geworden, weil es sich wiederum kaum genau sagen lässt, was das eigentlich ist. Soweit die Skizze dessen, was in den Naturwissenschaften (und im angelsächsischen Raum sind nur sie „Wissenschaft“, science) heute materialistisch – physikalistischer mainstream ist.

Higgs Boson

The Higgs Boson (c) CERN

Schauen wir einmal mit ein paar einfachen Überlegungen genauer hin. Wärme, so lernt man, ist die durchschnittliche kinetische Energie der Moleküle und Atome eines Körpers. Dies ist allerdings physikalisch sehr ungenau formuliert, weil ‚Wärme‘ physikalisch keine Zustandsgröße ist, sondern der Energiefluss eines Temperaturunterschieds. Bleiben wir der Einfachheit halber bei den bewegten Molekülen. Sie sind die physische Form dessen, was wir Wärme nennen. Reduktionistisch formuliert empfinde ich zum Beispiel auf der Haut gar nicht ‚Wärme‘, sondern nur die Bewegungen der Moleküle der Luft, die von Rezeptoren in der Haut aufgenommen und über Nervenbahnen weitergeleitet und im Gehirn als „Wärme“ bewertet werden. Aber ‚eigentlich‘ ist da nicht Wärme, sondern nur bewegte Moleküle und Nervenreizung. Denn genau genommen kann ich auch ‚Wärme‘ als ‚Bewertung‘ des Gehirns gar nicht feststellen, sondern nur die Erregung bestimmter Areale innerhalb des Gehirns. Wie man von diesen Potentialen und Erregungszuständen zur Aussage „Mir ist warm“ kommt, ist physikalisch nicht zu erfassen. Physik bleibt auf der Ebene der Beschreibung von physikalischen Prozessen. Sie als mentale Empfindung von Wärme zu bezeichnen, ist eine ganz andere Sache.

Dasselbe gilt für die Farben, deren physikalische Grundlage die unterschiedliche Wellenlänge elektromagnetischer Strahlung ist. Man kann sehr genau beschreiben, wie der Weg des Lichts (em Strahlung bestimmter Wellenlänge) von einem Körper reflektiert wird und zu den optischen Rezeptoren auf unserer Netzhaut gelangt, dort das Erregungspotential erhöht und so als Reiz über die Nervenbahnen zum Gehirn weitergeleitet wird. Da ist dann das Sehzentrum zuständig, die ankommenden Reize zu verarbeiten. Ein heftiger Reiz (=grelles Licht) wird andere Reaktionen auslösen als nur ein geringer Reiz im langwelligen Lichtbereich, empfunden als rötliche Färbung. Aber genau diese letzte Formulierung liegt schon jenseits der physikalischen Beschreibungsebene. Über die em Wellen und Erregungspotentiale im Gehirn kommt man nicht hinaus.

Machen wir ein Gedankenexperiment. Es ist schönes Frühlingswetter mit Sonnenschein, und ich komme auf die Idee, im Stadtpark einen Spaziergang zu machen und mich an dem schönen Frühling zu erfreuen. Man stelle sich vor, ich wäre dabei voll verkabelt, meine Hirnströme könnten also jederzeit gemessen werden. Außerdem soll es möglich sein, in regelmäßigen Abständen einen Hirnscan durchzuführen und durch bildgebende Verfahren die gerade aktiven Bereich des Gehirns sichtbar zu machen. Zusätzlich soll es möglich sein, alle biochemischen Prozesse instantan zu erfassen und auszuwerten. Ich merke von all dem nichts und mache mich vergnügt auf den Weg. Ich gehe also in den Park, sehe Blumen und grünende Bäume, spielende Kinder, finde eine Bank und genieße die Wärme. Beim Weitergehen sehe ich eine alte Bekannte, die ich lange nicht getroffen habe, begrüße sie erfreut und wechsele mit ihr einige Worte, Sie muss dabei auf ihr Eis aufpassen, damit sie sich beim Reden nicht bekleckert. Wir wollen uns demnächst einmal für einen längeren Schnack verabreden. Ich gehe weiter und mache dann den Umweg an der Eisdiele vorbei. Klar, bei dem Wetter und dem schönen Nachmittag ist ein leckeres Eis die Krönung. Ich genieße das Eis und schlendere gemächlich wieder heimwärts.

Was wird nun auf der physikalischen Ebene zu sehen sein? Klar, wieder jede Menge Erregungspotentiale, Aktivierungen von Hirnregionen, Ausschüttung von Botenstoffen usw. Endorphine werden gewiss zweimal besonders auffällig sein, in der Mitte der Zeit und gegen Ende hin. Insgesamt sind die aktivierten Hirnregionen und die Ausschläge der elektrischen Ströme so vielfältig, dass wohl nur eine aufwendige Computeranalyse den Verlauf einem bestimmten Körpergeschehen zuordnen kann: Arm- und Beinbewegungen beim Gehen, optische Vorgänge mit vielfältigen Sinnesreizungen, Erregung von Tast-, Geruchs- und Geschmacksrezeptoren, vielleicht sogar eine leichte Erhöhung des Testosteronspiegels, Aktivität von ‚Spiegelneuronen‘, auf jeden Fall in den Bildern von den einzelnen Hirnregionen ständige wechselnde und sich vielfach überlappende aktive Hirnregionen, die der Hirnphysiologe bestimmten Verarbeitungsszenarien (Gehen, Sehen, Hören, Schmecken, sexuelle Erregung usw.) zuordnen kann. Dafür hat er allerdings vorgängig in der Wissenschaft auf vielfältige Selbstauskünfte von Testpersonen Bezug genommen, befindet sich also schon bei der Deutung der Hirnregionen nicht mehr auf der rein physikalischen Ebene. Auch hier gibt es bei noch so genauen Daten und umfassenden Computer- und Bildverarbeitungen keinen Weg, der von den physikalischen Vorgängen zu meinem Frühlingsspaziergang führt.

Man könnte sich vorstellen, zusätzlich zu den Datenerfassungen meines Körpers bzw. Gehirns noch die Aufnahmen einer GoPro – Kamera während meines Spazierganges zu nutzen. Doch bringt das auf der physikalischen Ebene keinerlei Vorteil, nur zusätzliche Daten, die im optischen Bereich anfallen und ohne Deutung („Das ist der Parkweg.“ „Da steht eine Bank.“ „Das Eis tropft.“) allenfalls elektromagnetische Muster erzeugt. Ohne den Erzähler des Spaziergangs wird weder seine Freude noch seine Wahrnehmungen im Park noch seine Erregung beim Treffen der alten Freundin noch der Genuss beim Schlecken des Eises sichtbar werden, eben nur Felder, Muster, Potentiale und Differentiale. Nur dann befindet sich die Auswertung auf der Ebene reiner Physik.

Wie kommt man nun von dort zu mir als demjenigen Menschen, der den Spaziergang gemacht hat und dabei unterschiedliche Erlebnisse hatte? Wie kommt man überhaupt von em Mustern zu Bildern, die für menschliche Wahrnehmung einen Gehalt haben? Wie kommt man von bildhaften Darstellungen und enzephalographischen Werten und Kurven zum Verständnis des Geschehens im Gehirn, ganz zu schweigen davon, dass man dann noch längst nicht bei den Erlebnissen des Spaziergängers ist? Inwiefern kann dann die physikalische Ebene als basal und für alle übergeordneten Ebenen als reduktionsfähig verstanden werden? Haben wir anhand der physikalischen Daten überhaupt etwas ‚verstanden‘?

Natürlich weiß auch der Naturwissenschaftler und erst recht die Erkenntnistheoretikerin, dass die Physik alleine nicht ausreicht zur Beschreibung der Wirklichkeit. Darum wird ja auch durch Theoriebildung ein abgestuftes System von Emergenzen und darüber liegenden Supervenienzen anerkannt, das den Zusammenhang zwischen Physik, Biologie und Anthropologie (diese einmal stellvertretend für die ‚Geisteswissenschaften‘, humanities, genommen) herstellen soll. Aber die Grundthese des Physikalismus wird dennoch kaum infrage gestellt, dass eben bei der genauen Analyse der Wirklichkeit ‚letztlich‘ alles Physik sei. Dabei ist es nicht nur das ‚Bindungsproblem‘ (dieses wird unterschiedlich beschrieben), das Schwierigkeiten macht, wenn man von ‚dort‘ nach ‚hier‘ gelangen will, sondern es ist zunehmend auch der Begriff der Kausalität, der die Voraussetzung für das Axiom der ‚kausalen Geschlossenheit‘ des Raumes der Physik ist. Allein auf der basalen Ebene der Wirklichkeit physikalisch zu erklären bzw. zu definieren, was denn genau Kausalität ist, ist schwierig geworden, so schwierig, dass manche auf den Begriff lieber ganz verzichten möchten und nur (in der Tradition Humes) von dem Nebeneinander von Punkten in der Raumzeit sprechen (David Lewis), wobei schon Wirkungen und Kräfte als kontingente Quiddities darüber hinausgehen.

Schwerer wiegt aus meiner Sicht die Frage, wie ich etwas als grundlegenden Bereich der Wirklichkeit annehmen kann, wenn dadurch keinerlei Zugang zu dem ermöglicht wird, was meiner lebensweltlichen Erfahrung entspricht – siehe den Frühlingsspaziergang. Eine Wissenschaft, die wesentliche Erfahrungen des menschlichen Lebens im Blick auf seine ‚Natur‘ und seine ‚Mitwelt‘ ausblenden muss, kann weiterhin von eminenter Bedeutung sein (z.B. Grundlagenforschung usw.), aber sie kann kaum begründet den Anspruch erheben, das Ganze der Wirklichkeit zu erfassen oder abzubilden. Genau das ist der Pferdefuß beim Physikalismus. Man kommt nicht mehr von ‚dort‘ (den bloßen physikalischen Daten) nach ‚hier‘ (zu den lebensweltlichen Erfahrungen und Beschreibungen). Allerdings sind auch die physikalischen Beschreibungen, selbst wenn sie mathematisch gefasst sind, Ergebnisse einer kulturellen Leistung des Menschen, – und schon mit diesen Deutungen und Interpretationen (Feldgleichungen usw.) ist die ‚rein‘ physikalische Ebene verlassen.

Es ist schon wahr: Physik ergibt nur immer wieder ’nichts als Physik‘. Mehr und anderes kann man von ihr nicht erwarten. Die Interpretationen und Deutungen liegen jenseits der ‚reinen Physik‘. Doch ohne diese kommt nicht einmal die Physik aus, sobald sie Theorien bildet – und wie anders sollte selbst die Physik als Wissenschaft vonstatten gehen?