Feb 082019
 

Philosophie ist nicht Feuilleton, ein guter Physiker noch kein Philosoph.

Das neueste Buch von Carlo Rovelli, Die Ordnung der Zeit (2018) und seine überwiegend positive Aufnahme in den Feuilleton- und Wissenschaftsredaktionen der überregionalen Zeitungen gibt Anlass, einmal kurz das Verhältnis von Physikern zur Philosophie zu beleuchten. In jüngster Zeit hat es Erhard Scheibe, Professor em. für Philosophie der Naturwissenschaften (Heidelberg) unternommen, „Die Philosophie der Physiker“ (2006; 2. Aufl. 2012) ausführlich zu untersuchen. Dass dies Verhältnis ein durchaus problematisches sein kann, wird sehr bald deutlich. So zitiert er eingangs Susan Stebbing, die sich in ihrem Buch Philosophy and the Physicists (1937 !) über philosophisch dilettierende Physiker beschwert.

Das Buch illustriert die Reaktion einer Fachphilosophin auf die philosophischen Gehversuche zweier Physiker: Eddington und Jeans. Beide haben im Laufe ihres Lebens populärwissenschaftliche Bücher geschrieben, in denen sie einem interessierten Laienkreis das Weltbild der Physik auf dem neuesten Stand mitteilen, dabei unversehens und manchmal auch mit Absicht ins Philosophieren geraten und philosophische oder auch theologische Konsequenzen aus der neuen Physik ziehen wollen. Die Bücher von Eddington und Jeans sind streckenweise Musterbeispiele für philosophischen Dilettantismus – versehen mit der Autorität der Wissenschaft und bar jedes expliziten und engeren Zusammenhangs mit den zeitgenössischen philosophischen Strömungen. Es kann kaum verwundern, daß diese Bücher den Unwillen des einen oder anderen Philosophen erregt haben. Susan Stebbing faßt ihren Unmut folgendermaßen zusammen:“

„…die sie auf das Niveau von Erweckungspredigern reduziert. Aber wir gewöhnlichen Leser haben gewiß ein Recht zu erwarten, daß ein Wissenschaftler, der sich anschickt, zu unserem Nutzen philosophische Probleme seines Faches zu diskutieren, dies in einem wissenschaftlichen Geiste tun wird. Er befindet sich in einer besonderen Verpflichtung, billige Gefühlsduselei und bestechende Appelle zu vermeiden und so klar zu schreiben, wie es die schwierige Natur des Gegenstandes gestattet.“

Scheibe S. 34f.

Nun gibt es seitdem und in den letzten Jahrzehnten vermehrt populärwissenschaftliche Darstellungen über die komplizierten Modelle der heutigen theoretischen Physik und Kosmologie. Das ist gut und unbedingt nötig, weil viele Theoreme und Erkenntnisse der heutigen Physik dem Alltagsdenken stracks zu widersprechen scheinen und darum und wegen der hohen mathematischen Abstraktion schwer zu vermitteln sind. Da gibt es gute und weniger gute Versuche. Immerhin haben Albert Einstein, Werner Heisenberg, Erwin Schrödinger und Stephen Hawkings, um nur die bedeutendsten zu nennen, es sich selber angelegen sein lassen, ihre Physik und ihre „Weltsicht“ dem allgemeinen Publikum darzustellen. Diese und die Schriften unzähliger anderer Naturwissenschaftler ebenso wie naturwissenschaftlich qualifizierter Journalisten leisten dabei Wichtiges, Unverzichtbares. Das gilt insbesondere dann, wenn die moderne Physik tatsächlich mit einem „Weltbild“ einhergeht, das es dann auf seine Stimmigkeit zu untersuchen gilt. Denn Weltbilder sind Modelle und Interpretationen, die notwendig zu experimentell oder durch Beobachtung erhobenen Fakten hinzutreten müssen bzw. von Anfang an im Spiel sind, wenn es um Verstehen geht. Die Frage ist dann, ob sich schriftstellernde Physiker dessen bewusst sind, dass und falls sie über die physikalischen Theorien hinaus Antworten zu grundätzlichen Fragen ‚des Lebens‘ und der ‚Welterkenntnis‘ geben wollen. Dann überschreiten sie nämlich die Grenzen ihres Fachverstandes und müssen sich mit dem Fach- und Sachverstand anderer, zum Beispiel von Philosophen und Erkenntnis- und Wissenschaftstheoretikern, messen lassen. Die gute Absicht, etwas Nachdenkliches und subjektiv Bewegendes zum Beispiel zum Thema Ewigkeit, Tod, Vergänglichkeit zu schreiben, reicht da nicht.

Diese Grenze hat Carlo Rovelli offensichtlich nicht beachtet. Seine Ausführungen zum Thema „Zeit“ sind nur sehr begrenzt aus seinen physikalischen Theorien gewonnen („fundamentalste Ebene“) und stellen dort eine gewiss diskussionswürdige Interpretation dar. Das zu beurteilen steht mir als Nicht-Physiker nicht an. Wo er sich allerdings recht eklektisch und frei aus dem Traditionsbestand der Philosophie bedient, da wird es schnell oberflächlich und, ja tatsächlich emotional und kitschig, besonders in seinem dritten und letzten Teil – und eben deswegen fiel mir der Text von Susan Stebbing ein. Er trifft mutatis mutandis auch auf das hier debattierte Buch von Rovelli zu. Immerhin versucht Rovelli zwischen physikalisch gesicherten Ergebnissen, möglichen Interpretation und eigenen Spekulationen zu unterscheiden (S. 163f: experimentell abgesichert – immerhin plausibel – bloße glaubhafte Ideen, die ihm lieb sind). Aber letztlich verfällt er doch einer „spekulativen Physik“ (Perlentaucher), die nur noch schlechte Philosophie ist. Und die ist, mit Verlaub gesagt, nun gar nicht „faszinierend“ (Sibylle Anderl, FAZ).

Die FAZ-Rezensentin S. Anderl fragt zu Recht: „Diese angeblich zeitlose Physik auf kleinsten Skalen wirft für den Leser dennoch Fragen auf – wo es Ereignisse gibt, kann da die Zeit völlig fehlen?“ Nicht nur ähnelt Rovellis Konzeption der Newtons, nämlich bei Ereignissen und Wechselwirkungen vom Faktor Zeit abzusehen (so Anderl), sondern er schließt darüberhinaus vom Fehlen einer Variablen t (= Faktor Zeit) auf die Nichtexistenz der Zeit auf der Mikroebene (Quantenfluktuationen). Nun, wenn ich in einem geschlossenen System, sagen wir einem gasgefüllten Zylinder das Verhältnis von Druck und Temperatur untersuche, brauche ich auch keinen Faktor Zeit. Es liegt ein ontologischer Fehlschluss vor, wenn Rovelli aus der Struktur der Gleichungen, die quantenmechanische bzw. thermodynamische Wechselwirkungen beschreiben, auf die Nichtexistenz anderer Faktoren oder Variablen schließt, die bezüglich dieses untersuchten Mikrosystems möglicherweise keine Rolle spielen.

Problematisch scheinen mir auch seine Ausführungen zur Entropie zu sein. Es gibt kaum einen anderen Begriff bzw. keine theoretische Größe, die so schillernd ist und unterschiedlich interpretiert wird wie Entropie. Die Bestimmung der Entropie als „Maß des Nichtwissens“ bzw. der „Unschärfe“ führt bei ihm zu einer Neuformulierung der Viele-Welten-Theorie: „Für jeden Teil der Welt gibt es folglich ununterscheidbare Konfigurationen der übrigen Welt. Die Entropie zählt sie.“ (130) Wir kennen nicht diese anderen Konfigurationen, darum ist „unsere“ Welt perspektivisch einzigartig und folgt dem thermodynamischen Zeitstrom der zunehmenden Entropie. Letzteres ist zumindest die gängige Auffassung, obwohl auch vehement das Gegenteil behauptet wird: Nicht Entropie begründet die gerichtete Zeit, sondern die Zunahme von Entropie ist Ergebnis tatsächlicher Beobachtungen in der Zeit (vgl. Roger Penrose, Zyklen der Zeit, 2011, S. 52 ff.). Penrose hält auch die Umkehrung, also die Abnahme der Entropie für möglich. Für ihn ist der Entropie-Begriff keine wesentliche Größe, sondern ein „nützliches Konzept…. weil unser Universum sehr weit von einem thermischen Gleichgewicht entfernt ist“. Dies nur als Hinweis darauf, dass die Bedeutung der Entropie in der Form, wie Boltzmann sie mathematisch formuliert hat, von Physikern sehr unterschiedlich aufgenommen und interpretiert wird. [Wieder ganz anders C. F. v. Weizsäcker] Rovelli beschreibt uns nur eine, nämlich seine Version.

Schließlich bleibt bei Rovelli die Rolle des Physikers, des Beobachters, unklar. Einerseits betont er:

„Wissenschaft strebt nach Objektivität. Nach einem gemeinsamen Standpunkt, auf den wir uns einigen können.
Bei dieser optimalen Herangehensweise ist allerdings darauf zu achten, was außen vor bleibt, wenn man den Blickpunkt des Beobachters ignoriert. In ihrem ängstlichen Bemühen um Objektivität darf die Wissenschaft nicht vergessen, dass unsere Erfahrung der Welt aus dem Inneren stammt. Jeder Blick, den wir auf die Welt werfen, rührt letztlich von einer bestimmten Perspektive her.

S. 126

Andererseits schreibt er:

Ich fasse die grobe Darstellung in den letzten beiden Kapiteln in der Hoffnung zusammen, dass mir nicht schon sämtliche Leser abgesprungen sind: Auf grundlegender Ebene ist die Welt eine Menge an Geschehnissen, die nicht in der Zeit geordnet sind. Diese realisieren Beziehungen zwischen physikalischen Variablen, die sich a priori auf derselben Ebene befinden. Jeder Teil der Welt interagiert mit einem kleinen Teil sämtlicher Variablen, deren Wert «den Zustand der Welt bezogen auf dieses Untersystem» bestimmt. [Hervorhebungen von mir]

S. 130

Das ist nun starker erkenntnistheoretischer Tobak: Da gibt es nach Rovelli eine „grundlegende Ebene“, auf der „die Welt … nicht in der Zeit geordnet ist.“ Dies ist eine ontologische Aussage über die Welt insgesamt („sämtlicher Variablen“), und diese wird als in Ebenen geschichtet beschrieben. Auf dieser „grundlegenden Ebene“ gibt es „a priori“ Beziehungen zwischen einem Subsystem physikalischer Variablen. Wie bekommt Rovelli auf einmal den „Zustand der Welt“ insgesamt in den Blick, quasi von einem exklusiven Standort aus? Woher kommt die Schichtung in Ebenen? Rovelli meint hier offenbar anderes als nur die Unterscheidung von einem Mikro- oder Makro-Zugriff. Inwiefern sind „auf der grundlegenden Ebene“ die physikalische Variablen a priori (Kant), also nicht durch Erfahrung vermittelt? Das müsste doch wenigstens erläutert und begründet werden. Letztlich verlässt er mit dieser eigenwilligen Ontologie die perspektivische Sicht des Beobachters. Hier wäre der Gedanke des Beobachters zweiter Ordnung (Luhmann) innerhalb des Systems hilfreich, der die Ergebnisse und Aussagen des Physikers noch einmal ‚beobachtet‘. Von einer solcher Meta-Position innerhalb des Systems aus könnten die Ergebnisse des Physikers relational bewertet werden als eine Auswahl notwendiger / möglicher / plausibler / spekulativer Interpretationen dessen, was als experimentell erhobene Fakten vorliegt. Rovelli stolpert aber direkt von einer postulierten ontisch-realistischen Ebene in eine ontologische Spekulation – und vermischt beides. Dies macht seine Ausführungen schwer nachvollziehbar und letztlich spekulativ. Schade, dass er darum nur eine „spekulative Physik“ anbieten kann. Darin lässt er dann die Zeit als nicht grundlegend verschwinden. Man kann und darf das physikalisch und philosophisch anders sehen.

Ohne Zweifel gelingt Rovelli ein ansprechendes Buch – verführerisch ansprechend, würde ich sagen. Er knüpft auch bei abtrakten Darstellungen an die lebensweltliche Erfahrung der Leser an und nimmt sie so mit in einen im Grunde sehr eigenwilligen Gedankengang. Auch wenn er auf Seite 163, also ziemlich am Ende, knapp die unterschiedliche Qualität seiner Gedanken einräumt, bleibt er doch bei seiner geliebten „Idee“ und unterstreicht sie noch: „Absolut glaubhaft ist dagegen die generelle Tatsache dass die Zeitstruktur der Welt von dem naiven Bild abweicht, das wir uns von ihr machen.“ (S. 164) Mit einem eleganten Schlenker verbindet er dann noch das „Mysterium der Zeit“ mit unserer Identität und dem Bewusstsein. (ebd.) Seine Hinweise zur Hirnforschung bleiben schemenhaft, wie so vieles. Und am Ende kommt auch noch die Evolution, das Ende und der Tod als „des Schlafes Bruder“. Nein, Carlo Rovelli lässt wirklich nichts aus – auch wenn es nur Andeutungen und emotionale Bekenntnisse sind. Was das Buch am Anfang an physikalischen Fakten und verständlicher Aufklärung versprochen hat, das hat es am Ende einfach nicht gehalten.

Reinhart Gruhn

Jul 202014
 

Naturwissenschaft auf dem philosophischen Prüfstand (5)

[PhilosophieNaturwissenschaft]

Das nicht-theistische Weltbild kennt keinen Gesetzgeber. Es grenzt sich als allein wissenschaftlich korrekt von anderen zum Beispiel theistischen oder spezifisch religiösen Weltbildern ab. Aus dieser wissenschaftlichen (d.h. nicht-theistischen, naturalistischen) Sicht enthalten andere Weltbilder kein vernünftiges Wissen. Aus theistischer Sicht dagegen verkennt die moderne Naturwissenschaft, dass Wissen weiter gefasst werden muss, als es die Prinzipien der Rationalität und der Kausalität zulassen. Ein kausal geschlossenes Weltmodell kann per definitionem keine nicht-natürlichen, gemeint ist: keine nicht-materiellen Ursachen anerkennen. Die Annahme nicht-physikalischer Ursachen führt bloß zu einer Überbestimmtheit. Diese kontroverse Diskussion ist in der angelsächsischen philosophy of mind während der vergangenen fünfzig Jahre erschöpfend und letztlich ziemlich fruchtlos geführt worden.

Die andere kontroverse Diskussion zwischen materialistischen Naturwissenschaften und den Vertretern eines intelligent design wird zwar auch überwiegend im angelsächsischen Raum geführt, hat aber darüber hinaus Auswirkungen auf die europäische Diskussion. Derzeit ist diese Diskussion mangels prominenter Stellungnahmen zwar abgeebbt, sie kann aber jederzeit wieder aktuell werden. Die Stärke der Vertreter eines intelligent design (also der Position, Zufall allein könne die Naturphänomene nicht erklären, sondern diese verwiesen auf ein intelligentes Ordnungsprinzip jenseits der Naturgesetze) liegt darin, auf offensichtliche Schwächen eines geschlossenen kausalen materialistischen Weltbildes hinzuweisen. Zuletzt hat der US-Philosoph Thomas Nagel die Gründe dieser beiden Positionen übersichtlich dargestellt und abgewogen (Thomas Nagel, Geist und Kosmos, 2012 (en); 2013 (de), bes. S. 26 – 54). Nagel schlägt die Öffnung des naturalistischen Weltmodells auf eine teleologische, also zielorientierte Modalität hin vor. Vielleicht liegt aber der eigentliche Knackpunkt des Streites über die Wissenschaften noch ganz woanders, nämlich in der Bedeutung und Funktion des Zufalls.

Naturwissenschaftliches Denken ist längst nicht mehr auf kausalen Determinismus fest gelegt. Besonders durch die Evolutionstheorie im Bereich der Entstehung des Lebens und der Entwicklung der verschiedenen Lebensformen (Arten nannte es Ch. Darwin) ist der Zufall der Veränderung neben dem kausalen Druck der Anpassung zu einem ausschlaggebenden Faktor geworden. Genauer durchdacht und theoretisch gefasst wird diese Bedeutung des Zufalls in Chaostheorien und Theorien der Selbstorganisation. Hier haben mathematische und komputationale Ansätze das Denken in Richtung Systemtheorie wesentlich voran gebracht. Ein Blick in die (englische) Wikipedia zum Stichwort self-organization zeigt allerdings auch, in wie vielen unterschiedlichen Wissensbereichen dieser Begriff heute gebraucht wird und Lösungen verspricht. Er scheint zu einer Art Schlüsselbegriff neuerer wissenschaftlicher Theoriebildung geworden zu sein. In ihm werden Kausalität, Determination und Zufall zusammen gebunden. Kein Wunder also, dass sich Selbstorganisation als Lösungsansatz für die verschiedensten Wissensbereiche und Theoriemodelle anbietet, denn der Zufall ist es ja, der die deterministischen Kausalitätsargumente stört – und ihnen andererseits einen wirklichkeitsnahen Ausweg bietet. Es lohnt sich daher, genauer auf diese Begrifflichkeit einzugehen.

Geht man von der Wissenschaftsgeschichte der Neuzeit aus, dann hat der Begriff Zufall den Gottesbegriff beerbt. Vermittler ist hierbei der Begriff Natur. Spinoza hat durch seine berühmte Formel deus sive natura zunächst die Austauschbarkeit beider Begriffe gezeigt und in der weiteren Entwicklung die Ersetzung des Gottesbegriffs durch einen umfassenden Naturbegriff ermöglicht. Der ist aber bis heute weitgehend diffus geblieben, unpräzise, wird schon gar nicht im Sinne Spinozas als umfassender Substanzbegriff verwandt, sondern eher als Stellvertreter für eine Lücke. Man kann durchaus mit einiger Berechtigung fragen, ob der heutige Naturbegriff überhaupt eine konkrete Extension hat, also ob er überhaupt etwas Abgrenzbares bedeutet. Umgangssprachlich ist die Natur entweder gleichbedeutend mit dem „Grünen draußen“ – im Unterschied zur Stadt – als Erholungsraum oder als Produktionsgebiet unserer Lebensmittel. Das Wort Natur wird aber auch in einem umfassenderen Sinne gebraucht für alles, was nicht vom Menschen gemacht, sondern eben natürlich vorhanden ist. Natur wird darin als etwas dem Menschen Widerständiges erfahren und beschrieben. Naturgewalten sind bedrohlich, die Natur holt sich zurück, was der Mensch frei gibt. Gegen die Natur kann keiner. Natur ist das, was uns letztlich bestimmt und sich auch gegen uns am Ende durchsetzt. Der Tod ist unser natürliches Ende. Andererseits ist „Mutter Natur“ Spenderin alles Guten, vor allem des Lebens usw. In fast all diesen Ausdrücken und Verwendungen des Begriffs Natur wird diese personalisiert. Sie erscheint dann als etwas Einheitliches, Abgrenzbares, Bestimmtes, aktiv Handelndes und Wollendes zu sein – eigentlich ein Wesen wie Gott.

Recht unterschiedlich von diesem summarischen und personalistischen Gebrauch des Wortes Natur im Allgemeinverständnis ist der Begriff Natur in der Wissenschaft. Natur ist hier das Materiell-Wirkliche schlechthin. Natur ist gewissermaßen das Gesamt aller Teilchen, Kräfte, und Felder, aus denen sich die Welt aufbaut, wie sie in Physik, Astronomie, Chemie und Biologie präzise zu beschreiben und kohärent zu erklären versucht wird. Dabei hat sich eine streng deterministische Sicht der Zusammenhänge als nicht ausreichend gezeigt. Die Wirklichkeit ist offenbar komplexer. In der Evolutionsbiologie und in der Quantenmechanik spielt auf einmal der Zufall eine wesentliche Rolle. Die eindeutige Vorhersagbarkeit, wie man es bis dahin von Experimenten her kannte, gab und gibt es nicht mehr. Neue Theoriebildungen mussten hinzu gezogen werden, welche die funktionale Bedeutung des Zufalls berücksichtigten. Der Zufall aber ist und bleibt auch hier ein ungeliebter Hilfsbegriff. „Kontingent“ sagt der Wissenschaftler, wenn er etwas zwar Mögliches, aber nicht kausal Notwendiges meint. Aber wer oder was steuert dann diesen Zufall eigentlich? Im nicht-theistischen Weltbild ist der ungeschützte, fast personal gebrauchte Begriff Natur obsolet. Zufall beschreibt aber eher eine Lücke des Verständnisses. Hier hilft nun das Theorem der Selbstorganisation. Das „… selbst“ wird zum Subjekt aller nicht-deterministischen, chaotischen, bifurkativen Prozesse. Der Chemie-Nobelpreisträger Ilya Prigogine hat hier im Bereich der Naturwissenschaften, insbesondere der Thermodynamik, neue Verständniswege beschritten (zur Dynamik dissipativer Systeme). System-, Spiel- und Chaostheorie haben die mathematischen Grundlagen dafür bereitet. Bei Manfred Eigen (Eigen / Winkler, Das Spiel. Naturgesetze steuern den Zufall, 1975) werden Spieltheorie und Selbstorganisation für das Verständnis dynamischer Ordnungszustände fruchtbar gemacht. Heutige komputationale Modelle (in der Anwendung zum Beispiel Wettermodelle, Klimamodelle) „rechnen“ fest mit dem Zufall, bzw. mit den chaotischen Prozessen der Selbstorganisation komplexer Systeme. Die Systemtheorie wird gewissermaßen zum Schweizer Messer aktueller wissenschaftlicher Methodik. Voraussagbarkeit ist hier ganz entscheidend eine Frage der Rechenkapazität, die allerdings nur Näherungen bieten kann. Die Ergebnisse sind beeindruckend. Dennoch bleibt die unbequeme Frage: Wer ist eigentlich das „Selbst“ in aller Selbst-Organisation von Natur, Prozess, System?

Wenn sich Naturprozesse und vor allem Gesetzlichkeiten von selbst organisieren, so spielt das Selbst hier vor allem auf die Realität des Zufalls an: Niemand, kein Gott, hat diese Gesetze geplant oder gewollt oder auferlegt. Sie sind auch nicht Ausdruck einer organischen Funktionalität und Reflexivität, sondern sie haben sich »von selbst« ergeben, ohne auferlegt worden zu sein oder aus einer der Natur immanenten Notwendigkeit zu resultieren. (M. Hampe, Eine kleine Geschichte des Naturgesetzbegriffs, 2007 S. 130)

Die von Hampe zuvor angeführte Analogie der „von selbst“ ins Schloss fallenden Tür hinkt offensichtlich, denn hier ist es ja der Wind oder die Schwerkraft, die das „von selbst“ auslöst. Sich selber organisierende Prozesse sind aber gerade solche, auf die keine weitere Ursache „von außen“ einwirkt. Dann ist das Selbst in der Selbstorganisation aber doch wieder entweder der Zufall oder – irgend etwas anderes.

Hyperwürfel

„8-cell“ by Jason Hise – Wikimedia

Diese Antwort mag unbefriedigend sein. Selbstorganisation soll ja gerade einen immanenten dynamischen Prozess bezeichnen, der sich nur auf sich selbst bezieht und auch die Dynamik aus sich selbst gewinnt. Bei fraktalen Mustern mag das noch überzeugen, aber schon im Bereich der biologischen Evolution, gar der Entstehung und Evolution des Lebens überhaupt, ist „Selbstorganisation“ nur eine Chiffre für Zufall, und dieser wiederum ein Glaubenssatz, den man mit gleichem Recht auch durch „Gott“ ersetzen könnte – womit wir wieder bei der strittigen Diskussion um das intelligent design wären. Ich persönlich halte das Konzept des intelligent design für einen Kurzschluss, für einen allzu bequemen und in sich gleichfalls nicht logischen Ausweg (siehe das Problem der Überbestimmtheit). Das Theorem der Selbstorganisation führt zwar entscheidend weiter, hält aber längst nicht alles, was es verspricht. Ein logisches Modell wie das „Game of Life“ ist zwar eine verblüffende und einleuchtende Simulation von Selbstorganisation (zellulärer Automat), aber es ist eben nur ein mathematisches Spiel. Der Zufall in der Quantendynamik oder in der Evolution ist aber von anderer Qualität. Er bezeichnet eher etwas, was einfach noch nicht recht verstanden ist. Nur mathematisch lässt sich der Zufall mit Wahrscheinlichkeiten in den Griff bekommen. Vielleicht weist dies aber in die Richtung einer besseren Lösung.

Es könnte sein, dass der in der Natur herrschende Zufall mehr im Auge des Betrachters liegt. Wenn Wissenschaft als das Bemühen beschrieben werden kann, ‚Ordnung in das Chaos‘ der vielfältigen Erscheinungen in der Welt um uns und in uns zu bringen, dann ist es in erster Linie der betrachtende, ordnende und erklärende Mensch, der mit seiner Vernunft nach Mustern und Strukturen sucht, die die Phänomene der Natur möglichst angemessen beschreiben. Offenbar reichen die Muster der Determination und der Kausalität nicht aus, eine den natürlichen Erscheinungen adäquatere Ordnung zu etablieren. Aber ebenso wie es in der Mathematik gelang, mit Unendlichkeiten zu arbeiten (Infinitesimalrechnung), mit n-dimensionalen funktionalen Räumen zu operieren (Hilbert-Raum) und nicht-euklidische Geometrien zu entwerfen (Riemann), was sich insgesamt als geeignete Werkzeugkiste für die Relativitätstheorie und die Quantenphysik erwies, so lässt die Stochastik und die Chaosforschung nichtlinearer Dynamiken Muster der Beschreibung und des Verstehens erkennen, die das, was wir sonst Zufall nennen, als eine andersartige, vielleicht im Wortsinne eigen-artige Organisation natürlicher Erscheinungen zum Vorschein bringt. Dann müsste der Zufall nicht die unerklärliche, sich „von selbst“ ereignende Lücke bezeichnen, wie er das in Alltag und Umgangssprache mit hinreichender Anschaulichkeit tut. In der wissenschaftlichen Theorie aber könnten nichtlineare Muster und dynamische Formen vielleicht dasjenige sein, was sich in den komplexen Phänomenen der Natur hinter der ‚Organisation des Zufalls‘ verbirgt.

Mrz 152014
 

[Philosophie; Ethik]

Claus Pias hat in der FAZ einen bemerkenswerten Artikel über Erkenntnis und Handeln im Zeitalter digitaler Echtzeit-Systeme geschrieben und darin nach dem „Funktionsgeheimnis digitaler Kulturen“ gefragt. Im Unterschied zur Vormoderne beruht es nicht auf Geheimhaltung (des Souveräns / der Regierung), sondern auf „Inkommensurabilität“:

Kybernetische Regierung würde, so viel war klar, nicht nur Staatlichkeit brüchig werden lassen, sondern eine Entgrenzung des Politischen heraufführen, die auf einer extensiven, wellenförmigen Registratur und einem Willen zum Wissen beruhen müsste, der kein Gebiet auslassen und keinen Haltepunkt des Interesses kennen dürfte. Mit dem Siegeszug von Computersimulationen und dem Umbau etlicher Wissenschaften in System-Verhaltenswissenschaften wurde dieses Wissen zunehmend von solchen Systemen selbst produziert. Mit dem Wissen, nicht genau zu wissen, was wir wissen, werden aber die eigenen Handlungsgrundlagen zusehends aporetisch.

Am Beispiel der Klimadebatte verdeutlicht Pias, wie ein „computerbasiertes Welt-Szenario-Projekt … zwischen Wissenschaft und Fiktion“ alternative Handlungsbegründung nahezu unmöglich macht:

Der gängige Reflex, die „Konstruiertheit“ solchen Wissens aufzuweisen, verschlägt wenig, denn er erspart nicht das Handeln angesichts von Szenarien, die sich ihres Konstruktivismus selbst bewusst sind. Und die Falsifizierbarkeit der klassischen Wissenschaftsethik ist nicht praktizierbar, weil der Gegenstand Klima nicht experimentell zugänglich ist und die betroffenen Wissenschaften selbst nicht mehr rekonstruieren können, was in ihrer Software vorgeht. Was also tun?

Auch die „Kybernetik 2. Ordnung“, so ist zu folgern, hilft hier wenig weiter, weil sie das Problem des „Arkanums“ der sich selbst regulierenden Algorithmen allenfalls abbilden, aber nicht erklären kann. Wie also lässt sich jenseits des digitalen  „Funktionsgeheimnisses“ und damit des Abhandenkommens eines transparenten Souveräns (dem nach Pias auch die „gegenwärtige Transparenzekstase“ nicht beikommt) Handlungsbegründung und Handlungsvollmacht wieder gewinnen?

Anders gefragt: Wie ist der Wahrheitsanspruch von Erkenntnis gegenüber der Allmacht eines systemtheoretischen Konstruktivismus (der auch als sog. „Poststrukturalismus“ nicht besser wird) zurück zu gewinnen und wie lässt sich Ethik als Theorie begründeter und überzeugender Handlungsmaximen freier Personen angesichts der Allmacht der „kybernetischen Epistemologie der Echtzeit“ und ihrer prädiktiven Szenarien begründen? Können Handlungsfreiheit und Verantwortlichkeit handelnder Subjekte überhaupt gewahrt bleiben, wenn alle möglichen Alternativen bereits durchgerechnet, bewertet und als aus der Zukunft in die Gegenwart transplantierte „Tatsachen“ vorweg genommen sind? Ist es tatsächlich so, dass traditionelles Wissen aus vergangenem „Erfahrungsraum“ und im „Erwartungshorizont“ der Zukunft nunmehr in einer neuen Form digitaler (All-) Gegenwart „zusammenschnurrt“ und dem Denken nur distanzierte „Neugier“ übrig bleibt?

Mir scheint allerdings, dass der aporetische Ausgang selber den Implikationen eines konstruktivistischen oder neuerdings systemtheoretischen Theorieansatzes (Erbe der Kybernetik) geschuldet ist. Es ist darum gut, einen Blick auf die intelligente Kritik von Paul Boghossian zu werfen: Angst vor der Wahrheit. Ein Plädoyer gegen Relativismus und Konstruktivismus (2013 als Suhrkamp TB mit einem Nachwort von Markus Gabriel). Boghossian führt seine Auseinandersetzung vor allem mit dem jüngsten angelsächischen epistemologischen Relativismus und Sozial-Konstruktivismus (→ Richard Rorty). Sein Fazit ist ernüchternd.

Die konstruktivistische Kernthese, die uns in diesem Buch beschäftigt hat, besagt, dass Wissen von Gesellschaften in einer Weise konstruiert wird, die ihre kontingenten Bedürfnisse und Interessen widerspiegelt. Wir haben drei verschiedene Ideen herauspräpariert, auf die diese Überzeugung in interessanter Weise hinauslaufen könnte, und wir haben genau geprüft, was jeweils für sie spricht.
Einerseits scheint es schwerwiegende Einwände gegen jede von uns untersuchte Version des Erkenntniskonstruktivismus zu geben. Ein Wahrheitskonstruktivismus ist inkohärent. Ein Berechtigungskonstruktivismus ist wenig besser. Und es scheint entscheidende Einwände gegen die Idee zu geben, dass wir Meinungen nicht allein mittels epistemischer Gründe erklären können. …

Die Schwierigkeit liegt darin, zu verstehen, warum diese Verallgemeinerungen sozialer Konstruktion so verlockend sind. Eine Quelle ihrer Anziehungskraft ist offenkundig: Sie geben uns die Macht, jeden Erkenntnisanspruch einfach zurückzuweisen, wenn wir die Werte, auf denen er beruht, nicht zufällig teilen, da wir von vornherein wissen, dass jeder Erkenntnisgegenstand seinen Status nur unseren kontingenten sozialen Werten verdankt. Aber damit wird die wirkliche Frage nur vertagt. Warum diese Angst vor der Wahrheit? (S. 133)

Es ist also letztlich ein ideologiekritisches, insbesondere politisches Argument, das Boghossian zugleich heranzieht: Wem nützt ein solcher Konstruktivismus, inwiefern wird er für einen bestimmten Meinungskampf (im US-Falle: liberale Korrektheit contra Kreationisten) instrumentalisiert?

Vergleichbares wäre erst noch für diejenigen Formen der Systemtheorie und Kybernetik 2 zu leisten, die in diesen Theoriemodellen die geeigneten epistemischen wie pragmatischen Universalinstrumente für das digitale Zeitalter erkennen. Claus Pias‘ Überlegungen über die „Zeit, die aus der Kälte kam“, könnten dazu ein erster Schritt sein. Umso wichtiger ist aber darüber hinaus die Frage nach dem Nutzen (cui bono) des „digitalen Funktionsgeheimnisses“ und den manifesten Interessen (von Google bis zur NSA), die das modern-digitale „Arkanum“ bewusst befördern und über seine „Inkommensurabilität“ wachen. Die entscheidenden Algorithmen gehören zum wichtigsten Kapital der digitalen Welt. Darum ist die Verfügungsmacht darüber eben auch – eine Machtfrage. Darauf hinzuweisen wird zu Recht Evgeny Morozov nicht müde. Das heißt, die Frage nach der Bedeutung und den Auswirkungen moderner Systemtheorien inklusive Prädiktion, reflexive Selbststeuerung auf der Metaebene („Kybernetik 2“) und der Konstruktion digitaler Real-Szenarien (die Möglichkeiten durch Wahrscheinlichkeiten ersetzen) ist nicht nur auf der epistemologischen Ebene zu verhandeln, sondern zugleich auf der ethisch-politischen. Das nur neugierig distanzierte Denken reicht nicht, wenn es um Macht, und sei es um die Deutungsmacht geht.

„Ideologiefreie Sachzwänge“ waren schon zur Zeit der Erfindung dieser Begriffe letztlich gesellschaftliche Streitbegriffe um Deutungsmacht und Erkenntniszweck. Die heutigen Fragen nach der Möglichkeit und Gültigkeit systemimmanenter, dynamisch-regulativer Wissens- und Handlungstheorien darf von der praktischen Frage nach Nutzen und Zweck (z. B. Kapital, Kontrolle) nicht mehr gelöst werden. Nicht erst seit dem Streit um die Kernenergie oder die Klimaveränderung ist es offensichtlich, dass das Denken (und damit Philosophie und Ethik) sich nicht in abstrakten Theorieentwürfen und ansonsten distanziertem Danebenstehen erschöpfen darf, sondern nach wie vor die Aufgabe der Kritik und der Forderung nach Offenlegung digital-technokratischer Machtstrukturen hat. Ohne dies bleibt der Traum von einer digitalen Wissens-Allmende eine blanke Illusion. Oder mit Paul Boghossian: „Warum diese Angst vor der Wahrheit?“