Nov 132015
 

Dinge entstehen. Gegenstände und Verhältnisse, Personen und Sachen, Beziehungen und Systeme, Gedanken und Vorstellungen, alles entsteht – und vergeht (würde der Dichter hinzu fügen). Mit dem Vergehen ist das so eine Sache, darüber wissen wir so wenig. Die Wissenschaft kümmert sich mehr um das Entstehen, also um die Ursachen und Wirkungen, die etwas begründen und zustande bringen. Dass etwas Entstandenes wieder aufhört zu bestehen, also vergeht, ist dann allenfalls als Wegfall der Ursachen oder als durch eine Störung verursacht zu beschreiben. Dass alles, was ist, verursacht und bewirkt ist, nennen wir das Prinzip der Kausalität. Alles hat einen Grund, eine Ursache, eine „causa“. Grund bezeichnet dabei die vernünftige Erkenntnis, Ursache die unmittelbar wirkende vorhergehende Sache, die wiederum verursacht ist, darum die Ur-Sache. Das Wechselspiel von Ursache und Wirkung, die wiederum zur Ursache neuer Wirkungen wird, bestimmt nach dieser Weltsicht die gesamte erkennbare Wirklichkeit. Die Wirklichkeit einer Sache zu erkennne, heißt genau, ihre Ursachen und Wirkungen zu bestimmen. Das naturalistische Weltbild hat mit der Perfektion der kausalistischen Welterkenntnis und Welterklärung in den vergangenen zwei Jahrhunderten einen beispiellosen Siegeszug angetreten. Nur durch die konsequente Anwendung  eines naturalistisch-materiellen Begriffs von Ursache und Wirkung und daraus folgend von kausaler Geschlossenheit der Wirklichkeit als ganzer sind die gewaltigen Erfolge und Ergebnisse der neuzeitlichen Wissenschaft und Technik möglich und verständlich geworden.

Das, was ist, wird somit als ein bestimmtes Ergebnis einer Kette von Ursachen verstanden. Genaue Aussagen über die Zukunft sind dann und insofern möglich, wenn alle Ursachen, die auf etwas einwirken, bekannt sind. Pierre-Simon Laplace hat dies Prinzip präzise formuliert; es wurde als Metapher vom „Laplaceschen Dämon“ bekannt:

„Wir müssen also den gegenwärtigen Zustand des Universums als Folge eines früheren Zustandes ansehen und als Ursache des Zustandes, der danach kommt. Eine Intelligenz, die in einem gegebenen Augenblick alle Kräfte kennt, mit denen die Welt begabt ist, und die gegenwärtige Lage der Gebilde, die sie zusammensetzen, und die überdies umfassend genug wäre, diese Kenntnisse der Analyse zu unterwerfen, würde in der gleichen Formel die Bewegungen der größten Himmelskörper und die des leichtesten Atoms einbegreifen. Nichts wäre für sie ungewiss, Zukunft und Vergangenheit lägen klar vor ihren Augen.“ (1814, zitiert nach Wikipedia)

Dass die Kenntnis aller möglichen Ursachen einer Tatsache in offenen Systemen unmöglich ist (volkstümlich veranschaulicht durch den Flügelschlag des Schmetterlings, der einen Sturm auslöst; den Sack Reis, der in China umfällt usw.), kann das Laplacesche Prinzip nicht widerlegen. Es gilt tatsächlich für alle Labor-Bedingungen und naturwissenschaftlichen Experimente: Die Versuchsanordnung (= geschlossenes System) soll nur exakt bestimmte Bedingungen als Ursachen zulassen und alle Nebenbedingungen (Störungen) möglichst ausschließen oder zumindest mit Hilfe von Durchschnittswerten heraus rechnen. Insofern ist das Kausalitätsprinzip das bestimmende Prinzip aller naturwissenschaftlich begründeten Forschung und Wissenschaft geworden.

Über das Entstehen wird also als Wirkungen infolge von Ursachen etwas ausgesagt. Nicht in gleicher Weise wird jedoch etwas über das Vergehen gesagt oder gewusst. Die Beendigung eines Zustandes aufgrund äußerer Störungen oder aufgrund des Wegfalls konstitutiver Bedingungen und wesentlicher Ursachen ist nicht dasselbe. Der Begriff Vergehen bezeichnet ein Geschehen, das etwas anderes ist als nur Deprivation, also das Fehlen von etwas. Das Sterben ist noch anders zu beschreiben und zu verstehen als nur als das Aufhören von etwas. Der Tod ist zwar das Ende des Lebens, aber das Sterben als Prozess eines Abnehmens und Vergehens hat noch „Aktiva“ in sich, die dann am Ende, im Tod, endgültig aufhören. Auch thermodynamisch ist wachsende Entropie durchaus ein aktiv zu verstehender und nicht bloß ein defizitärer Prozess. Die höchste Form der Entropie kann als Kulminationspunkt größtmöglicher Information verstanden werden (vgl. Carl Friedrich von Weizsäcker). Interpretiert man Leben als Entropie-Aufschub, so ist Sterben sich wieder durchsetzende Entropie: Auch ‚Abnehmen‘ hat seine Ursachen, die aber umgekehrt zum Prozess des Entstehens verlaufen. Bei biologischen Systemen ist der programmierte Zelltod (Apoptose) konstitutiv. Was aber führt zum Entstehen, was zum Vergehen? Diese Frage berührt nicht nur Lebewesen, sondern ebenso bloße Materie: Was bringt die Sonne zum Erglühen und Verglühen?

Kausalität als solche hat noch keine Richtung. Sie konstruiert nur eine Verkettung von Dingen und Ereignissen in der Abfolge von Ursachen und Wirkungen. Eine Richtung kommt erst durch den Gedanken der unumkehrbaren Zeit und der Evolution hinzu. Der Evolutionsgedanke ist geradezu die Verknüpfung von Kausalität mit der gerichteten Zeit. Nun werden auch kausal verknüpfte Dinge und Sachverhalte in einer zeitlich nach „vorne“ offenen Abfolge angeordnet. Nur im Rückblick ergibt sich ein verstehbarer Zusammenhang, der als Entwicklung beschrieben werden kann. Auch diese gilt nicht nur für biologische Gegebenheiten, sondern ebenso für kosmologische Prozesse. Der Evolutionsgedanke ist zum vielleicht mächtigsten Werkzeug des Verstehens in den vergangenen hundert Jahren geworden. Der Kosmos und das Leben entwickeln sich nach allgemein gültigen Naturgesetzen von einem Keim (Urknall, Urzelle) zu hoch komplexen energetisch-materiellen bzw. bio-chemischen Zuständen, die in sich als dynamische Systeme unterschiedlicher Art beschreibbar sind. In der Biologie bestimmen Variation und Selektion den Fortgang der Entwicklung, in der Kosmologie sind es letztlich die Gesetze der Thermodynamik, welche die Richtung vorgeben. Dasjenige, was als Naturgesetz erkannt ist, liefert gewissermaßen die Regeln, nach denen kausal verknüpfte Entwicklung hier wie dort verläuft. Äußere Einflüsse und Zufälle (kontingent: nicht notwendig, aber möglich) bestimmen dabei die Entscheidungspunkte, ab denen eine Entwicklung so oder anders verlaufen kann. Ist Variabilität so etwas wie der bunte und vielfältige Bio-Baukasten der Natur, so bestimmt Selektion die konkrete Auswahl in einer gegebenen Situation. In der Kosmologie muss man dagegen von Wechselwirkungen, Überlagerungen und Potentialen sprechen, welche die (makro-) physikalischen Prozesse beeinflussen. Rückwärts gesehen ist jede Entwicklung kausal mit einem vorhergehenden Zustand verknüpft und also nachvollziehbar, sobald man alle Entwicklungsstufen kennt. Spannend sind dann die kontingenten Ereignisse, die eine Entwicklung bestimmen und in eine neue Richtung lenken. Weiterer Hypothesen bedarf es nicht, um Entwicklungen naturalistisch zu verstehen. Schon der erwähnte Simon-Pierre Laplace erklärt auf die Frage nach Gott: „Eine solche Hypothese brauche ich nicht.“

***

KARL THYLMANN, Five Woodcuts to Goethe's Urworte Orphisch 1912

KARL THYLMANN, Five Woodcuts to Goethe’s Urworte Orphisch 1912

Aber ist die Geschlossenheit kausaler Verknüpfungen in einer evolutionären Abfolge, die, was die Zukunft angeht, letztlich vom Zufall bestimmt ist, wirklich überzeugend? Auch der Zufall kann immerhin noch deterministisch verstanden werden, das „Zufallsprinzip“ hat sehr unterschiedliche Aspekte. Kausale Nichterklärbarkeit muss sowohl von Unberechenbarkeit wie von Unvorhersagbarkeit begrifflich abgegrenzt werden. Andererseits rechnen Vertreter der Quantenphysik (z.B. Nicolas Gisin, Der unbegreifliche Zufall) durchaus mit dem „echten“ Zufall (Nichtvorhersagbarkeit) in einer nicht-deterministischen Welt der Quanten. Wie offen ist also die Zukunft und wie zufällig? Reichen zum Begreifen der Wirklichkeit kausale Verknüpfungen in einer evolutionär durch Variation und Selektion bestimmten biologischen Welt aus? Man darf durchaus so fragen, denn auch Theorien wie die Evolutionstheorie, das Kausalitätsprinzip, die deterministischen Naturgesetze beruhen auf Annahmen und Voraussetzungen, die nicht weiter ableitbar, also „axiomatisch“ sind. Diese Voraussetzungen sollen möglichst überzeugend gewählt und vernünftig nachvollziehbar sein, um zu positiven, konsistenten Ergebnissen zu gelangen. Darum noch einmal: Ist das bisherige naturwissenschaftlich begründete kausal geschlossene Weltbild überzeugend?

Der Gedanke der Entelechie kann etwas in die Diskussion einbringen, das im alltäglichen Denken und in den heutigen wissenschaftlichen Kategorien weitgehend in Vergessenheit geraten ist. Es ist zunächst die einfache Idee, dass der Wirk-Ursache auch eine Zweck-Ursache entsprechen könnte. Anders gesagt: Die Frage, worauf hin etwas geschieht, könnte ebenso erhellend und vernünftig sein wie die Frage danach, wodurch verursacht etwas geschieht. Die philosophische Verunglimpfung dieses teleologischen Gedankens („Es regnet, weil die Wiese nass werden soll – haha!“) sollte nicht davon abhalten, ihn metaphysisch erneut – und neu zu denken. Es geht um das Potential eines teleologischen Denkens, darum, geeignete Denkformen und Begriffe für eine immanente Teleologie zu finden, die neu gewonnen und weiter entwickelt werden müssen. Die Philosophiegeschichte stellt dafür zwar einiges bereit, an das man anknüpfen kann, aber das reicht gewiss nicht aus. Dennoch ist die Idee der Entelechie ein sehr spannender Gedanke. Aristoteles hat ihn gedacht in seiner Metaphysik im Zusammenhang von Akt und Potenz, Form und Substanz. Sein Gedanke spiegelt sich in Goethes „Urworte. Orphisch“: „geprägte Form, die lebend sich entwickelt“. Eine diesbezügliche Darstellung der Metaphysik des Aristoteles wäre ein eigenes, lohnendes Thema. Hier sei aber nur in einer ersten Annäherung skizziert, was mich an diesen Gedanken fasziniert.

Der aristotelische Form-Begriff wäre heute vielleicht am besten mit Struktur oder sogar System zu übersetzen, je nach Zusammenhang. Im Unterschied zur Substanz, modern gesprochen im Unterschied zum Ausgang vom Subjekt und vom Einzelding, kann der Gedanke der Form als dasjenige verstanden werden, dass etwas von vornherein nur im Zusammenhang mit anderem, nur innerhalb einer Struktur, nur aufgrund der Konstitutionsbedingungen eines Systems, womöglich sozial bestimmt innerhalb eines autopoietischen Systems (Luhmann), verstanden werden kann. Dieser Denkansatz (z.B. Maturana, Varela, Luhmann, siehe Autopoiesis) ist über den Ausgangspunkt bei der „Substanz“ (dem Subjekt, dem Individuum, dem Einzelding) hinaus gegangen und ordnet das konkrete Einzelne gewissermaßen als nachrangig innerhalb der „Form“, d.h. der konstitutiven Systembeziehungen oder der Verflechtung innerhalb einer bestimmten Struktur bzw. eines Netzwerks (nodes, hubs) ein. In diesem Sinne bringt erst die „Form“ zum Vorschein, was der Gehalt, die Funktion, das Potential (idealistisch „das Wesen“) eines Etwas ist, das sich nur dem Zusammenhang des Systems, anders gesagt den strukturellen Konstitutionsbedingungen verdankt. Warum sollen solche Systeme und Strukturen, Netzwerke und Überlagerungen nur innerhalb geschlossener Kausalität denkbar sein? Vielleicht enthält das strukturierte System mit seinen Rand- und Konstitutionsbedingungen, mit seinen Verschränkungen und Überlagerungen, darum auch mit seinen Ambiguitäten und Bifurkationen selbst etwas teleologisches, also eine Art Ziel, das der Struktur inhärent ist. Hier greift kein „Geist“ von außen ein, sondern jenseits der Schranke geschlossener Kausalität öffnen sich Möglichkeiten, dass sich systemimmanente Tendenzen und Neigungen (bias) eben nicht zu jeder beliebigen, sondern zu ganz bestimmten neuen Formen weiter entwickeln. So hatten die Quantenfluktuationen unmittelbar nach dem „Urknall“ einen seltsamen Hang (Symmetriebrechung) zu einem Überwiegen der Materie vor der Antimaterie, so dass allein die Materie vorherrschend wurde.  In der biologischen Evolution finden sich viele Beispiele dafür, dass, metaphorisch gesprochen, ‚die Natur bestimmte Entwicklungen bevorzugt‘, sprich dass sich bestimmte biologische Formen (z.B. Auge) mehrfach und mit fast identischem Ergebnis heraus bildeten. Dieses sind nur Hinweise darauf, dass sich ein teleologisches Denkmodell durchaus anbieten würde, um natürliche Phänomene besser, das heißt angemessener im Blick auf die in ihnen selbst liegenden Potentiale und Wirkmöglichkeiten (wem der Begriff Zweck-Ursache zu sperrig ist) zu sehen, die zur Verwirklichung kommen / drängen? Genau darum geht es: Ob sich in der vorhandenen Wirklichkeit statt zufälliger Entwicklungen und kontingenter Entscheidungen auch eine strukturelle Zielstrebigkeit finden und denken ließe, die eben eine bestimmte Entwicklung bevorzugt oder als sachlich, d.h. der ‚Form‘ angemessenes Potential umsetzen kann. Der Begriff der Entelechie betont die Immanenz einer solchen Zielführung: Die „Form“ trägt die Gestalt der Verwirklichungen fortwährend in sich und lässt das konkrete Einzelne als eine verwirklichte Möglichkeit an der Tendenz, dem Gefälle, der Zielrichtung des gesamten Systems / der Struktur / des Netzwerkes teilhaben. Die Autopoiesis muss nicht ziellos und rekursiv gedacht werden, sondern kann durchaus auch zielgerichtet und tendenziös verstanden werden. Das Wort „Ziel“ sollte dabei mit aller Vorsicht gebraucht werden, denn es suggeriert ein klar bestimmtes ‚Endprodukt‘, wohingegen das ‚telos‘ der Entelechie selbst noch einmal als offen, als bestenfalls erkennbare Tendenz begriffen werden sollte.

Diese Tendenz aber ist mehr und anderes als Zufall, als deterministisch bestimmt und kausal begrenzt. Es kann das durchaus auch sein, aber die Möglichkeiten, die Potentiale gehen darüber hinaus. Nur an den Kipppunkten kann es deutlich werden, wo statt Zufall eine bestimmte Tendenz, eine Orientierung am Telos, wirksam und sichtbar wird. Es ist das Telos, das dem System usw. selber eigen ist, das darin nur seine Möglichkeiten realisiert und in eine bestimmte Richtung weiter entwickelt. Eigentlich wird auch die Evolution des Lebens so viel besser verständlich, weil Variation und Selektion geradezu Paradebeispiele sein könnten dafür, wie sich Tendenzen in Alternativen und Ambiguitäten durchsetzen, als zielgerichtete Selbstorganisation der ‚Form‘ ihre ‚Substanz‘ geben. „Entstehen und Vergehen“ wird unter teleologischen Gesichtspunkten im Zusammenhang verständlich: Apoptose als gezielte Programmierung, Chancen auf systemische Erneuerung, Ermöglichung alternativer Systeme, Rekombination globaler Systeme und Strukturen usw. Zum Beispiel das nahezu vollständige Erlöschen des Lebens auf der Erde vor 485 Mio Jahren („Eisball-Erde“) und weitere nachgewiesene Massensterben während der Erdgeschichte sind dann nicht nur als deterministischer Unfall zu verstehen.  Ich finde es überraschend, wie sehr sich der Gedanke der Entelechie als anschlussfähig heraus stellt hinsichtlich heutiger philosophischer, kosmologischer, evolutionsbiologicher, systemtheoretischer und netzwerkorientierter Denkmodelle. Es scheint sich in jedem Falle zu lohnen, den Begriffen der Teleologie und Entelechie weiter nach zu spüren, um die Sache, die in diesen alten Begriffen enthalten ist, neu zu fassen und sinnvoll zum Leuchten zu bringen. Es wird ein längerer Weg sein, denn er schließt ein, einige Dogmen der bisherigen materialistisch-kausalistischen Weltanschauung über Bord zu werfen. Die Zeit könnte dafür reif sein.

Aug 302015
 

[Philosophie, Metaphysik]

„Warum ist überhaupt etwas und nicht vielmehr nichts?“ Diese Frage formulierte Gottfried Wilhelm Leibniz 1714 in seiner Schrift „Die Vernunftprinzipien der Natur und der Gnade“. Schon früher hatte Leibniz den altbekannten Satz aufgegriffen, dass nichts ohne Grund geschieht (Aristoteles, Cicero), und erkannte in ihm das Grundprinzip rationalen Denkens („Nichts geschieht, ohne dass es eine Ursache oder wenigstens einen bestimmenden Grund gibt“). Wurde der Satz vom zureichenden Grund als Kausalitätsprinzip zur Basis naturwissenschaftlichen Denkens und Forschens, so ist die umfassende Frage nach dem Woher der Existenz zwar ebenso alt, aber zugleich eine Art Vexierfrage der Philosophie. Besonders durch Martin Heidegger wurde sie berühmt in dieser Form: „Warum ist überhaupt Seiendes und nicht vielmehr nichts?“ (Was ist Metaphysik, 1929). Jean Paul Sartre hat in „Das Sein und das Nichts“ (L’Être et le Néant. Essai d’ontologie phénoménologique, 1943) erneut die Frage nach Grund und Sinn der Existenz gestellt und im Laufe seiner existentialistischen Philosophie auf seine Weise zu beantworten gesucht. Dagegen hält die (angelsächsiche) Analytische Philosophie dieses für eine typische Scheinfrage der allseits kritisierten Metaphysik, weil die Wirklichkeit durch mathematische, (sprach-)logische und naturwissenschaftliche Beschreibungen hinreichend genau erfasst und erklärt werden könne. In der aktuellen akademischen Philosophie zumindest des deutschsprachigen Raumes gibt es eine große Menge an interessanten Themen und Fragestellungen, die aber mehr Präzision und Abgrenzung bevorzugen gegenüber einer solch allgemein formulierten Frage, warum die Welt existiert. Weil sie so grundsätzlich ist, kann sie leicht zum Totschlagargument werden, wo es dann mehr um Glauben als um Wissen geht. Andererseits traut sich derzeit Markus Gabriel mit seinem Vorschlag eines „Neutralen Realismus“ wieder an die Frage nach „der Welt“ überhaupt heran.

Es ist ein Verdienst des US-amerikanischen Journalisten (Feuilleton der New York Times) und Schriftstellers Jim Holt, diese alte Frage aus dem Keller der Philosophiegeschichte geholt zu haben und sie in den Mittelpunkt einer Arbeit zu stellen, die als Buch den Titel trägt: „Gibt es Alles oder Nichts? Eine philosophische Detektivgeschichte“, 2014 (englisch Why Does the World Exist? An Existential Detective Story, 2012). Das Besondere der Herangehensweise von Holt ist es, diese Grundsatzfrage nicht nur als philosophisch-theoretische Frage zu begreifen, sondern als eine wirkliche existenzielle Grundfrage aufzunehmen („Begrifflich steht die Frage „Warum ist die Welt?“ mit der Frage „Warum bin ich?“ in engem Zusammenhang.“ S. 28). Um der Frage auf den Grund zu gehen, spannt er einen weiten Bogen, jedenfalls weit über die Philosophie hinaus, und befragt Physiker, Evolutionsbiologen, Psychologen, Theologen, Mathematiker und natürlich Philosophen unterschiedlichster Prägung. Dass er dabei immer wieder Fäden aus der Philosophiegeschichte aufnimmt – von Parmenides über Platon, Aristoteles, bis zu Spinoza, Leibniz, Kant usw. – weist auf den profunden Hintergrund seiner Unternehmung hin. Die wiederholt eingeschobenen „Zwischenspiele“ bringen den persönlichen Bezug hinein, der für Holts Befragungen und Interviews wichtig war. Gerade diese Einschübe machen die Lektüre lebendig und nie abgehoben oder langweilig.

Krebsnebel - Hubble Space Telescope - Wikimedia

Krebsnebel – Hubble Space Telescope – Wikimedia

Holt skizziert die Ergründung des Nichts bei Nietzsche, Schopenhauer, Heidegger und Sartre, konfrontiert mit der rationalistischen Position, die die Frage nach dem Grund des Seins als Scheinfrage abweist, hält die theistische Position dagegen, dass der letzte Verursacher eben doch Gott genannt werden müsse, was sich in der kosmologischen Erkenntnis als Theorie vom Urknall wiederfinde usw. Holt ist dabei nicht zimperlich und setzt sich mit seinen Gesprächspartnern und in seinen anschließenden Überlegungen mit den unterschiedlichsten Positionen auseinander und zieht immer wieder das vorläufige Fazit: Möglicherweise ist es so – vielleicht aber auch nicht. Spannend sind die Kapitel, in denen er sich recht ausführlich mit dem mathematischen Unendlichkeitstheorem auseinandersetzt, um von dort aus die unterschiedlich mächtigen Unendlichkeiten zu erläutern, die Cantor – ja was nun: eingeführt oder entdeckt hat. Das ist sogleich die nächste Überlegung, die bei Holt wiederkehrt: Sind unsere Zahlen, Begriffe und Naturgesetze eine objektive Gegebenheit, gewissermaßen Ideen in einem platonischen Himmel, oder sind es Strukturen, die der forschende Geist dem Chaos der Natur aufdrückt? Wie verhalten sich Materie – Geist – Dualismus und materialistischer oder idealistischer Monismus zu der Kernfrage, was das Sein begründet? Er sucht sehr ausführlich bei Teilchenphysikern und Kosmologen Auskunft zu erhalten (Nozick, Vilenkin, Weinberg), wie dort im heutigen Standardmodell die Entstehung des Kosmos in einer Singularität („Urknall“) aus Quantenfluktuationen gedacht wird – und ob die Frage nach einem Vorher überhaupt erlaubt oder nötig ist (Stringtheorie). Dann tauchen die Multiversen auf, die unter anderem dazu dienen, die sehr erstaunliche und sonst schwer zu erklärende Tatsache zu begründen, warum es in unserem Universum eine solche „Feinabstimmung“ der Naturkonstanten gibt, die überhaupt erst die Voraussetzung dafür liefert, dass sich Leben und Intelligenz mit Bewusstsein entwickeln konnten – das anthropische Prinzip versucht dies zu beantworten. Aber damit nicht genug, die quantentheoretische Unbestimmtheit und Unschärfe führt zu einer Antwort, die von unendlich vielen Paralleluniversen ausgeht, um die quantenmechanisch offenen Möglichkeiten („Schrödingers Katze“) abzubilden. Solche Spekulationen werden immerhin von namhaften Physikern angestellt, die den vorhandenen Kräften und Feldern auf den Grund gehen wollen und sich auf dem Weg zu einer „GUT“ = „Grand Unifying Theory“ sehen, die neben den drei elektromagnetischen Kräften auch die Gravitation einbeziehen könnte. Wäre man dann näher dran an der Entdeckung der letzten Geheimnisse des Seins? Vielleicht ja, schreibt Holt – vielleicht aber auch ganz und gar nicht. Denn nun wendet er sich den religionsphilosophischen Entwürfen der Gegenwart zu, wie sie von Swinburne und Plantinga lebhaft vertreten werden. Plantinga schafft es immerhin, den einst von Kant destruierten ontologischen Gottesbeweis modallogisch wieder salonfähig zu machen, und für Swinburne, der auf die notwendige Existenz des unendlich Guten = Gott setzt, ist der Gottesgedanke ohnehin die „einfachste“ Lösung des Existenzproblems. Überhaupt das Prinzip der Einfachheit, das berühmte Ockham’sche Messer, entpuppt sich als wirksames Instrument, wenn es wie bei Parfit mit der Idee von „Selektoren“ verbunden wird, die dem Zufall gewissermaßen richtungsweisend auf die Sprünge helfen und bestimmte Möglichkeiten (Sein) gegenüber anderen (Nichts) präferieren. Daraus konstruiert am Ende Holt selbst einen „Beweis“ für die naheliegendste Wahrscheinlichkeit einer eben durchschnittlich (Gauss) zwischen Sein und Nichts, Gut und Böse aufgehängten Wirklichkeit, wie sie in der tatsächlich existierenden Welt vorliegt. Aber ist das wirklich so, möchte man gleich fragen, wie es Holt nach der Prüfung jeder neuen Position oder Antwort auf die Existenzfrage tut? Nicht nur ein Dawkins erhebt da energisch Einspruch. Ist das Böse nur eine Realisierung von Möglichkeiten in Gauss’scher Verteilung oder doch das ursprünglich von Holt sehr hoch geschätzte Argument des Schweizer Theologen Barth, das Böse existiere nur als das Wider-Göttliche? Viel Sympathie zeigt Holt für den „Blick vom Nirgendwo“, den Thomas Nagel in seinem gleichnamigen Buch ausführt, in dem er versucht, den eigentlich unmöglichen Standpunkt „vom Nirgendwo“ zwischen objektiver und subjektiver Blickrichtung einzukreisen. Sind tatsächlich mehr oder anders gesicherte Aussagen möglich, wenn sie sich nicht in Spekulationen und Hypothesen mit zweifelhafter Überzeugungskraft verlieren sollen? Davon hat Holt im Verlauf seiner ausgiebigen detektivischen Suche nun wirklich einiges dargestellt. Eigentlich, und das macht etwas Faszinierendes des Buches aus, kann Holt auch sehr alte, ‚klassische‘ Positionen eines Platon oder Aristoteles ebenso gewichtig darstellen und würdigen, als wären es aktuelle Positionen gegenwärtiger Denker. Bei der Suche nach Antworten auf die Frage „Warum gibt es überhaupt etwas und nicht vielmehr nichts?“ gibt es keine „überholten“ Anworten und Modelle. Insofern liest man den Gedankengang, der in der Tat auch einen Weg nachzeichnet (über Paris, London, Oxford, New York usw.), mit großem Interesse und viel Vergnügen – und auch Nachdenklichkeit über das Nichts, das als Möglichkeit am Ende des eigenen Lebens steht.

Es ist fast schade, dass Thomas Nagels Buch „Geist und Kosmos“, engl. „Mind and Cosmos“, 2012, im selben Jahr erschienen ist wie Holts Buch: Er konnte es also noch nicht kennen, wiewohl er in einem Zwischenspiel beschreibt, Nagel beim Einkaufen in Greenwich Village getroffen zu haben. Nagel geht der Frage nach, „Warum die materialistische neodarwinistische Konzeption der Natur so gut wie sicher falsch ist.“ (Untertitel; siehe früheren Blog-Beitrag). Er erwägt Alternativen wie den Panpsychismus, kann sich damit aber als wenig überzeugend nicht recht anfreunden. Letztlich lässt Nagel die Alternative offen, weist aber darauf hin, dass wahrscheinlich eine intentionale, teleologische Erklärung weiter führen würde. Eine entsprechende Theorie sieht Nagel aber auch noch nicht einmal am Horizont. Immerhin – Nagel wagt es, an dem neuzeitlichen Tabu zu rütteln, dass Kausalität (rückwärts) und Zufall (vorwärts) die einzigen Bestimmungsweisen sind, welche die Evolution der materiellen und natürlichen Welt einschließlich des Auftretens von Bewusstsein steuern. Zweimal nennt auch Holt die teleologische Möglichkeit, einmal beim Referat der aristotelischen Definition von Ursachen – und da gibt es neben der Wirkursache auch die Zweckursache -, zum andern im Zusammenhang des ethischen „Axiarchismus“ (Leslie). Er schreibt: „Gründe ohne Akteure sind ohnmächtig. Wer etwas anderes behauptet, liebäugelt mit dem wissenschaftlich in Verruf geratenen aristotelischen Begriff der „letzten Ursache“ oder der „immanenten Teleologie“ – das heißt, es regnet im Frühling, weil es gut für die Ernte ist.“ (283). Zweifellos ist eine „ursächliche“ Teleologie wissenschaftlich so lange obsolet, wie das Dogma des Kausal- und des Zufallsprinzip herrscht. Insofern rührt Nagel eben an ein heute noch bestehendes Tabu,-  und auch Holt verfolgt diesen Gedanken nicht weiter: Sein Regen-Beispiel soll dieses Denkmodell hinreichend ad absurdum führen. Dies ist nicht zuletzt deswegen schade, weil Nagel eine Reihe guter Gründe anführt, die zu einem solchen teleologischen Ausweg führen könnten.

Für mich gewinnt die ursprünglich aristotelische Denkfigur der Zweck-Ursache zunehmend an Plausibilität. Es ist hier nicht der Ort, dies ausführlicher und gerade auch in Auseinandersetzung mit Nagel weiter zu verfolgen. Parfits Selektoren weisen ebenfalls in diese Richtung. Vielleicht muss man dem Kind tatsächlich einen anderen Namen und auch eine genauere Bestimmung geben. In der Theorie dynamischer Systeme („Chaostheorie“) spricht man von Attraktoren, sogar besonderen „Seltsamen Attraktoren“. Attraktoren sind keine Zielbestimmung, aber eine bestimmte Eingrenzung des Phasenraums, die zu wiederum bestimmten Strukturen führt. Über diese mathematische Theorie hinaus wäre eine teleologische philosophische Theorie zu entwerfen und begrifflich neu zu fassen im Blick auf Kosmos, Evolution, Materie, Bewusstsein / Geist. Auch die berühmte kosmologische Feinabstimmung (Naturkonstanten) könnte ein anderes Denkmodell nahe legen als das der unendlich vielen Multiversen. Es wäre die Aufgabe, in die kosmische und natürliche Evolution den Gedanken der Zielgerichtetheit einzubringen, ohne dass dieses Ziel konkret bekannt sein oder gar theistisch vereinnahmt werden müsste. Sofern es bisher offen bleiben muss, wie der „Anfang der Dinge“ zu denken ist, ob der Begriff der Singularität oder der quantentheoretisch beschriebenen Dichteschwankungen wirklich dazu helfen, Gründe für das Etwas anstelle des Nichts zu finden, ebenso wenig dürfte auch die attraktive, selektive Zielbeschreibung als eine Letztursache im streng aristotelischen Sinne eingeführt werden. Man muss sich da sehr viel vorsichtiger begrifflich heran tasten. Ich bin mir allerdings sicher, dass der Gewinn eines solchen teleologisch ausgeweiteten Denkmodells und der dazu nötigen begrifflichen Arbeit enorm sein könnte. Es gibt keinen Grund, Teleologie weiterhin im wissenschaftlichen Verruf zu belassen, umgekehrt aber mit Thomas Nagel manche guten Gründe dafür, mit ihr erneut philosophisch und auch kosmologisch-evolutionär zu arbeiten.

Zweifelsohne ist Jim Holts Buch einer detektivischen Entdeckungseise auf den Spuren der Leibnizschen Frage „Warum gibt es überhaupt etwas und nicht vielmehr nichts?“ eine sehr spannende Lektüre, die reiche Informationen und Überblicke bietet und zum Nach- und Weiterdenken anregt. Es ist keine akademische Arbeit einer wissenschaftlichen Disziplin. Es ist im besten Sinne Feuilleton, jedenfalls weit mehr als „Populär-Philosophie“. Es ist eigentlich angesichts der hoch differenzierten Wissenschaften ein mutiger Versuch, anhand einer „einfachen“ Leitfrage die zahlreichen sehr unterschiedlichen Antworten zu suchen und zu prüfen, die auf die Grundfrage der menschlichen Existenz zurück führen: Warum bin ich? Warum gibt es, was es gibt? Mit diesem existentiellen Engagement ein solch weites Themenfeld aufzugreifen und verständlich abzuarbeiten, das ist Philosophie in bestem Sinne.

[Nachbemerkung: In den USA war das Buch Jim Holts ein Bestseller. Dazu hat es bei uns trotz einer sorgsamen Übersetzung leider nicht gereicht. Vielleicht ist der Bezugsrahmen eben doch eher angelsächsisch geprägt.]

Aug 072015
 

[Metaphysik]

Netz-Enthusiasten feiern die Fortschritte und die Zukunftsaussichten der Digitalisierung und Vernetzung. Technik-Optimismus könnte ein Thema philosophischer Ethik sein, es wäre zumal kein sehr neues – siehe Descartes‘ theoretische Unterscheidung von Mensch und Automat / Maschine („seelenlos“) und die berühmte „mechanische Ente“ des Jacques de Vaucanson. Alan Turing ist der moderne Urvater der Idee von selbstlernenden Maschinen, bei ihm zunächst als mathematisches Kalkül („Turing-Maschine“), aber auch durch den maschinellen Intelligenztest, den „Turing-Test„. Der Test als Mittel des Nachweises einer intelligenten Maschine ist ebenso oft zitiert wie kritisiert worden. Dennoch führt diese Debatte zu einem Thema, das in der Zukunftsforschung und KI-Forschung aktuell ist und durchaus als philosophisches Thema identifiziert werden könnte. Die zugespitzte Form dieser Debatte findet sich in der Diskussion über „Singularität„. Kritische Netzwissenschaftler halten sie zwar mit guten Gründen für einen Mythos (z.B. Jaron Lanier, The Myth of AI, 2011), dennoch halte ich diese Diskussion für relevant, weil sie als eine technizistische Form der Metaphysik auftritt. Sie kann sich dabei auf den „starken Realismus“ bzw. Naturalismus berufen, wie er in Teilen der Analytischen Philosophie vertreten wird, so zuerst von John Smart: Mentale Prozesse sind identisch mit physikalischen Prozessen. Zusammen mit dem Computationalismus bzw. Konnektionismus innerhalb der Stilrichtungen der Analytischen Philosophie (→ Fodor; → Dretske) ergeben sich theoretische Perspektiven, die wiederum von Informatikern und KI / AI – Forschern aufgegriffen werden. Am bekanntesten sind darunter Ray Kurzweil und Vernor Vinge (Einstieg über Wikipedia, dort weiterführende Literatur).

Das aktuell virulente Interesse an „technologischer Singularität“ ist bemerkenswert. Gemeint ist hier mit „Singularität“ der Punkt, ab dem technische Intelligenz sich selbständig konstruiert, perfektioniert, sich ihrer selbst bewusst wird und daraufhin der biologisch – humanen Intelligenz generell überlegen ist. Es geht tatsächlich um den Bereich jenseits der gegebenen Physik, im Wortsinn um Meta-Physik. Sie ist sowohl abstrakt mathematisch – algorithmisch gefasst als auch praktisch – spekulativ, sofern damit transhumane technische Existenzformen beschrieben werden, die dem Menschen und seiner Intelligenz schlagartig überlegen sein würden, so die Voraussage (vgl. Thomas Wagner, Der Vormarsch der Robokraten, 2015). „Letztlich geht es um die Gottwerdung des Menschen mittels Technologie.“ (ebd.) Noch mehr als um Metaphysik geht es wahrscheinlich sogar um Macht und um Religion, genauer um eine milleniäre Eschatologie, das heißt um eine kapitalistisch-technologische Endzeithoffnung. Genau als solche identifiziert Wagner die Theorie der technologischen Singularität: Es ist „die Leitidee einer neuartigen religiösen Bewegung“. Über die wirtschaftlichen, politischen und sozialen Implikationen dieser aggressiven Ideenwelt („disruption“) sowie über ihre wirtschaftlich – finanzielle Verzahnung mit dem Silicon Valley und die daraus resultierenden Gefahren eines antidemokratischen Größenwahns schreibt Wagner sehr Bedenkenswertes. Jaron Lanier *) positioniert sich mit dem Konzept einer „humanistischen Internet-Ökonomie“ strikt gegen die transhumanen „ultraintelligent“ Visionen derer vom Silicon Valley („seed-ai“; „strong artificial intelligence“). Insbesondere die Nähe vieler Netzaktivisten zu diesen technizistischen Ideen hierzulande wären noch eigens zu beleuchten. Hier soll es aber „nur“ um den philosophischen Aspekt gehen.

Moore's Law - Wikimedia

Moore’s Law – Wikimedia

Es ist doch schon erstaunlich, wie eine erklärtermaßen antimetaphysische Philosophie wie die Analytische Philosophie, die auf der Grundlage eines Naturalismus oder eines physikalischen Materialismus aufbaut, auf einmal technizistisch ins Gegenteil umschlägt und eine technologische Metaphysik im Gewande einer transhumanen Artificial Intelligence hervor bringt. Um Metaphysik (teleologisch) oder sogar um eine religiöse Reminiszenz (eschatologisch) handelt es sich zweifelsohne. Die „Singularität“, also der Umschlagspunkt in einen neuen, unvorhersehbaren Zustand der intelligenten Welt wird als zwangsläufig gedacht, der aus der exponentiellen Entwicklungskurve der Computertechniken und Algorithmen entsprechend zu „Moore’s Law“ folgt. Die einen sehen den Zeitpunkt in naher (Kurzweil), die anderen in noch etwas fernerer (Bostrom) Zukunft, die einen  sehnen sich den Zeitpunkt herbei wie das Paradies (Dyson), die anderen fürchten den Umschlag in die Herrschaft der Maschinen wie die Hölle. Gemeinsam ist die Unausweichlichkeit, mit der technische Intelligenz in eine techno-metaphysische und posthumane neue Welt übertritt. Die teleologische Komponente dieser Ideen wird darin sichtbar, dass die technologische Singularität nur eine neue Stufe der Evolution jenseits der biologischen Evolution darstellt, die damit überwunden wird und an ihr Ende kommt. Kurzweil spricht von der Gottähnlichkeit der allumfassenden Maschinenintelligenz, welche die Grenzen der Biologie überwindet. Zugleich wird von den Vertretern des Posthumanismus die „Erlösung vom Bösen“ erwartet, denn eine umfassende Intelligenz könne nur das Gute wollen.

Wenn wir diese Ideen oder technizistischen Hoffnungen als Metaphysik bezeichnen wollen (und nicht als quasi-religiöse Visionen), dann ist es schlechte Metaphysik. Schlechte Metaphysik ist es, wenn grundlegende Fragen des Geistes, der Erkenntnis, des Bewusstseins, der Ethik – also alles dessen, was menschliches Dasein und philosophisches Nachdenken darüber ausmacht, ausgeblendet und in einer unglaublichen Vereinfachung auf technologische Allmachtsphantasien reduziert wird. Allmachtsphantasien können zeitweise Wirklichkeit werden, wie die Herrschaften der verschiedenen Dikatatoren dieser Welt gezeigt haben. Menschliche Fragen und Probleme gelöst wurden dadurch noch niemals, im Gegenteil. Es ist schlechte Metaphysik, einen algorithmischen Reduktionismus an die Stelle der Kreativität des menschlichen Geistes zu setzen, von dem immerhin die größten Firmen des Silicon Valley profitieren und – schwärmen (Steve Jobs). Es sollte einen befremden, wenn totalitäre Phantasien mit religiösen Vorstellungen verknüpft werden (ein altbewährtes Konzept) und daraus etwas hochtrabend, vielleicht sogar hochstaplerisch eine evolutionäre „Singularität“ konstruiert wird, die weder wissenschaftlich belegbar ist, noch philosophisch ernstzunehmenden Gehalt hat noch auch nur allgemein menschlich „vernünftig“ ist: Sie will ja gerade jeder „bloß“ humanen Vernunft widersprechen. Nicht einmal der Anspruch, hier handele es sich um etwas Denk-Würdiges, kann eingelöst werden. Die Anleihen bei der Analytischen Philosophie des Geistes sind doch allzu dürftig und oberflächlich. Die „Technologische Singularität“ ist gerade kein philosophisches Thema.

Vielmehr geht es dabei um das alte Lied der Macht. „Silicon Valley“ mit diversen Institutionen und ungeheurem Kapital hat sich hier eine selbstrechtfertigende Ideologie geschaffen, die zu nicht weniger dient als zur totalen Kontrolle von Mensch und Welt. Als „Wille zut Macht“ (Nietzsche) wäre diese Ideologie am ehesten zu fassen. Sie stellt den Legitimationsrahmen bereit, die Macht der Monopole in der digitalen Welt grenzenlos auszuweiten und zu stabilisieren. Gegen diese totalitären Ideologien, gegen den techno-eschatologischen Traum von der „Singularität“ ist weniger philosophisch als politisch zu streiten, und das mit Entschiedenheit. Das kann dann auch manche bei Netzaktivisten beliebte Ideen betreffen. Sie wissen schon genau, was sie tun. Philosophie aber bleibt bei ihrem ureigenen Thema, wenn sie gegen ideologische Inanspruchnahmen und Machtkalküle protestiert im Namen und kraft der Vernunft des Menschen. Es geht um die Humanisierung der digitalen Welt und um die Entideologisierung des Digitalen – um die unausrottbare Bedeutung des nicht reduzierbaren Humanum.

Anmerkung

*) Jaron Lanier, Wem gehört die Zukunft?, 2014; en 2013; ders., Für einen neuen Humanismus. Wie wir der digitalen Entrechtung entkommen, 2014