Jul 172019
 

Einführung in die Technikwissenschaften [Langtext]

I. Einführung

Technik und technische Produkte umgeben uns ständig, wir nutzen sie fortwährend und selbstverständlich. Uns stößt nur dann etwas Technisches auf, wenn es nicht funktioniert, wie es soll. Funktionierende Technik ist im Alltag ein transparenter Gegenstand oder Vorgang, dem an sich selbst wenig Beachtung geschenkt wird. Wichtig ist das Handeln, die Praktik mit einem bestimmten Ziel, die sich eines technischen Mittels, des Lichtschalters zum Beispiel, bedient. Schon diese wenigen Sätze sind recht voraussetzungsvoll. Fangen wir darum mit den Begriffen an.

Wir sprechen von Technik, wenn wir das Funktionieren eines Alltagsgegenstandes meinen, z.B. von der Technik des Kühlschranks reden. Wir können ‚Technik‘ aber auch umfassend gebrauchen, wie in der Zusammensetzung ‚Welt der Technik‘. Der Duden beschreibt fünf Bedeutungsweisen des Begriffes „Technik“:

  1. Gesamtheit der Maßnahmen, Einrichtungen und Verfahren, die dazu dienen, die Erkenntnisse der Naturwissenschaften für den Menschen praktisch nutzbar zu machen
    BEISPIELE
    1. die moderne Technik
    2. ein Wunder der Technik
    3. auf dem neuesten Stand der Technik
  2. besondere, in bestimmter Weise festgelegte Art, Methode des Vorgehens, der Ausführung von etwas
    BEISPIELE
    • die virtuose, brillante, saubere Technik der Pianistin
    • eine Technik erlernen, beherrschen
  3. technische Ausrüstung, Einrichtung für die Produktion
    BEISPIELE
    • eine Werkstatt mit modernster Technik
    • unsere Technik ist veraltet
  4. technische Beschaffenheit eines Geräts, einer Maschine o. Ä.
    BEISPIEL
    • mit der Technik einer Maschine vertraut sein
  5. Stab von Technikern
    BEISPIEL
    • unsere Technik hat ein Problem

Davon zu unterscheiden ist der Begriff ‚Technologie‘, der zunehmend gleichbedeutend mit dem allgemeinen Verständnis von ‚Technik‘ gebraucht wird. Der Duden definiert „Technologie“ so:

  1. Wissenschaft von der Umwandlung von Roh- und Werkstoffen in fertige Produkte und Gebrauchsartikel, indem naturwissenschaftliche und technische Erkenntnisse angewendet werden
  2. Gesamtheit der zur Gewinnung oder Bearbeitung von Stoffen nötigen Prozesse und Arbeitsgänge; Produktionstechnik
    BEISPIEL
    • moderne, neue Technologien einführen, anwenden

Da haben wir nun die Wissenschaft (episteme) mit dabei, die bei Aristoteles von der Herstellung (techne) unterschieden wird, aber als Methodik zur herstellenden Tätigkeit insgesamt (poiesis) hinzutritt. „Jede Kunst ist ein System von festen Regeln, die auf den Einzelfall angewendet werden müssen. Sie hat zwei Seiten: die theoretische des auf das Erkennen der Ursachen beruhenden, geregelten Verfahrens (μέϑοδος, méthodos) und die praktische, anwendungsbezogene einer entsprechenden Kompetenz oder Fähigkeit (δύναμς, dýnamis), die der hat, welcher das Werk … hervorbringt.“ (Franz-Hubert Robling, zit nach Wikipedia). Über das Verhältnis zwischen der Praxis der Herstellung und den dazu erforderlichen Kenntnissen und Fähigkeiten, also zwischen episteme und techne, denkt die Technikphilosophie nach, genauer die Philosophie der Technikwissenschaften (Theory of Design), die einen Bereich der Wissenschaftsphilosophie darstellt. Auch wenn Technikphilosophie im Wissenschaftsbetrieb hierzulande bislang nur eine geringe Rolle spielt, ist sie keineswegs eine müßige Beschäftigung. Sie sucht die Hintergründe und Zusammenhänge eines so wichtigen Lebensbereiches wie den der ‚Technik‘ analytisch zu erhellen. Eigentlich müsste es eine Basiswissenschaft sein.

II. Die Problemstellung

An den niederländischen Universitäten ist das viel stärker der Fall, darum stammt das derzeitige Grundlagenwerk zum Thema Technikphilosophie auch von holländischen Wissenschaftlern: Anthonie Meijers, (ed.), Philosophy of Thechnology and Engineering Science, Handbook of the Philosophy of Science Vol. 9, Elsevier 2009. Anthonie Meijers lehrt an der Technischen Universität Eindhoven. Auf seiner Homepage findet sich das Motto: „Technical objects are also material things with social functions. I think it is essential that engineers understand this.“ Darauf werden wir noch zurückkommen. In seiner Einführung in den umfangreichen Sammelband schreibt er:

“Now, if there are no artifacts, then there are no
philosophical problems about artifacts.”
[Van Inwagen, 1990, p. 128]
Not so very long ago most philosophers of science maintained that the subjectmatter of this volume was uninteresting and most ontologists claimed it was nonexistent. It was thought to be uninteresting because technology was taken to be an applied science in which the application itself presented no new philosophical challenges. It was believed to be non-existent, because technological artifacts and systems did not live up to the criteria for being part of the ultimate inventory of the world. A combination of these two views leads to the rather fatal conclusion that the philosophy of technology and engineering sciences is boring stuff about non-existing entities! This volume shows how completely wrong that conclusion is.

a.a.O. S. 1

Damit ist zunächst die Situation beschrieben, dass herkömmlich der Technikphilosophie keine eigene Rolle zugewiesen wird, weil sie ‚irgendwie‘ zwischen den theoretischen Naturwissenschaften und der praktischen Anfertigung von Artefakten (Ingenieurwesen) steht, materiellen Dingen und Systemen also, deren Eigendynamik und Eigenwert damit übersehen wird. Denn Artefakten kommen von Anfang an soziale Funktionen zu, genau dies ist für sie wesentlich. Wie genau materielle Artefakte (Technik) und (soziale) Funktionen zusammenhängen, ist ein weites Feld der Erörterung.

… technology and engineering cannot be identified exclusively in terms of a body of systematic knowledge. After all they do not aim at knowledge for its own sake, but rather at the development and use of knowledge for practical purposes. Technology or engineering is primarily a practice which is knowledge-based. In this practice scientific knowledge, but also experience-based know-how, codes and standards, customer requirements, organizational, legal and economic constraints, physical circumstances, scarcity of resources, uncertainty and ignorance play an important role.

Carl Mitcham made a useful distinction between four modes of technology:
• technology as a set of artifacts or systems of artifacts;
• technology as a form of knowledge (for the design, production, maintenance and use of technological artifacts and systems);
• technology as a range of activities (designing, producing, maintaining and using artifacts); and
• technology as an expression of the will of its makers, designers and producers (volition).
This distinction shows in another way that the cognitive dimension of technology is important, but does not suffice to define technology.

a.a.O.. S. 3; 4

Ein anderes grundlegendes Werk zum Thema ist schon fünfzig Jahre alt und stammt von dem US-Nobelpreisträger (Ökonomie) Herbert Alexander Simon (1916 – 2001): The Sciences of the Artificial, 1969, 3. überarbeitete Auflage 1996, 4. Aufl. als re-print 2001. Der Text der dritten Auflage ist frei verfügbar. Nachdem Simon im ersten Kapitel „Understanding the Natural and Artificial Worlds“ den weiten Themenrahmen abgesteckt hat, befasst er sich in Kapitel 5 und 6 speziell mit „The Science of Design: Creating the Artificial“ und „Social Planning: Designing the Evolving Artifact“. Im Unterschied zur natürlichen Welt gibt es in der ‚künstlichen‘ Welt der Artefakte eine Reihe von Besonderheiten, die einem zunächst gar nicht auffallen, die aber genauer zu untersuchen sind. Seine Aufgabe beschreibt Simon so:

The kernel of the problem lies in the phrase „artificial science.“ The
previous chapters have, shown that a science of artificial phenomena is always in imminent danger of dissolving and vanishing. The peculiar properties of the artifact lie on the thin interface between the natural laws within it and the natural laws without. What can we say about it? What is there to study besides the boundary sciences – those that govern the means and the task environment?
The artificial world is centered precisely on this interface between the inner and outer environments; it is concerned with attaining goals by adapting the former to the latter. The proper study of those who are concerned with the artificial is the way in which that adaptation of means to environments is brought about – and central to that is the process of design itself.

a.a.O. S. 113

Als wesentliche Elemente einer Theory of Design fasst Simon folgende Punkte programmatisch für ein „Curriculum“ zusammen:

THE EVALUATION OF DESIGNS
1. Theory of evaluation: utility theory, statistical decision theory
2. Computational methods:
a. Algorithms for choosing optimal alternatives such as linear programming computations, control theory, dynamic programming
b. Algorithms and heuristics for choosing satisfactory alternatives
3. THE FORMAL LOGIC OF DESIGN: imperative and declarative logics
THE SEARCH FOR ALTERNATIVES
4. Heuristic search: factorization and means-ends analysis
5. Allocation of resources for search
6. THEORY OF STRUCTURE AND DESIGN ORGANIZATION: hierarchic systems
REPRESENTATION OF DESIGN PROBLEMS

a.a.O. S. 134

III. Einzelne Positionen

Folgende Problemkreise haben sich in der Diskussion über eine Theory of Design ergeben:

  • a) die Bestimmung der „richtigen“ Funktion (proper function)
  • b) die Bedeutung der Intention des Herstellers (belief of the maker)
  • c) das mögliche Auftreten von Emergenz bei komplexen Artefakten (ontological – epistemic; control-paradigm)
  • d) eine allgemeine Definition von Funktion und Design (intentional + non-intentional function)

zu a) Dass technische Artefakte Dinge für etwas sind, also einen Zweck oder eine bestimmte Funktion haben, scheint einfach auf der Hand zu liegen, aber welchen? Der Stuhl ist dazu gemacht, um darauf zu sitzen, – aber wenn ich ihn als Tritt benutze, um oben ans Regal zu kommen, – ist der Stuhl dann zur Leiter geworden, oder hat sich nur seine Funktion geändert? Schaut man näher bzw weiter hin, dann wird man kaum einen artifiziellen Gegenstand finden, der nicht irgendwie anders benutzt oder gebraucht werden kann, als es sein „ursprünglicher“ Zweck erkennen ließ. Aber was ist dann überhaupt der ursprüngliche Zweck, die „richtige“ Funktion? Ruth Millikan (1) und Beth Preston (2) haben dann sehr folgerichtig unterschieden zwischen „proper function“ und „system function“: proper function hat mehr etwas mit dem zugedachten Zweck eines Gegenstandes zu tun, verweist also auf seine Herkunftsgeschichte (kausal) ebenso wie auf die Intention seiner überwiegenden Nutzer. System function stellt den erweiterten Gebrauchsbereich dar, welche Funktion(en) ein Gegenstand innerhalb eines übergreifenden Systems tatsächlich hat. In einer Wohnung hat ein Stuhl sowohl die normale Aufgabe, Sitzgelegenheit zu sein, aber auch die, gelegentlich als Tritt zu dienen oder als Ablage für andere Gegenstände, usw. Das jeweilige Umfeld oder der Rahmen des Gebrauchs (System) bestimmt dann die konkrete Funktion. Preston weist darauf hin, dass proper function nur als Spezialfall einer immer umfassender gegebenen system function angesehen werden kann. Der proper use ergibt sich aus der jeweiligen ‚Umwelt‘. Überhaupt kann die Funktion eines technischen Artefakts auch als sein use plan (types of use, Houkes / Vermaas, (3)) beschrieben werden, der abhängig ist von der praktischen Verwendung.

Rathausuhr Heilbronn (c) Wikimedia

zu b) Eine ausführliche Diskussion wird über die Bedeutung der Absichten des Herstellers (intentions of the maker) eines Artefakts geführt. Die Akzente können in zweierlei Hinsicht gesetzt werden: Einmal ist es die Frage nach dem Wozu eines hergestellten Gegenstands, im Sinne von ‚Was hat sich der Hersteller dabei gedacht, ein solches Ding zu schaffen?‘. Beispiele werden besonders aus der ethnologischen und archäologischen Forschung angeführt, wenn unbekannten Gegenständen eine bestimmte Nutzungsweise zugeschrieben werden soll. Das ist durchaus nicht immer trivial, wenn zum Beispiel eine besondere ‚Verzierung‘ sich erst später als kunstvoller Kalender entpuppt (Bronzezeitlicher Goldhut). Zur Entdeckung einer solchen Funktion ist die (vermutete) Kenntnis der Intention des Herstellers innerhalb seines sozialen Umfeldes erforderlich; sie macht die besondere Bedeutung dieses Artefakts aus. Sofern Artefakte von Menschen hergestellte materielle Gegenstände (oder Systeme z. B: wie Aquädukte) sind, scheint das jeweilige Herstellungskonzept, die motivierende Intention, wesentlich zu einem Artefakt hinzuzugehören.

Dies arbeitet insbesondere Amie L. Thomasson heraus (4). Sie bestimmt die Gattung der „artifactual kinds“ strikt im Unterschied zu den „natural kinds“ eben aufgrund der mit ihnen verbundenen Intentionen: „metaphysical natures of artifactual kinds are constituted by the concepts and intentions of the makers – crucially apart from natural kinds“. „Thus the sense in which these artifacts and artifactual kinds are human creations does have important consequences for their metaphysics, and for our epistemic relation to them – consequences that mark them as importanly different from the objects and kinds of the natural sciences.“ Für Thomasson fallen somit die proper functions mit den intended functions zusammen. Zudem liegt darin ein privilegierter Wissenszugang der Hersteller (privileged knowledge of the makers) des jeweiligen Artefakts begründet. Auch wenn diese Analyse nicht überall Zustimmung findet, ist hier doch eine (die?) Besonderheit von Artefakten herausgearbeitet, nämlich der unlösbare Zusammenhang konkreter materieller Dinge mit menschlichen Konzepten, Intentionen und Absichten. Artefakte führen ein Design mit sich.

zu c) Von der Seite eines Ingenieurs nähert sich Peter Kroes (5) der Frage, inwieweit das Design von technischen Systemen, bestehend aus unterschiedlichen technischen Artefakten, zu emergenten Eigenschaften des artifiziellen Gesamtsystems führt. Sein Interesse ist geleitet vom „Kontrollparadigma“ innerhalb der engineering practice: Ein Design sollte so gestaltet werden können, dass unerwünschte oder nicht vorhersehbare Auswirkungen im System vermieden werden. Er untersucht den Begriff ‚Emergenz‘ in seiner ontologischen und epistemischen Bedeutung im Hinblick auf technische Artefakte. Entscheidend dabei ist, ob ontologisch emergentes Verhalten eines Gesamtsystems eigene ‚kausale Kraft‘ (causal power) besitzt, oder ob sich das Verhalten kausal auf die physikalische Grundstruktur zurückführen lässt. Dies ist normalerweise der Fall (sein Beispiel: Eigenschaft der Zeitmessung einer Uhr ist auf ihre mechanische Konstruktion kausal zu reduzieren). ‚Starke‘ ontologische Emergenz / Unableitbarkeit („nonpredictable“ and „nonexplainable“) kommt wenn überhaupt nur bei speziellen Phänomenen vor (Quanteneffekte) und hat bei herkömmlichen technischen Artefakten keine Bedeutung. Die häufigste ‚Emergenz‘ nach Kroes ist die epistemische; sie drückt dann das unvollständige oder noch unbekannte Wissen aus. ‚Starke‘ epistemische Emergenz wie bei komplexen Systemen der Selbstorganisation wird durch größere Rechenkapazitäten (Simulationen) oder den Zeitfaktor auf die physikalische Basis zurückgeführt werden können. Auch sie dürfte das Kontrollparadigma nicht infrage stellen und ist darum für engineering practice derzeit kein Problem. Dementsprechend fasst Kroes seine Position folgendermaßen zusammen:

The function of a technical artifact such as a mechanical clock is ontologically emergent on its physical structure in the sense that its function is not a property that may be attributed to its parts and is not realized by the physical structure of the clock. Although ontologically emergent in this sense, the functions of simple technical artifacts have no causal powers of their own. Therefore they pose no threat to the control paradigm of traditional engineering. Ontologically emergent functions (features) with causal powers of their own would seriously undermine that paradigm; such a strong form of ontological emergence, however, does not appear to be very likely. As far as weak forms of epistemic emergence are concerned, they are part and parcel of routine engineering practice and constitute no significant threat to the control paradigm. The functions of technical artifacts as well as the physical phenomena upon which they are based may be weakly epistemically emergent. I argue that it is a mistake to assume that weak epistemic emergence implies unexpectedness and on that ground poses a threat to the control paradigm. Strong epistemic emergence endangers the control paradigm on the grounds that it is incompatible with techniques such as functional decomposition. Whether the extreme complexity of some of the modern technical systems implies a strong kind of epistemic emergence remains to be seen. Without a doubt, the complexity of these systems stretches to the very limit the capabilities of traditional methods of designing and controlling technical systems, stretching them sometimes so far beyond that these methods are no longer applicable. The search by engineers for new principles of design and control appears warranted. However, complexity within systems is not necessarily proof that such systems will display features that are strongly epistemically emergent. For the time being, with respect to the impact of emergence on engineering practice, we may have to revert to the age-old saying Nihil nove sub sole.

a.a.O. S. 289

zu d) Eine allgemeine Fassung des Funktionsbegriffs, der sowohl intentionales als auch nicht-intentionales Design umfasst, legt Ulrich Krohs (6) vor. Er geht davon aus, dass technische Artefakte in soziale Systeme der Nutzer eingebettet sind und damit vom social design mitbestimmt werden. Grundlegend für den Design – Begriff ist die Unterscheidung von intentionalem und nicht-intentionalem Design: Technische Artefakte sind immer intentional, dagegen sind biologische und evolutionäre Prozesse nicht-intentional. Krohs möchte für beides einen allgemeinen Begriff entwickeln. Zunächst unterscheidet er zwischen design und design process, weil unterschiedliche Design-Prozesse zum selben Ergebnis, dem gewünschten Design, führen können. „… we may regard as the design the result of the design process that fixes the designed entity, or, more precisely, the type of the designed entity.“ So bestimmt er Design als „type fixation of a complex entity“, die in jeweiligen token realisiert wird. Diese Definition umfasst sowohl intentionales als auch nicht-intentionales Design wie bei biologischen oder auch komplexen sozialen Systemen – „Design“ aufgrund der ihnen zugrunde liegenden Struktur (DNA) oder aufgrund ihrer Selbstorganisation. Auch hier liegt Typen-Fixierung und somit realisiertes Design vor.

In sozio-technischen Systemen findet Typen-Fixierung auf verschiedenen Ebenen statt. Bei einem industriellen Herstellungsprozess findet sich eine solche Typfixierung auf der Ebene der jeweiligen Komponenten: Geräte und Maschinen, Mensch-Maschine -Schnittstellen, Arbeitsplatzanforderungen und – besetzung usw. Die Typfixierung der Komponenten ist also transitiv hinsichtlich der Typfixierung des sozio-technischen Gesamtsystems. Diese Analyse weist Krohs den Weg zur Definition von „Funktion“, einem der Zentralbegriffe für das Verständnis von Design (sozio-) technischer Artefakte: „a function is a contribution of a type-fixed component to a capacity of a system that is the realization of a design.“ Diese Definition hebt auf die Rolle ab, die eine Komponente innerhalb eines funktionierenden Systems tatsächlich hat, unabhängig davon, ob die Funktion für diese Rolle ursprünglich gedacht war (intention of the maker). Der so definierte Begriff löst sich vom Gegensatz proper function und system function, indem er auf die faktische Rolle einer Komponente innerhalb eines Systems Bezug nimmt.

So a function is the role that a component has according to a design, where it is not asked whether it was designed to have this role. As in the case of the design concept, this concept of function is applicable to functions of components of intentionally designed entities and to functions of components of naturally designed entities. Precondition is only the ascription of design in terms of type fixation.

a.a.O. S. 239

Insofern wird „Funktion“ nicht als Eigenschaft eines Artefakts, sondern als ausschließlich relational realisierte Rolle in einem System gedacht. Der ursprüngliche Designer und seine Absichten kommen nur noch vor als abstrakte intended function. Dieses Verständnis von Funktion und Design macht Krohs‘ Analyse flexibel für die unterschiedlichsten Anwendungsbereiche und tatsächlichen Vorkommen sozio-technischer Systeme. Der springende Punkt ist jeweils die Typfixierung. Bei hochkomplexen Systemen (Evo-Devo) und Selbstorganisation sozialer Systeme bleibt die Fixierung von Typen allerdings wenig stabil bzw. ist ständiger Veränderung und Anpassung unterworfen, weil die Systeme selbst in fortwährender Anpassung begriffen sind. Genau hier stellt sich dann die Frage, ob noch sinnvoll von Typfixierung gesprochen werden kann, wenn die Typen und tatsächlichen Rollen nur als Token vorkommen und sich als solche in ständiger Veränderung und Anpassung befinden. Letztlich entscheidet die analytische Zuschreibung darüber, was als Design fixiert und was als zufälliger Status „von selbst“ entsteht (evolviert) und vergeht (adaptiert). So fasst Krohs einschränkend zusammen:

– The type fixation that can be found in society will be a highly dispersed patchwork: the designs of related components of a society may originate from completely different sources and may be realized independently rather than in a coordinated way.
– These pieces of design are subject to continuous change, which again may be uncoordinated: in newly designed socio-technical systems, which form components of the society, machines may be used for functions they were never designed for. In the case of type-fixing positions, the individuals who exert these positions may modify the type fixation and by this mediate a deviation of the society from its previous design.
– Societies are, to a high degree, self-organizing instead of assembled according to a plan and may be dependent largely on contingent side-conditions. Therefore, the actual role of a type-fixed technical artifact will often deviate from what its function would be according to any design of a system it belongs to.

a.a.O: S. 243

IV. Ausblick

Der Überblick über wesentliche Themen einer Philosophie der Technikwissenschaften zeigt eine Reihe von Fragestellungen, die zu aktuellen Problemen unserer Welt, zu ihren Strukturen von Technik und Gesellschaft durchaus passen. Ich erinnere an das oben zitierte Motto von Anthonie Meijers: „Technical objects are also material things with social functions.“ Schon Herbert Simon hatte dem social design in seinem oben genannten Buch ein eigenes Kapitel 6 gewidmet: „Social Planning: Designing the Evolving Artifact“. Und zuletzt hat Ulrich Krohs seinen Aufsatz überschrieben: „Co-Designing Social Systems by Designing Technical Artifacts“ und sich, wie dargestellt, mit der Typfixierung von sozio-technischem und gesellschaftlichem Design beschäftigt. Die Ansichten haben sich in den fünf Jahrzehnten seit Simons Werk stark gewandelt, aber nach meinem Eindruck kommt das Thema gesellschaftspolitischer Steuerung in einer digitalisierten, vernetzten und globalisierten Welt gerade wieder stärker auf die Tagesordnung, besonders unter dem Aspekt einer energiepolitischen Wende. Die Frage der Steuerungswirkung einer CO2-Bepreisung (Steuer, Zertifikate) ist derzeit besonders aktuell und zeigt, dass das klima-ökologische Problem eben kein rein technisches ist, sondern eminent sozio-technische Implikationen hat: Wie kann eine Industriegesellschaft so umgestaltet werden, dass sie die naturwissenschaftlich evaluierten Rahmenbedingungen der CO2-Reduktion erfüllt und zugleich Lebensqualität, Prosperität und Wohlstand für alle sichert? Die Aufgabe ist ersichtlich von ungeheurer Komplexität, enthält viel gesellschaftspolitischen Sprengstoff, und ihr Gelingen ist politisch keineswegs gesichert. Gesellschaften evolvieren nicht unbedingt rational und ethisch verantwortbar. Nicht nur der homo oeconomicus ist eine unrealistische Abstraktion, auch der homo politicus ist nicht unbedingt der Rationalität oder gar der Wissenschaft verpflichtet. Wie kann da die Anwendung von social design helfen?

In den 1970er und 1980er Jahren war man da sehr viel optimistischer und vielleicht auch naiver. Besonders H. Simons viele Beispiele aus seiner eigenen politischen Praxis zeigen, wie sehr man in den Jahrzehnten nach dem 2. Weltkrieg auf politische Planung (Marshall -Plan, ERP), auf Städteplanung und landesweite Verkehrsplanung setzte. Die 1960er Jahre waren in Westdeutschland geprägt von der Idee der „Globalsteuerung“ der Wirtschaft (Karl Schiller), das Thema Kybernetik in seiner Anwendung auf gesellschaftliche Projekte beschäftigte die Öffentlichkeit (siehe Karl Steinbuch; Frederic Vester, Das kybernetische Zeitalter, 1974; bis hin zur Cebit ab 1986). Heute spricht man eher von Informatik, Netzwerktheorie, Systemtheorie – oder in den Feuilletons von „Schwarmintelligenz“ oder „Künstlicher Intelligenz“. Aber auch hierbei geht es immer um Steuerung und Gestaltung, also um die Anwendung von Design auf Prozesse sozio-technischer Veränderung. Denn das ist ja gerade das Besondere am „social planning“: das evolvierende Artefakt (Simon) oder System, das heißt die fortwährende Veränderung in Voraussetzung, Ausführung und Nebenwirkung, und damit auch die jeweils notwendige Anpassung des Designs. Ulrich Krohs stellt dazu illusionslos fest:

Social Systems Design (SSD) nevertheless tries to determine a social system exactly on the level of such interactions and mutual relationships between components, and to institutionalize all acceptable interactions within the system. This seems only to work in small systems of cooperative individuals, e.g., in educational systems in a benevolent environment, where, in addition, the number of involved artifacts is very limited and interactions are almost completely social.

a.a.O. S. 242

Und Krohs schließt mit der Feststellung (und ich zitiere hier aus seiner bereits oben angeführten Liste den ersten Punkt):

– The design of a society will always be incomplete. Not all components of the social system will be type-fixed and presumably only a small fraction of them is. Humans do not only exert type-fixed positions (instead, they will engage in numerous different self-imposed tasks), nor are all their acts institutionalized (they will interact as well according to free and deliberate, though bounded, choice). And nothing else would be compatible with human freedom.

a.a.O. S. 242f

Trotzdem sind wir heute ‚aus der Not geboren‘ dazu verpflichtet, ein umfassendes Design zu finden, das die Energiewende ermöglicht und Gesellschaften zu möglichst klimaneutralem Verhalten bringt oder zwingt. Eigentlich hat schon Herbert Simon vor vielen Jahrten sehr weitsichtig einen noch heute gültigen Anspruch für jegliches social planning formuliert – im Grunde einen politischen Auftrag, der heute aktueller ist als je: Unseren Enkelkindern eine Welt mit ebenso viel Offenheit, Chancen und Freiheitsmöglichkeiten zu hinterlassen, wie wir selber sie hatten. Dies zu hoffen bedarf auch heute einer guten Portion Optimismus. Ein entsprechendes Design zu finden liegt in unserer Verantwortung. Mit Herbert Simon gesprochen:

Our age is one in which people are not reluctant to express their pessimism and anxieties. It is true that humanity is faced with many problems. It always has been but perhaps not always with such keen awareness of them as we have today. We might be more optimistic if we recognized that we do not have to solve all of these problems. Our essential task—a big enough one to be sure—is simply to keep open the options for the future or perhaps even to broaden them a bit by creating new variety and new niches. Our grandchildren cannot ask more of us than that we offer to them the same chance for adventure, for the pursuit of new and interesting designs, that we have had.


(1) Ruth Millikan, Language, Thought and other Biological Categories, MA, The MIT Press, 1984; dieselb., White Queen. Psychology and Other Essays for Alice, London and Cambridge, MA. The MIT Press, 1993 [zurück]

(2) Beth Preston, THE FUNCTIONS OF THINGS, A philosophical perspective on material culture, in: MATTER, MATERIALITY AND MODERN CULTURE, Edited by P.M. Graves-Brown, London and New York, 2000 [zurück]

(3) Wybo Houkes, Pieter Vermaas, Actions Versus Functions: A Plea for an Alternative Metaphysics of Artifacts, in: The Monist,vol. 87 no. 1, 2004 [zurück]

(4) Amie L. Thomasson, Artifacts and Human Concepts, in: Creations of the Mind. Theories of Artifacts and Their Representation, ed. by Eric Margolis and Stephen Laurence, Oxford University Press, New York 2007 [zurück]

(5) Peter Kroes, Technical Artifacts, Engineering Practice, and Emergence, in: Functions in Biological and Artificial Worlds. Comparative Philosophical Perspectives, ed by Ulrich Krohs and Peter Kroes, MIT Press, Cambridge and London 2009 [zurück]

(6) Ulrich Krohs, Co-Designing Social Systems by Designing Technical Artifacts. A Conceptual Approach, in: P. E. Vermaas et al. (eds.). Philosophy and Design. © Springer 2008 [zurück]

(Dieser Beitrag wurde angeregt durch ein philosophisches Seminar von Prof. Ulrich Krohs im SS 2019 an der WWU Münster.)

Der Text dieses Beitrags steht auch als E-Book (PDF) zur verfügung.

art.

Jun 102019
 

Träume in der Wirklichkeit

Ich bin es gewohnt, die Welt naturwissenschaftlich zu betrachten. Im Alltag hat mich vieles die Erfahrung gelehrt. Beim philosophischen Nachdenken über den Alltag hinaus öffnen die Erkenntnisse der Naturwissenschaften Wege, zwischen Realität und Schein, zwischen Wunsch und Wirklichkeit zu unterscheiden und die Welt außerhalb meiner selbst besser und angemessener zu begreifen. So verschmelzen alltägliche Erfahrung und naturwissenschaftliche Erkenntnis zu einem umfassenderen Weltbild, das ich mir angeeignet habe und das meinen Wirklichkeitssinn prägt.

Natürlich liegen die Dinge beim Erkennen der Wirklichkeit sehr viel komplizierter, als es in wenigen Sätzen ausgesagt werden kann. Jedes Nomen in diesem letzten Satz ist ein problematischer Begriff, der allererst genauer bestimmt werden müsste, um den Sinn des Satzes zu erhellen. Was sind überhaupt ‚Dinge‘ außer mir, und was bedeutet ‚Erkennen‘? Über welche ‚Wirklichkeit‘ kann ich Aussagen machen, die zutreffen und darum einen sinnvollen ‚Satz‘ ergeben? Diesen Fragen widmet sich die Erkenntnistheorie, und es ist gut und wichtig, sich damit auseinanderzusetzen und die verschiedenen Positionen der Philosophien in Vergangenheit und Gegenwart kennenzulernen und gegeneinander abzuwägen. Dort, wo es gute und plausible Gründe gibt, können eigene Überzeugungen wachsen.

Von ‚Wahrheit‘ ist bisher nicht die Rede, auch nicht davon, die einzig richtige Erklärung eines Sachverhalts zu finden. Zweieinhalbtausend Jahre Geschichte des geordneten Denkens und Erkennens, also der Philosophiegeschichte, haben nicht zu einer einzigen, sondern zu vielen unterschiedlichen Positionen und Erklärungsweisen geführt. Man sollte dies weniger als einen Missstand denn als einen Reichtum ansehen. Die eine einzige Methode, die eine einzige Wahrheit, die eine einzige Antwort oder Lösung auf die vielen Fragen des Menschen gibt es offenbar nicht. Ich muss sagen, ich finde das sehr gut so.

Nun bleibt allerdings keineswegs nur ein resignierter Relativismus oder Skeptizismus übrig. Es gibt durchaus Erkenntnisse und Aussagen, die plausibler sind als andere. Es gibt besonders im Bereich der Naturwissenschaften einschließlich der Biologie einen Bereich des Wissens, der durch sehr genaue Regeln des Vorgehens und der Theoriekonstruktion geprägt ist. Solche Erkenntnisse gewinnen ihre Plausibilität dadurch, dass sie an der Wirklichkeit überprüft werden können. Sie sind überzeugend, wenn zwei methodische Bedingungen erfüllt sind: a) Die Erkenntnisse (Aussagen, Sätze, Gleichungen) sind ‚allgemein gültig‘, das heißt an allen Orten und zu allen Zeiten von jedermann nachvollziehbar. b) Diese Erkenntnisse lassen begründete Voraussagen zu, die durch Erfahrung (Beobachtung, Messung, Experiment) überprüft werden können. Beides zusammen ergibt eine hohe Verlässlichkeit und Plausibilität. Es ergibt aber keine Wahrheit.

Denn welche Wirklichkeit wird dabei erkannt? Wie verhalten sich Beobachter und Beobachtetes zueinander? Was ist Entdeckung, was Zuschreibung und Interpretation? Inwiefern sind Theorien Modelle, die zwar Wirklichkeit erhellen, aber auch verstellen können? Die Geschichte der Wissenschaft ist voller Wege und Irrwege, die einen davor warnen, allzu vollmundig eine bestimmte Erkenntnis als nun allein- und letzt- gültig zu behaupten. „Bis zum Erweis des Gegenteils“, muss stets hinzugefügt werden. Poppers Methode der Falsifikation beschreibt Wissenschaft überhaupt nur als Eingrenzung bzw. Verringerung des Irrtums. Aber auch positivere Haltungen sind möglich, die davon ausgehen, dass Realität zwar nie vollständig, aber doch zunehmend plausibel und begründet, und sei es auch in komplementären Modellen, beschreibbar ist. Naturgesetze und fundamentale Konstanten gelten dabei als unverrückbare Leuchttürme, die der wissenschaftlichen Erforschung einen festen Rahmen geben.

Aber ich muss da aus meiner Sicht gleich einschränken. Alles, was an Erkenntis möglich ist, sind Aussagen / Modelle / Systeme, die jeweils unterschiedliche Beschreibungen eines Sachverhalts darstellen. Manche davon mögen andere auschließen, andere nur ergänzen. Wenn wir Sachverhalte sinnvoll in Sprache fassen – und das müssen wir, wenn überhaupt von Erkenntnis die Rede sein soll, unabhängig davon, wie abstrakt / symbolisch [mathematisch, logisch] oder nahe am alltäglichen Sprachgebrauch die Aussagen formuliert werden – , befinden wir uns stets auf der Ebene der Beschreibung. Man kann dann weiter darüber nachdenken, welche Qualität das Bezeichnende und das Bezeichnete hat, welchen Sinn und Bedeutung einer Sache zukommt, wenn ihr denn überhaupt eine solche zukommt. Das reale ‚Ding‘ hinter der Beschreibung bleibt dem Zugriff des Begreifens letztlich entzogen: Kants „Ding an sich“ ist unerkennbar. Einen Realismus des Erkennens und Beschreibens kann man behaupten, – aber man kann ihn nur behaupten. Insofern sind auch die Naturgesetze, Konstanten und die mathematischen Gleichungen, die sie formulieren, Beschreibungen der Wirklichkeit, wie wir sie methodisch exakt bestenfalls erreichen können. Sie haben höchsten Wert und größte Plausibilität. Aber es sind keine letzten Wahrheiten, keine Enthüllungen der Realität hinter den Beschreibungen.

Gerade so kann ich mich aber an den faszinierenden Ergebnissen und Möglichkeiten der Quantenmechanik, der Genetik und Entwicklungsbiologie, der Kosmologie, des Aufspannens neuer mathematischer Räume und ‚Schäume‘ begeistern. Ich bin fröhlich und zufrieden damit, dass in der Natur, wie wir sie erkennen, alles seine Ursachen und Wirkungen, seine Zusammenhänge und Sprünge hat. Natur außerhalb des Menschen kennt keine Intentionalität, keine Teleologie, kein „intelligent design“, sondern nur Kausalität und Chaos, Determinismus und Fließgleichgewichte, Thermodynamik und einen geheimnisvollen Zeitpfeil, dessen Inhalt die Entropie ist. Oder auch umgekehrt, da streitet die Wissenschaft. Kann ich erkennen, was vor dem Urknall ist, wenn doch mit dem Urknall auch allererst der Lichtkegel unseres Ereignishorizontes entsteht? Fragen darf ich aber schon danach. Kann ich wissen, was jenseits unserer vierdimensionalen Raumzeit existiert – und gibt es da etwas, auf das die Begriffe ‚Existenz‘ und ‚Wissen‘ zutreffen? Ist es plausibel, die Entstehung von Leben als einem allgemeinen Entwicklungsgesetz folgend prinzipiell überall im Kosmos als möglich zu erwarten, oder ist es eine singuläre Erscheinung des Planeten Erde, was anzunehmen der Wissenschaft nicht leicht fiele? Kurzum – auch wenn unser gesichertes Wissen immer begrenzt, möglicherweise widersprüchlich und lückenhaft bleibt, es ist so voller Reichtum und Schönheit, dass man über den forschenden und erkennenden Geist des Menschen nur staunen kann!

St. Petri Soest

Erkenntnis, Wissenschaft ist insofern wie eine unendliche Sinfonie. Sie zeigt Klangfülle, Harmonien, Dissonanzen, aber kein Ende, kein Ziel. Sie lässt Grenzen entdecken – und überschreiten. Aber sie sieht, erkennt, weiß, sagt nie das Ganze. Der erkennende Mensch ist immer ein Teil des zu Erkennenden; es gibt keinen Punkt im Nirgendwo, von wo aus alles ‚einen Sinn‘ ergibt. Vielleicht ist es dies, das mich zu einer anderen, zu einer weiteren Erfahrung führt. Ich kann sie nicht als Konkurrenz, nicht einmal als Ergänzung oder Überhöhung ansehen. Diese Erfahrung ist anders und umfasst und betrifft mich ebenso gänzlich wie mein Streben nach begründeter Erkenntnis. Man kann diese ‚andere‘ Erfahrung gewiss in unterschiedlichen Zusammenhängen machen. Es handelt sich um eine Erfahrung von Ganzheitlichkeit und Vollkommenheit, wie sie mir in der Kunst, in der Musik, in der Religion begegnet.

Ich sitze in einem Kirchenraum. In meiner Vorstellung und auch tatsächlich ist es eine sehr alte Kirche mit den verschiedensten Stilelementen, angefangen bei der Romanik über die Gotik hin zu einer neuzeitlichen (Nachkriegs-) Rekonstruktion, die einen zufriedenstellenden architektonischen Gesamteindruck vermittelt. Ich bin christlich – evangelisch sozialisiert und durchaus religiös ‚musikalisch‘. Ich mag wieder einen schönen Gottesdienst. Ich spreche das Glaubensbekenntnis und stoße mich überhaupt nicht am „Schöpfer des Himmels und der Erde“, auch an der „Jungfrau Maria“ nicht. Lieder und Gebete, Lesungen und Klänge erfüllen den Raum, durch dessen bunte Glasfenster die Morgensonne Bilder leuchten lässt. Ich fühle mich gut aufgehoben und wohl, vielleicht weil ich überhaupt nicht nachdenken muss und will. „Erhebet eure Herzen“ – nein, wir erheben sie nicht, wir werden erhoben zum ‚Herrn‘. Ich habe lange gebraucht, einen Gottesdienst wieder so fröhlich und unbeschwert feiern zu können mit all den Menschen (erstaunlich viel Mittelalter) neben mir und mit mir beim Mahl am Altar. Ich genieße die wundervolle Orgel. Erstaunlicherweise finde ich auch Predigten oft bewegend und gut. Was ist es, das diesen angenehmen Wärmestrom hervorbringt?

Man kann es sehr schnell psychologisch und vielleicht sogar gerontologisch erklären. Kindheitserinnerungen, Gefühl der Geborgenheit, Altwerden. Dieses und noch mehr Erklärliches mag zutreffen, aber es trifft mich nicht wirklich. Es ist tatsächlich eine andere Art Erfahrung des Wirklichen und des Lebens. Ich möchte diese Erfahrung „Gottessehnsucht“ nennen. An klassischen Theologen hat sie vielleicht am deutlichsten Friedrich Schleiermacher formuliert. In diesen religiösen oder musikalischen Erfahrungen werden andere ‚Welten‘ spürbar, Gefühle und innere Bewegungen, die durchaus ‚real‘ sind. Es spielt dafür zunächst überhaupt keine Rolle, ob diesem Gefühl eine äußere Realität entspricht, ob also das geheimnisvolle Ganze, das ich als ‚Gott‘ erfahre, ein Produkt meiner Phantasie oder ein Ergebnis meiner Träumereien ist. Es ist jedenfalls eine Art Sehnsucht nach Ganzheit, Heilsein, Geborgenheit, Versöhntsein mit all dem Übrigen in der Welt. Das Widerwärtige und Widerspenstige bleibt hier draußen, außen vor, und nur so ‚erhoben‘ und getröstet fühle ich mich bereit, all den anderen Erfahrungen von Rationalität und Realität wieder zu begegnen. Vielleicht gibt diese Sehnsucht, die einen Moment lang als gestillt erfahrbar wird, auch die Kraft, die vielen Widerwärtigkeiten und Grausamkeiten, die Hast, Gier, Niederträchtigkeit in der alltäglichen Welt auszuhalten.

Gottessehnsucht ist wie ein Korrektiv. Sie weist auf Fülle und Ganzheit, die sonst nirgendwo zu finden ist. Sie ist eine andere ‚Sinfonie‘ als die ‚Sinfonie‘ der Wissenschaft. Beide stehen in keiner Konkurrenz, weil sie auf ganz verschiedenen Ebenen des Menschseins zu Hause sind. Aber vielleicht stimmt das auch gar nicht, vielleicht lege ich mir das nur passend zurecht. Was wäre daran verkehrt? Die Wirklichkeiten der Welt, die Erkenntnisse und Erfahrungen in Wissenschaft, Philosophie, Religion, Kunst sind alles nur unterschiedliche Weisen des Menschen, ‚das Universum‘ anzuschauen. –
Und vielleicht ist die ‚Gottessehnsucht‘ doch so etwas wie der Cantus firmus. Es ist nur eine Vermutung – aber was können wir schon mehr?

Reinhart Gruhn, zu Pfingsten

Physiker und Philosophie

 Naturwissenschaft, Philosophie  Kommentare deaktiviert für Physiker und Philosophie
Feb 082019
 

Philosophie ist nicht Feuilleton, ein guter Physiker noch kein Philosoph.

Mit einem aktualisierten Nachtrag.

Das neueste Buch von Carlo Rovelli, Die Ordnung der Zeit (2018) und seine überwiegend positive Aufnahme in den Feuilleton- und Wissenschaftsredaktionen der überregionalen Zeitungen gibt Anlass, einmal kurz das Verhältnis von Physikern zur Philosophie zu beleuchten. In jüngster Zeit hat es Erhard Scheibe, Professor em. für Philosophie der Naturwissenschaften (Heidelberg) unternommen, „Die Philosophie der Physiker“ (2006; 2. Aufl. 2012) ausführlich zu untersuchen. Dass dies Verhältnis ein durchaus problematisches sein kann, wird sehr bald deutlich. So zitiert er eingangs Susan Stebbing, die sich in ihrem Buch Philosophy and the Physicists (1937 !) über philosophisch dilettierende Physiker beschwert.

Das Buch illustriert die Reaktion einer Fachphilosophin auf die philosophischen Gehversuche zweier Physiker: Eddington und Jeans. Beide haben im Laufe ihres Lebens populärwissenschaftliche Bücher geschrieben, in denen sie einem interessierten Laienkreis das Weltbild der Physik auf dem neuesten Stand mitteilen, dabei unversehens und manchmal auch mit Absicht ins Philosophieren geraten und philosophische oder auch theologische Konsequenzen aus der neuen Physik ziehen wollen. Die Bücher von Eddington und Jeans sind streckenweise Musterbeispiele für philosophischen Dilettantismus – versehen mit der Autorität der Wissenschaft und bar jedes expliziten und engeren Zusammenhangs mit den zeitgenössischen philosophischen Strömungen. Es kann kaum verwundern, daß diese Bücher den Unwillen des einen oder anderen Philosophen erregt haben. Susan Stebbing faßt ihren Unmut folgendermaßen zusammen:“

„…die sie auf das Niveau von Erweckungspredigern reduziert. Aber wir gewöhnlichen Leser haben gewiß ein Recht zu erwarten, daß ein Wissenschaftler, der sich anschickt, zu unserem Nutzen philosophische Probleme seines Faches zu diskutieren, dies in einem wissenschaftlichen Geiste tun wird. Er befindet sich in einer besonderen Verpflichtung, billige Gefühlsduselei und bestechende Appelle zu vermeiden und so klar zu schreiben, wie es die schwierige Natur des Gegenstandes gestattet.“

Scheibe S. 34f.

Nun gibt es seitdem und in den letzten Jahrzehnten vermehrt populärwissenschaftliche Darstellungen über die komplizierten Modelle der heutigen theoretischen Physik und Kosmologie. Das ist gut und unbedingt nötig, weil viele Theoreme und Erkenntnisse der heutigen Physik dem Alltagsdenken stracks zu widersprechen scheinen und darum und wegen der hohen mathematischen Abstraktion schwer zu vermitteln sind. Da gibt es gute und weniger gute Versuche. Immerhin haben Albert Einstein, Werner Heisenberg, Erwin Schrödinger und Stephen Hawkings, um nur die bedeutendsten zu nennen, es sich selber angelegen sein lassen, ihre Physik und ihre „Weltsicht“ dem allgemeinen Publikum darzustellen. Diese und die Schriften unzähliger anderer Naturwissenschaftler ebenso wie naturwissenschaftlich qualifizierter Journalisten leisten dabei Wichtiges, Unverzichtbares. Das gilt insbesondere dann, wenn die moderne Physik tatsächlich mit einem „Weltbild“ einhergeht, das es dann auf seine Stimmigkeit zu untersuchen gilt. Denn Weltbilder sind Modelle und Interpretationen, die notwendig zu experimentell oder durch Beobachtung erhobenen Fakten hinzutreten müssen bzw. von Anfang an im Spiel sind, wenn es um Verstehen geht. Die Frage ist dann, ob sich schriftstellernde Physiker dessen bewusst sind, dass und falls sie über die physikalischen Theorien hinaus Antworten zu grundsätzlichen Fragen ‚des Lebens‘ und der ‚Welterkenntnis‘ geben wollen. Dann überschreiten sie nämlich die Grenzen ihres Fachverstandes und müssen sich mit dem Fach- und Sachverstand anderer, zum Beispiel von Philosophen und Erkenntnis- und Wissenschaftstheoretikern, messen lassen. Die gute Absicht, etwas Nachdenkliches und subjektiv Bewegendes zum Beispiel zum Thema Ewigkeit, Tod, Vergänglichkeit zu schreiben, reicht da nicht.

Diese Grenze hat Carlo Rovelli offensichtlich nicht beachtet. Seine Ausführungen zum Thema „Zeit“ sind nur sehr begrenzt aus seinen physikalischen Theorien gewonnen („fundamentalste Ebene“) und stellen dort eine gewiss diskussionswürdige Interpretation dar. Das zu beurteilen steht mir als Nicht-Physiker nicht an. Wo er sich allerdings recht eklektisch und frei aus dem Traditionsbestand der Philosophie bedient, da wird es schnell oberflächlich und, ja tatsächlich emotional und kitschig, besonders in seinem dritten und letzten Teil – und eben deswegen fiel mir der Text von Susan Stebbing ein. Er trifft mutatis mutandis auch auf das hier debattierte Buch von Rovelli zu. Immerhin versucht Rovelli zwischen physikalisch gesicherten Ergebnissen, möglichen Interpretation und eigenen Spekulationen zu unterscheiden (S. 163f: experimentell abgesichert – immerhin plausibel – bloße glaubhafte Ideen, die ihm lieb sind). Aber letztlich verfällt er doch einer „spekulativen Physik“ (Perlentaucher), die nur noch schlechte Philosophie ist. Und die ist, mit Verlaub gesagt, nun gar nicht „faszinierend“ (Sibylle Anderl, FAZ).

Die FAZ-Rezensentin S. Anderl fragt zu Recht: „Diese angeblich zeitlose Physik auf kleinsten Skalen wirft für den Leser dennoch Fragen auf – wo es Ereignisse gibt, kann da die Zeit völlig fehlen?“ Nicht nur ähnelt Rovellis Konzeption der Newtons, nämlich bei Ereignissen und Wechselwirkungen vom Faktor Zeit abzusehen (so Anderl), sondern er schließt darüberhinaus vom Fehlen einer Variablen t (= Faktor Zeit) auf die Nichtexistenz der Zeit auf der Mikroebene (Quantenfluktuationen). Nun, wenn ich in einem geschlossenen System, sagen wir einem gasgefüllten Zylinder das Verhältnis von Druck und Temperatur untersuche, brauche ich auch keinen Faktor Zeit. Es liegt ein ontologischer Fehlschluss vor, wenn Rovelli aus der Struktur der Gleichungen, die quantenmechanische bzw. thermodynamische Wechselwirkungen beschreiben, auf die Nichtexistenz anderer Faktoren oder Variablen schließt, die bezüglich dieses untersuchten Mikrosystems möglicherweise keine Rolle spielen.

Problematisch scheinen mir auch seine Ausführungen zur Entropie zu sein. Es gibt kaum einen anderen Begriff bzw. keine theoretische Größe, die so schillernd ist und unterschiedlich interpretiert wird wie Entropie. Die Bestimmung der Entropie als „Maß des Nichtwissens“ bzw. der „Unschärfe“ führt bei ihm zu einer Neuformulierung der Viele-Welten-Theorie: „Für jeden Teil der Welt gibt es folglich ununterscheidbare Konfigurationen der übrigen Welt. Die Entropie zählt sie.“ (130) Wir kennen nicht diese anderen Konfigurationen, darum ist „unsere“ Welt perspektivisch einzigartig und folgt dem thermodynamischen Zeitstrom der zunehmenden Entropie. Letzteres ist zumindest die gängige Auffassung, obwohl auch vehement das Gegenteil behauptet wird: Nicht Entropie begründet die gerichtete Zeit, sondern die Zunahme von Entropie ist Ergebnis tatsächlicher Beobachtungen in der Zeit (vgl. Roger Penrose, Zyklen der Zeit, 2011, S. 52 ff.). Penrose hält auch die Umkehrung, also die Abnahme der Entropie für möglich. Für ihn ist der Entropie-Begriff keine wesentliche Größe, sondern ein „nützliches Konzept…. weil unser Universum sehr weit von einem thermischen Gleichgewicht entfernt ist“. Dies nur als Hinweis darauf, dass die Bedeutung der Entropie in der Form, wie Boltzmann sie mathematisch formuliert hat, von Physikern sehr unterschiedlich aufgenommen und interpretiert wird. [Wieder ganz anders C. F. v. Weizsäcker] Rovelli beschreibt uns nur eine, nämlich seine Version.

Schließlich bleibt bei Rovelli die Rolle des Physikers, des Beobachters, unklar. Einerseits betont er:

„Wissenschaft strebt nach Objektivität. Nach einem gemeinsamen Standpunkt, auf den wir uns einigen können.
Bei dieser optimalen Herangehensweise ist allerdings darauf zu achten, was außen vor bleibt, wenn man den Blickpunkt des Beobachters ignoriert. In ihrem ängstlichen Bemühen um Objektivität darf die Wissenschaft nicht vergessen, dass unsere Erfahrung der Welt aus dem Inneren stammt. Jeder Blick, den wir auf die Welt werfen, rührt letztlich von einer bestimmten Perspektive her.

S. 126

Andererseits schreibt er:

Ich fasse die grobe Darstellung in den letzten beiden Kapiteln in der Hoffnung zusammen, dass mir nicht schon sämtliche Leser abgesprungen sind: Auf grundlegender Ebene ist die Welt eine Menge an Geschehnissen, die nicht in der Zeit geordnet sind. Diese realisieren Beziehungen zwischen physikalischen Variablen, die sich a priori auf derselben Ebene befinden. Jeder Teil der Welt interagiert mit einem kleinen Teil sämtlicher Variablen, deren Wert «den Zustand der Welt bezogen auf dieses Untersystem» bestimmt. [Hervorhebungen von mir]

S. 130

Das ist nun starker erkenntnistheoretischer Tobak: Da gibt es nach Rovelli eine „grundlegende Ebene“, auf der „die Welt … nicht in der Zeit geordnet ist.“ Dies ist eine ontologische Aussage über die Welt insgesamt („sämtlicher Variablen“), und diese wird als in Ebenen geschichtet beschrieben. Auf dieser „grundlegenden Ebene“ gibt es „a priori“ Beziehungen zwischen einem Subsystem physikalischer Variablen. Wie bekommt Rovelli auf einmal den „Zustand der Welt“ insgesamt in den Blick, quasi von einem exklusiven Standort aus? Woher kommt die Schichtung in Ebenen? Rovelli meint hier offenbar anderes als nur die Unterscheidung von einem Mikro- oder Makro-Zugriff. Inwiefern sind „auf der grundlegenden Ebene“ die physikalische Variablen a priori (Kant), also nicht durch Erfahrung vermittelt? Das müsste doch wenigstens erläutert und begründet werden. Letztlich verlässt er mit dieser eigenwilligen Ontologie die perspektivische Sicht des Beobachters. Hier wäre der Gedanke des Beobachters zweiter Ordnung (Luhmann) innerhalb des Systems hilfreich, der die Ergebnisse und Aussagen des Physikers noch einmal ‚beobachtet‘. Von einer solcher Meta-Position innerhalb des Systems aus könnten die Ergebnisse des Physikers relational bewertet werden als eine Auswahl notwendiger / möglicher / plausibler / spekulativer Interpretationen dessen, was als experimentell erhobene Fakten vorliegt. Rovelli stolpert aber direkt von einer postulierten ontisch-realistischen Ebene in eine ontologische Spekulation – und vermischt beides. Dies macht seine Ausführungen schwer nachvollziehbar und letztlich spekulativ. Darum kann er nur eine „spekulative Physik“ anbieten. Darin lässt er dann die Zeit „a priori“ als nicht grundlegend verschwinden. Man kann und darf das physikalisch und philosophisch anders sehen.

Ohne Zweifel gelingt Rovelli ein ansprechendes Buch – verführerisch ansprechend, würde ich sagen. Er knüpft auch bei abstrakten Darstellungen an die lebensweltliche Erfahrung der Leser an und nimmt sie so mit in einen im Grunde sehr eigenwilligen Gedankengang. Auch wenn er auf Seite 163, also ziemlich am Ende, knapp die unterschiedliche Qualität seiner Gedanken einräumt, bleibt er doch bei seiner geliebten „Idee“ und unterstreicht sie noch: „Absolut glaubhaft ist dagegen die generelle Tatsache dass die Zeitstruktur der Welt von dem naiven Bild abweicht, das wir uns von ihr machen.“ (S. 164) Mit einem eleganten Schlenker verbindet er dann noch das „Mysterium der Zeit“ mit unserer Identität und dem Bewusstsein. (ebd.) Seine Hinweise zur Hirnforschung bleiben schemenhaft, wie so vieles. Und am Ende kommt auch noch die Evolution, das Ende und der Tod als „des Schlafes Bruder“. Nein, Carlo Rovelli lässt wirklich nichts aus – auch wenn es nur Andeutungen und emotionale Bekenntnisse sind. Was das Buch am Anfang an physikalischen Fakten und verständlicher Aufklärung versprochen hat, das hat es am Ende einfach nicht gehalten.


Nachtrag vom 8. März 2019

Das zwei Jahre früher erschienene Buch von Carlo Rovelli, Die Wirklichkeit ist nicht so, wie sie scheint, 2016, hat große Vorzüge gegenüber der späteren Light-Version, die wir hier besprochen haben. Es ist zwar wesentlich umfangreicher, aber dafür gründlicher und – aufrichtiger. Rovelli präsentiert sehr überzeugend und gut verständlich die Wandlungen von der klassischen Physik (Newton) zur Relativitätstheorie (Einstein) und zur Quantenphysik (von Planck bis Wheeler). Er bettet seine Darstellung ein in einen philosophiegeschichtlichen Rahmen, der besonders auf Thales, Demokrit, Leukipp und Lukrez abhebt. Er tut dies mit viel Leidenschaft und Überschwang. Auch wenn man Rovelli in seiner Akzentuierung der Philosophie nicht unbedingt folgen mag, bietet er dennoch einen geistesgeschichtlichen Zusammenhang an, um „das große Ganze“ der physikalischen Welterkenntnis in den Blick zu bekommen. Das gelingt Rovelli in diesem Buch recht überzeugend.

Es ist redlich, wenn er seine Ausführungen über die Ergebnisse und den Stand der modernen Physik qualifiziert und auf die unterschiedlichen Grade ihre Akzeptanz bzw. Gesichertheit hinweist. Die erste Hälfte des Buches (160 von 310 Seiten) stellt er die allgemein akzeptierte Standardversion der klassischen Physik sowie der modernen Relativitätstheorie (SRT und ART) und Quantenmechanik dar. Offen und umstritten bleibt in dieser Standardversion das Verhältnis von kontinuierlicher raumzeitlicher Gravitationsphysik zur diskreten indeterministischen und nichtlokalen Quantenmechanik. Gesucht wird nach einem kohärenten Entwurf der Verbindung beider: einem Modell der Quantengravitation.

Wenn der geneigte Leser zur nächsten Seite voranschreitet, begibt er sich aus dem, was wir, recht oder schlecht, mit hoher Zuverlässigkeit über die Welt wissen, in das hinein, was wir noch nicht wissen, aber zu erahnen beginnen. Mit dem Ende dieser Seite verlassen wir gleichsam das kleine sichere Raumschiff unserer Quasigewissheiten.

S. 162

Dann präsentiert Rovelli ausführlich sein Konzept der Loop-Theorie der Quantengravitation, eine Alternative zur String-Theorie. Das gelingt ihm für den interessierten Laien verständlich und durchaus einleuchtend. In einem letzten Teil differenziert er noch einmal, um seine Vorstellungen eines künftigen „Weltbildes“ zu beschreiben:

Bevor ich schließe, möchte ich zur Theorie zurückkehren, dabei aber einen Ausblick in die Zukunft geben und auf den Begriff der «Information» zu sprechen kommen: auf ein Gespenst, das in der theoretischen Physik umgeht und dort für Begeisterung wie für Verwirrung sorgt.

Der Unterschied dieses Kapitels zu den vorangegangenen besteht darin, dass ich in ihnen Gedanken und Theorien erörtert habe, die zwar noch nicht überprüft wurden, aber sehr gut definiert sind. Jetzt behandle ich Konzepte, die noch ganz vage sind und die erst noch in eine Ordnung finden müssen. Jene Leser, die die Reise bis hierher etwas beschwerlich fanden, mögen sich gut festhalten, weil wir jetzt durch große Luftlöcher fliegen. Wenn dieses Kapitel obskur anmutet, so liegt dies nicht daran, dass der geneigte Leser verwirrt wäre, sondern an meinen noch unklaren Gedanken.

S. 263

Unter diesen eingeschränkten Voraussetzungen einer Entfaltung von Ideen wird das letzte Kapitel zu einem faszinierenden Ausflug in nicht bewiesene, aber auch nicht unplausible physikalische und kosmologische Überlegungen und Modelle von Entropie und Zeit. So lässt sich auch der Ausblick einer spekulativen Physik spielerisch genießen, – selbst wenn Rovelli sich auch hier in seinem letzten Kapitel „Das Mysterium“ reichlichen Pathos‘ nicht enthalten kann!

Reinhart Gruhn

Nachtrag 01.04.2019

Interview mit Anton Zeilinger in Der Standard über die aktuelle Quantenphysik:
„Wissenschaft ist nicht planbar.“

Moderne und Aufklärung

 Geist, Gesellschaft, Philosophie  Kommentare deaktiviert für Moderne und Aufklärung
Jan 222019
 

Neue Diskussion über Mythologie und Rationalität

I

Kürzlich (16.01.2019) erschien im Blog „Geschichte der Gegenwart“ ein Beitrag von Philipp Sarasin „Die Kinder der #Moderne“. Er wurde verschiedentlich aufgegriffen und spiegelt eine neue Diskussion. Zu Beginn seines Artikels heißt es:

Was war die Moderne – eine Epoche? Oder ist die Moderne so etwas wie eine „Haltung“, ein „unvollendetes Projekt“, das wir von der Aufklärung geerbt haben? Und sind daher nur die, die sich auf die Aufklärung beziehen, die rechtmässigen „Kinder der Moderne“?

Es gibt Begriffe, die so schil­lernd sind, dass sie ohne Einord­nung miss- oder unver­ständ­lich bleiben – und zwar so sehr, dass sie einen bei unbe­dachtem Gebrauch oft selbst verwirren. In diesem Sinne miss­ver­ständ­lich war die Formu­lie­rung „Zänke­reien unter den Kindern der Moderne“, die ich am Ende meines Arti­kels über „die Neue Rechte von Arnold Gehlen bis Botho Strauß“ verwendet habe. Beab­sich­tigt war, den poli­ti­schen Streit unter all jenen, die sich in der Tradi­tion des aufklä­re­ri­schen Denkens sehen, von den Posi­tionen der Neuen Rechten abzu­grenzen, die für die Aufklä­rung nur noch ein höhni­sches Lachen übrig hat.

Soweit die gute Absicht. Allein, die Aussage war falsch, denn auch die Neue Rechte gehört fraglos zu den „Kindern der Moderne“.

Damit ist die Antwort auf die Lead-Frage schon gegeben. Im Folgenden verfolgt Sarasin Herkunft und Gebrauch des Begriffes „Moderne“ bzw. „modern“ in der Soziologie (Max Weber), in England und Frankreich seit der französischen Revolution („…ein neues Zeit- oder viel­mehr Gegen­warts­ge­fühl zu formu­lieren; bis in die Mitte des 19. Jahr­hun­derts wurde dieser Ausdruck zum geläu­figen Code­wort für die schnelle Verän­de­rung aller Lebens­ver­hält­nisse.“), im Kommunistischen Manifest (Marx / Engels) und bei Charles Beaudelaire (Moderne als Haltung, ohne tradi­tio­nelles Muster der Lebens­füh­rung, ganz der Gegen­wart, dem Wechsel der Moden zugewandt, 1862) und schließlich bei Michel Foucault, für den gilt: „…diese (moderne) „Praxis der Frei­heit“ achtet zwar, prag­ma­tisch, das Wirk­liche als Realität, tut ihm aber inso­fern auch „Gewalt“ an, als das Subjekt sich selbst und die Welt verän­dern bzw. umge­stalten kann und will. Die Moder­nität, so Foucault, nötige den Menschen „zu der Aufgabe, sich selbst auszu­ar­beiten“ (1984). Auf Immanuel Kant (Aufklärung = „Mut, sich seines eigenen Verstandes zu bedienen“) folgt Jürgen Habermas, für den die vernünftige Gestaltung der Welt Programm und „unvollendetes Projekt“ der Aufklärung ist.

Dieser Geschichte des Begriffs stellt Sarasin die gesellschaftliche Entwicklung seit dem 19. Jahrhundert gegenüber. Sie konterkariert die emanzipatorische Emphase, mit der die Aufklärung zum „Aufbruch aus der selbst verschuldeten Unmündigkeit“ aufruft.

Die Zirku­la­tion von Kapital, Gütern, Menschen, Spra­chen und Zeichen hat Gesell­schaften, Produk­ti­ons­weisen und „Kulturen“ aus ihren tradi­tio­nellen Veran­ke­rungen gelöst und Gewiss­heiten aufge­weicht. Zudem hat die Moderne, wie die Sozio­logen sagen, die „Fremd­re­fe­renzen“ Reli­gion und Natur gekappt: Gesell­schaft­liche Verhält­nisse können nicht länger reli­giös fundiert oder als „natür­liche“ begründet werden.

Die Vernunft selbst wird relativiert und als letzte ‚absolute‘ Bastion der Subjektivität geschleift. Niklas Luhmann bringt das für Sarasin auf den Punkt als „radi­kalen Endpunkt der Moderne“.

Moderne Gesell­schaften sind, so gesehen, ganz auf sich selbst gestellt, und sogar ihre Bindung an die „Vernunft“ musste in den Strudel dieser stän­digen Auflö­sungs­be­we­gung geraten. Niklas Luhmann formu­lierte die unlös­bare Wider­sprüch­lich­keit, in die die Moderne auf diese Weise gerät, eini­ger­maßen scharf (aber nicht nost­al­gisch oder gar reak­tionär): Die Moderne „kennt keine Posi­tionen, von denen aus die Gesell­schaft in der Gesell­schaft für andere verbind­lich beschrieben werden könnte“ – es gibt, mit anderen Worten, keinen Stand­punkt „außer­halb“, keine der Geschichte entho­bene „Vernunft“, von dem aus und mit der sich alle Aussagen gültig beur­teilen ließen. Luhmann folgert daraus: „Es geht daher nicht um Eman­zi­pa­tion zur Vernunft, sondern um Eman­zi­pa­tion von der Vernunft, und diese Eman­zi­pa­tion ist nicht anzu­streben, sondern bereits passiert. Wer immer sich für vernünftig hält und dies sagt, wird beob­achtet und dekon­stru­iert.“

Im Folgenden erörtert Sarasin die stabilisierenden Faktoren westlich-moderner Gesellschaften, durch Demokratie, Marktwirtschaft und Rechtsstaatlichkeit dem Anspruch und den Gefahren der Moderne gleichzeitig – ungleichzeitig zu begegnen. Denn auch die Totalitarismen der „Rasse“ bzw. der „Klasse“ stehen mit ihrem Programm der „Schaffung des neuen Menschen“ in der Tradition der Moderne. Heute werde die „Natur“ und der „Körper“ zu „(Über-) Lebensmythen“, wenn ansonsten „alle meta­phy­si­schen Sinn­be­züge entfallen“. Sarasin endet mit einem Appell, denn wir leben ->

… in der Post­mo­derne – in einem diffusen Zustand nach der Moderne. Wir sind zwar alle­samt Kinder und Enkel der Moderne, aber ohne den Glauben, dass die Welt sich wie auf einem weißen Blatt Papier neu gestalten lasse. Und obwohl uns gerade eine tech­ni­sche Revo­lu­tion fort­reißt, die wir verstehen müssten, erleben gleich­zeitig die Mythen des Volkes, der Natur und des Marktes ein revival, das einen zwingt, den Glauben an die Aufklä­rung nicht aufzu­geben.

Gezwungen zum Glauben an die Aufklärung? – eine merkwürdige Formulierung. An die Aufklärung kann man schlecht glauben, wohl aber an die unter allen Widerwärtigkeiten verborgene Kraft und „List“ der Vernunft. Sie, die Vernunft, die erhellende, emanzipative Funktion des subjektiven Geistes, steht im Zentrum der aufklärerischen Tradition der Moderne. Es bleibt dann doch wieder und ’nur‘ mit Habermas die Zuflucht zur „substanziellen“ Vernunft, die das Projekt der Aufklärung des Menschen als freie Subjekte ihres Handelns und der Freiheit der Subjektivität ihres Denkens fortschreibt. Angesichts der neuen totalitären rassistischen oder nationalistischen „Obsessionen“ ist das keine leichte, aber auch keine falsche Aufgabe.

II

Bei einer zufälligen Lektüre kommt mir ein ganz anderer Text in den Sinn von Eva Hoffmann, Lost in Translation, 1992. Sie beschreibt darin ihre Emigration 1959 als polnische Jüdin und ihr „Ankommen“ als Migrantin in den späten sechziger Jahren in „Amerika“.

Manchmal fühle ich mich getäuscht von dieser Verquickung rigide vertretener Meinungen und proteusartiger Veränderlichkeit, die meine Kommilitonen für mich unfaßbar macht. In den Nebelschwaden von Proklamationen und Argumenten ist es schwer für mich, Moden von ehrlichen Meinungen zu unterscheiden, leidenschaftliche Überzeugungen von defensiven Dogmen. Was denken sie, was fühlen sie, was ist ihnen lieb… [S. 252]

Wie und woran soll man sich in einer zersplitterten Gesellschaft assimilieren? Anpassung an die Zersplitterung? … Ich teile mit den Amerikanern meiner Generation ein akutes Gefühl der Zerrissenheit und die ebenso akute Herausforderung, einen Platz und eine Identität im Leben für mich erfinden zu müssen, ohne daß ich mich auf Traditionen stützen könnte. Man könnte behaupten, die Generation, der ich angehöre, ließe sich dadurch charakterisieren, daß sie sich unverhältnismäßig lange geweigert hat, sich anzupassen – und eben in meiner Entwurzelung bin ich eine Angehörige dieser Generation. Tatsächlich könnte man sagen: Das Exil ist die archetypische Lebensbedingung in unserer Zeit. [S. 253]

Besonders der letzte Satz lässt aufhorchen. Die heute für Millionen Menschen so reale Situation der Migration ist vielleicht die heutige Form eines ‚Lebens im Exil‘, dessen Zerrissenheit und Heimatlosigkeit („Lost in Translation“) Eva Hoffmann beschreibt. Und die scharfe Zerrissenheit der US-amerikanischen Gesellschaft vor 50 Jahren scheint der von heute mehr zu gleichen, als es vielen Heutigen bewusst ist. Das „Exil“, die Migration, die Zerrissenheit zwischen Kulturen, Religionen und Sprachen, die „Nebelschwaden von Proklamationen und Argumenten“, mit heutigen Worten die Wutausbrüche, Hasstiraden, Unflätigkeiten besonders in den Sozialen Medien – all das zusammen verdichtet in den Begriffen von Fremdheit, von Exil, könnte tatsächlich zu den „archetypischen Lebensbedingungen“ unserer Zeit“ gehören. Der aufklärerische Imperativ und die optimistische Hoffnung, dass die Vernunft es schon richten wird, geht ins Leere. Das Vertrauen in die Diskursfähigkeit, also in die grundsätzliche Kompromissbereitschaft und Konsensfähigkeit in unseren Gesellschaften scheint zu schwinden. Nicht erst die „filter bubbles“ der Netzwelten isolieren, sondern reale Sprachlosigkeit zwischen ideologisch eingeigelten Teilen einer Gesellschaft bzw. einer Nation (Brexit) herrscht da, wo die eigene Meinung absolut gesetzt wird und nur die eigene ‚Wahrheit‘ / Weltsicht gilt. Das ist der Kern des Populismus.

Der Populismus arbeitet mit der Konstruktion eines Gegensatzes zwischen dem Volk und den Eliten. Wie es der Politikwissenschaftler Jan-Werner Müller plausibel herausgearbeitet hat, ist der Kern der diversen Populismen ein Alleinvertretungsanspruch. Man artikuliere die wahren Interessen und authentischen Werte des eigenen Volkes, der „kleinen Leute“, der eigentlichen Deutschen, Franzosen, Amerikaner etc. Die Populisten halten sich damit für die eigentlichen Demokraten, für diejenigen, die dem Volk unmittelbar eine Stimme geben. Mit dem ungarischen Ministerpräsidenten Orbán gesprochen, ist das die Form einer illiberalen Demokratie: illiberal im Sinne von antipluralistisch. Aus der Sicht der Populisten braucht man den liberalen Pluralismus, die Artikulation unterschiedlicher Interessen und unterschiedlicher Werte, die Verschiedenheit der Parteien und Verbände, schließlich auch die Pluralität der Medien gar nicht, ja, ist ihnen feindlich gesinnt. Denn es gilt ja: „Wir repräsentieren das Volk.“ [Andreas Reckwitz, Alternativlosigkeit ist Gift]

ZEIT vom 20.01.2019
Flammarion
nach Camille Flammarion, 1888 (CC) Wikimedia

III

Wo also ist das „aufklärerische Projekt“ geblieben? Ist es nur die inzwischen etwas absonderliche Idee einer westlich-liberalen Elite, die sich auf kulturelle Vielfalt beruft und individuelle Selbstermächtigung einfordert über trennende „Zuschreibungen“ hinweg? Es ist ein berechtigter Einwand, denn tatsächlich ist es nur der kleinste Teil der Menschheit, der den Schritt zur radikalen Subjektivität ohne jede „Fremdreferenz“ gegangen ist: Der weitaus größte Teil der Weltbevölkerung lebt in religiösen Traditionssystemen, in traditionellen Familienverbänden, in Beziehung zu allerlei „Fremdreferenzen“, auf die einzurichten und sich damit abzufinden die Lebenserfahrung und Lebensklugheit gebieten, egal ob man nach Lateinamerika, Afrika, Arabien samt muslimischem Gürtel, Indien und China schaut. Russland hat gerade erst die orthodoxe Religiosität als Sinn- und Rechtfertigungssystem re-installiert, nachdem der totalitäre Kommunismus untergegangen ist. Auch in den westeuropäischen und skandinavischen Ländern hat zwar die Bedeutung des Christentums nachgelassen, aber immer noch gehören bei uns in Deutschland mehr als die Hälfte der Bevölkerung einer Kirche an – ganz zu schweigen von der Ausbreitung vielfältiger religiöser und spiritueller Gruppen und Organisationen, welche die frei gewordene Stelle einer „Fremdreferenz“ rasch eingenommen haben. Die freie, selbstbestimmte, multikulturelle Persönlichkeit, die sich in vernunftbestimmter Autonomie stets „neu erfindet“, ist eine Fiktion, die nur im Feuilleton real wird. Ein etwas altertümlicher, aber nichtsdestoweniger richtiger Spruch lautet: „Wirfst du Gott zum Fenster hinaus, kommt schon der Götze zur Tür herein.“ Statt Leerstellen (gekappte Fremdreferenzen) gibt es nun Stellvertreter und Platzhalter: Ersatzfiguren.

Zugespitzt wird der neuzeitliche Zwang, sich selbst erfinden zu müssen, in konstruktivistischen Theorien, die alle Bezüge und Abhängigkeiten, erst recht alle Fremdreferenzen als menschengemachte und interessegeleitete Konstruktionen entlarven. Vor den fake news kommen die fake facts. Die kulturalistische Interpretation kann dann alles und jedes als jeweils zeit- und kulturabhängige Gegebenheit bzw Konstruktion gelten lassen oder rechtfertigen. Was aber geht verloren, wenn der triumphierende Subjektivismus, getarnt als Autonomie, als blanker Egoismus oder rücksichtsloser „Wille zur Macht“, ohne Maß auftritt und ohne Widerspruch bleibt? Die französischen Existenzialisten haben in der ersten Hälfte des vorigen Jahrhunderts ebenfalls als „Kinder der Moderne“ die Sinnlosigkeit der modernen, auf sich allein gestellten Existenz deutlich gemacht (Camus). Die Moder­nität, sagt Foucault, nötige den Menschen „zu der Aufgabe, sich selbst auszu­ar­beiten“, aber funktioniert das wirklich? – Eva Hoffmann schreibt von der Aufgabe, „eine Identität im Leben für mich erfinden zu müssen, ohne daß ich mich auf Traditionen stützen könnte“. Ist das jedem einzelnen Menschen heute eingeschrieben und überhaupt möglich und zumutbar? – „Fremd­re­fe­renzen“ hatten und haben eine enorm stabilisierende und entlastende Wirkung. Es ist sehr die Frage, ob man als funktionale Existenzform zur Selbstkonstituierung und Selbstoptimierung überhaupt menschlich leben und Mensch bleiben kann. Die neuen rechten Bewegungen, die den zwangsweise ‚globalisierten‘, also verunsicherten, entwurzelten und orientierungslosen Menschen so erfolgreich ansprechen können, bieten als Antwort doch genau das alte Rezept der „Fremdreferenz“, die als das eigentlich sinnstiftende Kollektiv die Lücke des Individualismus füllt und Geborgenheit verheißt: Volk, Nation, ‚Rasse‘, Hautfarbe, Fan(atismus). Die multikulturell ausgerichteten global agierenden Liberalen sind ihnen das Feindbild, für das sich wieder einmal der Antisemitismus als Urform negativer, gewaltbereiter Projektionen eignet.

Neuen Schwung für das „Projekt“ oder besser Programm einer aufgeklärten Moderne könnte eine Besinnung auf die alte Dialektik zwischen Freiheit und Bindung verleihen. Man könnte auch an der Kritik Hegels gegenüber dem Aufklärer Kant anknüpfen, letzterer etabliere in seinen Kritiken nur eine verkürzende Verstandes-Rationalität, welche die Vernunft-Rationaliät des Geistes noch nicht eingeholt habe: Das Denken des Absoluten ist das Denken des Absoluten, wie es die Philosophie des Geistes (Hegel) als „absolutes Denken“ durchführen wollte. Nun, wir können und wollen nicht zurück zu alten Aporien und überholten Streitfragen (-> Fichte, Schelling – Marx, Engels usw.) Aber der Hinweis darauf, dass Freiheit, Autonomie, kulturelle Eigenständigkeit und Wertschätzung der Subjektivität samt ihrer Kreativität (und zugleich Borniertheit) nicht im Widerspruch stehen müssen zu „Fremdreferenzen“ und Heteronomien, die unverstanden und unbeachtet ohnehin ihre tatsächlichen mächtigen Wirkungen entfalten. Nation und Weltoffenheit muss ja kein Gegensatz sein, Selbstverwirklichung und Gemeinschaftsbindung ebensowenig. Der Geist der Freiheit und die Freiheit des Geistes sind jenseits der Funktionsaspekte, wie sie Neurowissenschaften beschreiben, durchaus angewiesen auf einen Bezug zu einem Ganzen, Vollkommenen, Absoluten (-> Platon), gegen den abzugrenzen allerst konkrete Freiheit und sich selbst bestimmende (und damit begrenzende) Subjektivität ermöglicht.

Es gibt verschiedene Wege und Ansätze, dieses Ziel eines neo-aufklärerischen Programms zu verfolgen. Es kann die Weiterführung und Fortentwicklung des Gedankens Gottes sein, wie es insbesondere die neuzeitliche Geschichte der christlichen Religion und Theologie überliefert, es kann ebenso gut der Begriff eines „absoluten Geistes“ sein, der philosophisch als erkenntnisleitendes Prinzip und / oder als regulative Idee des Denkens seine Widerständigkeit gegenüber allzu raschen Vereinnahmungen durch eine willkürliche und sich unbeschränkt wähnende Subjektivität beweisen müsste. Der instrumentellen, technischen Vernunft, die heute in der Form algorithmischer Intelligenz (KI) Geltung beansprucht, ebenso wie einer technisch-ökonomischen Rationalität, die macht, was machbar ist, und vermehrt, was vermehrbar ist (Wachstum) wäre dann eine kreative, offene und nachhaltige Vernunft entgegenzusetzen (vielleicht auch zu ergänzen?), die um ihre Grenzen weiß, weil sie sich selber nur als Abbild und Teil eines umfassenden Ganzen des Geistes versteht, nach dem man streben, den man aber nie erreichen und in die Hände bekommen kann. Der Ideologie des modernen homo faber ebenso wie dem postmodernen Konstrukt eines homo globalis oder homo nationalis , also eines seine Identität völkisch und ‚rassisch‘ definierenden Nationalisten oder eines sich selbstoptimierenden digitalen Freelancers , ist nur zu begegnen durch einen Entwurf des Denkens, der die aufklärerische individuelle Freiheit und Menschenwürde verbindet mit einem Denken des Ganzen, das auch die eigenen Grenzen und Abhängigkeiten einbezieht. Dass Menschen „Fremdreferenz“ nötig haben, also den Bezug brauchen zu einer Heteronomie und Totalität außerhalb und unabhängig von eigenem Leben, aktueller Geschichte, digitaler Technisierung und sozialer Bindung an die jeweilige Zeit und Gesellschaft, – das ist nicht zuletzt eine Erkenntnis und ein Erfordernis aus den totalen Brüchen und Katastrophen der (insbesondere westlichen) Moderne.

Etwas erratisch bleibt es bei der Diagnose einer „Dialektik der Aufklärung“. Es ist verwunderlich, dass Philipp Sarasin in seinem eingangs zitierten Beitrag weder diesen Begriff gebraucht noch die gleichnamige Schrift von Theodor Adorno und Max Horkheimer (1944) erwähnt. Im Grunde behandelt sie sein Thema und hat nicht viel von ihrer Aktualität verloren. Besonders der erste Teil über den Zusammenhang von Mythos und Aufklärung gewinnt angesichts der Hanges zu neuen Mythologien (oder der Wiedergeburt alter Mythen) neue Brisanz. Eine Streitschrift aus den vierziger Jahren des 20. Jahrhunderts, unmittelbar während der nationalsozialistischen und stalinistischen Katastrophen geschrieben, ist nicht eins-zu-eins auf das Heute münzen. Man kann sich anregen lassen und ihren wirklichkeitserhellenden Gedankengängen und Kritiken nachspüren. Adorno und Horkheimer jedenfalls wussten etwas von der zerstörerischen Gewalt einer Moderne, die Aufklärung zum Mythos macht und den enthemmten Subjekten totalitärer Herrschaft nationalistischer, rassistischer und technizistischer Ideologien („instrumentelle Vernunft“) freien Lauf lässt. Angesichts der heutigen Populismen wird solches Denken ganz schnell wieder hochaktuell.

Reinhart Gruhn

Wissen und Glauben

 Philosophie, Religion, Vernunft  Kommentare deaktiviert für Wissen und Glauben
Okt 182018
 

Über Vertrauen, Gründe und Meinungen

Vordergründig könnte man denken: Das Thema ist alt und überholt. Wenn sich hinter den beiden Begriffen eine Alternative verbergen sollte, dann ist diese längst entschieden. Das in der modernen Wissenschaft liegende Wissen hat sich als gültig durchgesetzt, der an Religion und Kirche gebundene Glaube ist nahezu irrelevant geworden. Auch die Hinweise auf eine altehrwürdige Tradition einer etwas ausführlicheren und komplizierteren Verhältnisbestimmung hilft da nicht weiter, wo die Frage selber undeutlich und in jedem Falle unbedeutend geworden ist. Dann bleibt allenfalls ein geistesgeschichtliches Thema für Spezialisten übrig.

Hintergründig ist es allerdings so, dass die Frage nach dem Verhältnis von Wissen und Glauben von erheblicher Relevanz und erstaunlicher Aktualität ist. Gerade weil die Frage bloß hintergründig und daher kaum bewusst ist, kann sie Verwirrung stiften, statt ihr Potenzial zur Klärung zu entfalten. Dabei geht es weder um die Bestreitung des Rechtes und der Dominanz rational verantworteter Wissenschaft noch um die Apologie religiös-kirchlicher Bedeutung, sondern um die Klärung gesellschaftlicher Diskurse, die manche Zeitgenossen beunruhigen und die medial eine gewisse Eigendynamik entfaltet haben. „Fake news“ sind in aller Munde, und die Unsicherheit gegenüber wissenschaftlichen Ergebnissen macht sich nicht nur bei Impfgegnern, Veganern und Anhängern sogenannter „traditioneller“ oder ‘alternativer’ Medizin breit. Für ein vermeintlich aufgeklärtes Zeitalter sind wir in vielerlei Hinsicht erstaunlich unaufgeklärt und beharrlich auf Meinungen fixiert. Es ist vielleicht so, dass „Meinungen“ oftmals an die Stelle von „Glauben“, also von religiösen Überzeugungen getreten sind bzw. derzeit ihre aktuelle Erscheinungsform darstellen. Sind Meinungen in Diskussionen ausschlaggebend, dann ist das Interesse an Faktenwissen bereits verloren gegangen: Was ich glaube und meine, zählt. Aus der Frage nach „Wissen und Glauben“ ist dann der Trend vom Wissen zum Meinen geworden.

Marienposten

Marien-Posten im Sauerland – Traditionalismus pur

Nun könnte man einwenden, dass es sich dabei nur um eine medial aufgebauschte Erscheinung handelt, die Randständiges über Gebühr hervorhebe und in den Mittelpunkt der Aufmerksamkeit stelle. Sektiererei habe es eben immer gegeben, und fake news ist nur ein aktuelles Schlagwort derjenigen geworden, die eine vermeintlich einseitige und parteiische Presse oder Medienlandschaft kritisieren. Nicht zu leugnen ist natürlich, dass auch Medien, selbst sich als „Qualitätsmedien“ bezeichnende, nie umfassend und völlig ausgewogen sein können, denn was wäre dafür überhaupt der Maßstab? Es genügt dem Anspruch der Neutralität und der Unabhängigkeit vollkommen, sich als Berichterstatter oder Kommentator an das zu halten, was genaues und unvoreingenommenes Recherchieren als Sache und Fakten herausarbeiten kann. Auch das gerät immer wieder unter den Verdacht des Zweifels, oftmals bewusst geschürt im Interesse anderer, offen oder verdeckter Interessen. Wo es um Fakten und Wissen geht, ist der Zweifel nie fern, das weiß am besten die Wissenschaft selbst, die den methodischen Zweifel, die Überprüfbarkeit, die mögliche Widerlegung und den Versuch der Verbesserung zum Prinzip erhebt. Da liegen dann auf einmal Wissen und Glauben, womöglich auch Wissen und Meinen, gar nicht mehr so weit auseinander. Aber es gibt noch eine grundsätzlichere Überlegung zu diesem ambivalenten Zusammenhang.

Das berühmte Böckenförde-Diktum: „Der freiheitliche, säkularisierte Staat lebt von Voraussetzungen, die er selbst nicht garantieren kann.“ ist viel diskutiert worden, inwiefern es das Eigenrecht der Religion begründe oder inwiefern gerade nicht, wie der Zusammenhang des Zitates wohl nahelegt. In übertragenem Sinn kann dies Diktum auf die Begründung von Wissen und Wissenschaft überhaupt ausgeweitet und angewandt werden. Das Wissen und die Wissenschaft leben von Voraussetzungen, die sie nicht aus sich heraus vollständig begründen können. Man könnte dieses auch als eine Anwendung des Gödelschen Unvollständigkeitssatzes halten: In hinreichend starken widerspruchsfreien Systemen gibt es immer unbeweisbare Aussagen, und: Hinreichend starke widerspruchsfreie Systeme können ihre eigene Widerspruchsfreiheit nicht beweisen. Es mag verwegen erscheinen, diese Grundsätze aus dem Bereich der Logik und der Mathematik, also sehr abstrakten Wissenschaften, auf Politik und Gesellschaft anzuwenden, zumal auf die Frage nach dem Verhältnis von Wissen und Glauben / Meinen. Nun ist die Wissenschaft als solche kein geschlossenes System, im Gegenteil. Die einzelnen Wissenschaften haben oft ihre eigenen Methoden. Man könnte aber an die den Wissenschaften gemeinsamen Prinzipien der Rationalität, Allgemeingültigkeit und Nachprüfbarkeit verweisen., die weder widerspruchsfrei noch vollständig noch abgeschlossen sein müssen. Darum kann die übertragene Bezugnahme auf Gödel nur als Hinweis darauf verstanden werden, dass unser Wissen als Menschen immer sowohl begrenzt als auch vorläufig ist. Es ist begrenzt dadurch, dass Menschen nie aus ihrer subjektiven Perspektive als Einzelne gegenüber dem Ganzen der Welt, dessen Teil sie doch sind, heraus können. Es ist vorläufig, weil alles Wissen auf Theorien und Annahmen beruht, die bestenfalls wohlbegründet, aber niemals absolut gültig sein können. Das Bessere ist der Feind des Guten.

 Man könnte also im Blick auf die Zuverlässigkeit und Vertrauenswürdigkeit unseres Wissens sagen: Unser Wissen, wie genau auch immer es jeweils begründet und gesichert ist, unterliegt einem ständigen Wandel, dem der Mensch als solcher, als Einzelner und als Menschheit insgesamt unterliegt. Das bestbegründete Wissen und die exakteste Wissenschaft beruhen auf der Voraussetzung des Vertrauens in unsere menschliche Rationalität und Erkenntnisfähigkeit, Wahrheit und Irrtum unterscheiden zu können. Sie sind rechenschaftspflichtig über den Erkenntnisweg, müssen also darüber Auskunft geben, welche Annahmen vorausgesetzt und welche Randbedingungen zu beachten sind. Es gibt keine voraussetzungslose Wissenschaft. Auch alles gut begründete und anerkannte Wissen hängt davon ab, dass Menschen davon überzeugt werden können und dass Ergebnisse allgemeine Zustimmung und Anerkennung finden. Das gilt nicht nur für die gesellschaftliche Öffentlichkeit, sondern genauso für die weltweite wissenschaftlichen Community.

Wir leben letztlich mit unserem Wissen und unseren Erfahrungen immer auf der Basis von Glauben und Vertrauen. Wer alles bezweifelt wie der klassische philosophische Skeptiker, muss letztlich auch an sich selbst zweifeln und – verzweifeln. Darum gilt auch die radikale philosophische Skepsis praktisch nur eingeschränkt. Als Alltagsmenschen können wir erst Recht ohne guten Glauben und ohne vorausgehendes Vertrauen kaum leben, kaum einen einzigen Tag bestehen. Bestenfalls kann es darum gehen, uns klar zu werden über die jeweiligen Voraussetzungen, Grundannahmen, Prägungen, Vorlieben und Wertschätzungen, die uns als Personen ausmachen und leiten. Dazu können die Religionen und Philosophien helfen, soweit sie dem Menschen dazu dienen, seine Selbsterkenntnis zu fördern und seine Selbstbegrenzung anerkennen zu können. Dazu kann aber vor allem der kritische Umgang mit Wissensansprüchen dienen, die nie ungeprüft übernommen werden dürfen, soweit das jeweils möglich ist. Je wichtiger uns bestimmte Aspekte des Wissens und Arten des Erklärens sind, desto genauer werden wir uns der Vertrauenswürdigkeit, Reichweite und Gültigkeit einer Theorie oder wissenschaftlichen Erkenntnis vergewissern. In medizinischen Fragen ist es deswegen ohnehin üblich, bei schwierigen Entscheidungen mindestens „zwei Meinungen“ einzuholen. Das gilt eigentlich generell, und nur aus praktischen Gründen stützen wir uns meist zusätzlich oder ersatzweise auf unsere Lebenserfahrung.

Das Bemühen um genaues Wissen und um exakte Fakten bleibt unaufgebbar. Subjektivismus und Konstruktivismus, irrationale Willkür und Scharlatanerie sind die zu vermeidenden Gefahren an den Rändern der Wissenschaft. Aber auch die kühnsten Theorien lassen Fragen offen und zeigen sich als unvollständige Theorien und Modelle. Sogar das „Standardmodell“ der Elementarteilchenphysik, bestens bewährt, hat offenbar seine Grenzen. Dennoch sind Rationalität und nachvollziehbare Methodik, Kritik und Aufklärung die einzigen Mittel, Wissen zu erwerben und unsere Welt zu erkennen. Das ist die Voraussetzung dafür, dass auch unsere Meinungen wohl begründet sind und Vertrauen erwecken. Denn auch Glaube und Vertrauen suchen Erkenntnis und Einverständnis („fides quaerens intellectum“).

Reinhart Gruhn

Rätsel der Einfachheit

 Mensch, Natur, Philosophie, Wissenschaftstheorie  Kommentare deaktiviert für Rätsel der Einfachheit
Aug 282018
 
Im früheren Beitrag Einheit und Vielfalt wurde schon darauf hingewiesen, dass durch eine Theorienreduktion zwar eine Vereinheitlichung der Wissenschaft angestrebt wird, aber der Begriff Reduktion zugleich unscharf und problematisch ist. Erhard Scheibe hat in seinem Buch „Die Reduktion physikalischer Theorien. Ein Beitrag zur Einheit der Physik“ (1997) die vielleicht gründlichste Aufarbeitung des Begriffs Reduktion für den Bereich der Naturwissenschaften am Beispiel der Physik vorgelegt. Zunächst soll daher das Anliegen seines Buches dargestellt werden.

Einige „Rätsel“ der Natur zeigen eine bisher unverstandene Einfachheit, die offenbar der Einheit und Vielfalt der Natur zugrunde liegt. Wie aber kann der Zusammenhang von Einheit und Einfachheit gedacht werden und was verstehen wir eigentlich unter ‚Natur‘?

I.

In seiner Exposition des Problems stellt Erhard Scheibe das Problem der sogenannten „großen“ programmatischen Reduktionen zum Beispiel der Chemie oder der Biologie auf die Physik fest:

Wiederum würde aber eine Resümierung dieser Ergebnisse als einer Reduktion der Biologie auf Physik und Chemie die Sachlage eher verschleiern als aufklären. Wie schon im Falle der Mechanisierung der Physik würde eine solche Zusammenfassung der mühsam errungenen molekular-biologischen Erfolge deren nun erreichten wissenschaftlichen Standard durch die Heranziehung von noch nicht hinreichend durchdachter reduktionistischer Begrifflichkeit wieder aufs Spiel setzen. Es ist viel zu unklar, welches bei derart unqualifizierten Reduktionsbehauptungen schon die Reduktionspartner sind, ganz zu schweigen, was unter der jeweiligen Reduktion selbst verstanden werden soll. Schon die generalisierende Analyse von Phänomenen – die Theoriebildung – ist eine Art Reduktion der Phänomene auf eine Theorie. Man kann Sprachen auf andere Sprachen reduzieren, Theorien auf andere Theorien, Gegenstände auf andere Gegenstände, aus denen sie bestehen, – all dies fließt unkontrolliert in die allgemeine Diskussion um diese Reduktionen ein und läßt kaum erkennen, worum es überhaupt gehen soll. [Scheibe, S. 2f.]

Darum möchte Scheibe „die grandiosen Perspektiven, wie sie durch eine Reduktion
der Chemie auf die Physik, der Biologie auf die Chemie oder gar der Psychologie
auf die Physik gegeben sind, zunächst einmal ganz auszuklammern.“ Deswegen beschränkt er sich auf den Bereich der Physik und darin auf eine präzise Durchführung einer „rationalen Rekonstruktion“ des Reduktionsbegriffs, ausgeführt also als „Theorienreduktion, … also Reduktionen, durch die Theorien auf andere Theorien reduziert werden.“ [S. 3]

In diesem inhaltlich auf die Physik eingeschränkten und methodisch rekonstruktionistisch eingestellten Rahmen ist das eigentlich Neue, das den Leser in diesem Buch erwartet, zum einen eine in der Literatur bisher nicht nachweisbare Theorie der Reduktion, also genauer eine Metatheorie der Reduktion physikalischer Theorien, und zum anderen eine besonders ausführliche Exemplifikation des Reduktionsproblems. [S. 3]

Das führt Scheibe zu einer Zweiteilung des Buches, wobei der zweite Teil den ausführlichen Beispielen gewidmet ist – mathematisch und physikalisch sehr anspruchsvoll. Nicht weniger anspruchsvoll ist der erste Teil, in dem er seinen Reduktionsbegriff entfaltet und immerhin mit einigen ausgeführten Beispielen erläutert. Für seine theoretische Rekonstruktion stellt er fest:

Ihre Neuheit besteht darin, daß der sonst übliche Versuch, in den Mittelpunkt einer solchen Theorie einen für alle Einzelfälle verbindlichen allgemeinen Begriff der Reduktion zu stellen, ersetzt wird durch die Auffindung unterschiedlicher, möglichst spezieller, nicht mehr echt zerlegbarer Reduktionsarten, durch deren Kombination  (Hintereinanderausführung) dann weitere Reduktionsarten gebildet werden. [S. 3]

Dieser „synthetische (oder: rekursive) Aufbau des Reduktionsbegriffs“ vermeidet einen vorgängigen Allgemeinbegriff von Reduktion, den es dann auf die Einzelfälle und Beispiele herunterzubrechen und abzuwandeln gelte. Sein mehr induktiver Ansatz führt Scheibe von vornherein zu einem mehrfach gegliederten und in sich differenzierten Begriff von Reduktion und verschiedenen Reduktionsarten. Das „Iterative“ zeigt sich darin, dass zur Beschreibung einer bestimmten Theorienreduktion verschiedene reduktive Schritte unterschiedlicher Arten nacheinander unternommen werden müssen, um den exakten Vorgang der Übersetzung einer Ausgangstheorie in ihre Zieltheorie auch mathematisch korrekt zu beschreiben. Es ist der mühsame Weg über das konkrete Einzelne, um der Genauigkeit einer gewissen Verallgemeinerung willen. „Im übrigen erfolgt der hier bevorzugte synthetische Aufbau des Reduktionsbegriffs unbeschadet der allgemeinen Leitidee, daß eine physikalische Theorie durch Reduktion im Prinzip entbehrlich oder überflüssig oder redundant gemacht wird durch eben die Theorie, auf die sie reduziert wird.“ [S. 4]

Zwei weitere Problembereiche werden benannt und in der Durchführung seiner Arbeit zumindest gestreift oder teilweise erfüllt. Zum einen geht es um den Nachweis, dass physikalische Reduktionen auch einem empirischen Fortschritt darstellen und sich dadurch bewähren müssen. Die Schwierigkeiten zu zeigen, dass eine Nachfolgetheorie „vollinhaltlich“ die frühere Theorie ersetzen sollte, haben bereits Feyerabend und Kuhn 1) unter dem Stichwort „semantischer Inkommensurabilität“ beschäftigt. – Zum anderen verweist Scheibe auf den „Typ einer ontologischen Reduktion“, wenn „die Gegenstände der reduzierten Theorie aus den Gegenständen der reduzierenden in irgend einem Sinne bestehen.“ [S.5] Klassischer Fall dafür ist die Tradition des Atomismus, die sich heute in dem Schichtenmodell der Elementarteilchen wiederfindet. Hier will Scheibe im Konkreten nachfragen und dabei auch prüfen, wieweit „andererseits anti-reduktionistische Vorstellungen von Ganzheit und Emergenz zu rechtfertigen sind“. [S. 5]

Die grundlegenden Reduktionsarten nach Scheibe sind die exakten und die approximativen Reduktionen 2). In zusammengesetzten Reduktionen, also dem Normalfall, kommt exakten Reduktionen (Punkt-zu-Punkt-Ersetzung durch Verallgemeinerungen oder Äquivalenzen 3)) eine besondere Bedeutung zu. Ein Reduktionsverfahren ist allerdings insgesamt approximativ, wenn auch nur auf einer Stufe eine approximative Reduktion vorkommt. Insgesamt decken die approximativen Reduktionen den größten Bereich ab. 4) Eine größere Bedeutung kommt in der Praxis der Physik aber einem Bereich zu, den Scheibe gar nicht mehr den eigentlichen Reduktionen und Erklärungen zurechnet, nämlich dem Bereich der „partiellen Reduktionen“. Hier hinein gehören die Grenzfall-Reduktionen (z.B. Newton-Mechanik als Grenzfall der Quantenmechanik) und all diejenigen Fälle, in denen nur teilweise Reduktionen (micro-reductions) möglich sind. „Es kommt hinzu – und hier geht es, wenn überhaupt, nur noch um eine Konzession an das menschliche Erkenntnisvermögen -, daß in der Entwicklung der Physik eine Theorie durch eine andere ersetzt und wirklich verbessert werden könnte, auch ohne daß sich erstere auf letztere total reduzieren läßt.“ [S. 8]

Ein schönes Beispiel für Scheibes Vorgehen ist sein Modell des geschlossenen bzw. offenen Reduktionsquadrates innerhalb des Gebietes der partiellen Reduktionen.

gschlossenes Reduktionsquadrat

Das geschlossene Reduktionsquadrat

Angenommen Σ und Σ‘ sind die Axiome je einer Theorie T bzw. T‘, und es ist Σ auf Σ‘ approximativ (und total) reduzierbar. Wenn nun eine Aussage β aus Σ und eventuellen Zusatzannahmen ableitbar ist, so wird man vermuten, daß es eine in demselben Sinne aus Σ‘ gewinnbare Aussage β‘ gibt, welche im Lichte der (totalen) Reduktion von Σ auf Σ‘ die Verbesserung von β in Σ‘ ist. Sofern β und β‘ ebenfalls als Axiome selbstständiger Theorien gelten können, wird nun auch β auf β‘ approximativ reduzierbar sein. Und insofern dies gilt, wird Σ auch partiell, nämlich eben durch die Reduktion von β auf β‘ reduziert sein. [S. 207]

 

offenes Reduktionsquadrat

Das offene Reduktionsquadrat der ,echten‘ partiellen Reduktionen

Hier fehlt also die Angabe einer direkten Reduktion von Σ auf Σ‘, und wir erfahren nur, daß ein ,Ergebnis‘ β von Σ auf ein ,Ergebnis‘ β‘ von Σ‘ (approximativ) reduzierbar ist – allerdings auch hier in der Weise, daß β‘ das ,Ergebnis‘ von Σ‘ ist, welches β in Σ entspricht und also zugleich die Verbesserung von β in Σ‘. In diesem Sinne wäre hier Σ auf Σ‘ also nur partiell reduziert, nämlich in Gestalt der Reduktion von β auf β‘ in ihrer Rolle innerhalb Σ bzw. Σ‘. Das Offenlassen einer direkten Reduktion von Σ auf Σ‘ kann den Grund haben, daß man keine kennt, möglicherweise auch den, daß es keine gibt. [S. 212]

Dies offene Reduktionsquadrat als Modell einer partiellen Reduktion führt Scheibe am Beispiel der Reduktion der klassischen Mechanik auf die Quantenmechanik durch. Uns genügt an dieser Stelle der bloße Hinweis. Mit diesem ‚Umweg-Modell‘ des offenen Reduktionsquadrates gelingt es Scheibe, die in der Physik häufig vorkommenden teilweisen oder nur näherungsweisen Reduktionen zu fassen. Es sind Erklärungen, die in der einen (alten) Theorie gegeben sind und besseren Erklärungen entsprechen, die zu einer neuen Theorie führen. In jedem Falle muss die Durchführung exakt erfolgen und mathematisch quasi Zeile für Zeile rekonstruiert werden können. Nur auf diesem Wege gelingt es Scheibe, einen präzise bestimmten Begriff von Reduktionen zu gewinnen – ein aufwendiges, aber lohnendes und überzeugendes Programm. Scheibe zeigt sehr detailliert, was der Reduktionsbegriff in der Physik tatsächlich leisten und was er nicht leisten kann: Er leistet eine fundierte Kombination, In-Beziehung-Setzung und ‚Rückführung‘ von einzelnen, grundlegenden Theorien aufeinander und erweitert, verbessert, verfeinert unser Verständnis physikalischer Gegebenheiten und Erklärungsmodelle. Er leistet dagegen nicht, uns eine einfache Super-Theorie an die Hand zu geben, mit der alles erklärt und verstanden werden kann.

II.

Zweifellos führen Reduktionen zu einer Vereinheitlichung und Vereinfachung naturwissenschaftlicher Theorien, auch wenn die Durchführung im Einzelnen zu mehr Komplexität führen mag (z.B. quantenmechanische versus klassisch mechanische Beschreibung). Zusammenhänge und reduktive Interdependenzen aufzuzeigen und zu belegen, ist schon für sich genommen ein Schritt hin auf eine vereinheitlichte Sichtweise natürlicher Gegebenheiten. Genau aus diesem Grunde übt der Physikalismus solch eine Faszination aus. Dennoch macht Scheibes Darstellung physikalischer Reduktionen klar, dass der Traum vieler Wissenschaftsphilosophen und Erkenntnistheoretiker von einer einfachen, begrifflich klaren Theoriebildung über die Wirklichkeit der Natur eben nur ein Traum ist. Jede neue allgemeine Theorie mag zwar auf der mathematischen Ebene der Beschreibung an Abstraktion und insofern an ‚Vereinfachung‘ gewinnen, auf der semantischen Ebene aber und erst recht auf der Ebene experimenteller Überprüfung wird sie komplexer, differenzierter und eben schwieriger sein. Etwas Ähnliches findet sich auch bei den rekursiven Algorithmen des Maschinen-Lernens („KI“), deren Ausführung von äußerster Komplexität ist, so dass sie kaum mehr wirklich nachvollzogen werden kann. Aber bleiben wir bei der Physik: Was bedeutet es, dass die wissenschaftliche Beschreibung und Erklärung der Vorgänge in der Natur (Physis) zunehmend komplexer und ambivalenter wird (zum Beispiel bei der Quantenthermodynamik; bei Verschränkung und Superposition), wohingegen die Natur doch als solche, also nicht wissenschaftlich analysiert, sondern alltäglich erlebt, ganz einfach ist?

Auch für den Physiker wird die Beschreibung der Natur dann ‚ganz einfach‘, sofern er sich auf die Gegebenheit von Naturkonstanten bezieht. Fundamental sind im Grunde nur wenige, wenn man die abgeleiteten Fassungen weiterer Konstanten außer Acht lässt, dazu gehören die Lichtgeschwindigkeit, das plancksche Wirkungsquantum, die Gravitationskonstante und die Feinstrukturkonstante. Diese Konstanten sind räumlich und zeitlich unveränderlich und liegen allen Vorgängen in Raum und Zeit zugrunde 5). Zusammen mit der Feinabstimmung (anthopic coincidence) ‚vereinfachen‘ sie die Sicht auf die Vorgänge in unserem Kosmos. Auch das anthropische Prinzip 6) kann zwar als eine erkenntnistheoretische Restriktion verstanden werden, macht aber die Erkenntnis dessen, was in der Natur ist, aus menschlicher Sicht (aus welcher auch sonst?) einfacher. Dennoch aber ist die nicht nur mathematische Abstraktion und Komplexität physikalischer Theorien unermesslich im Vergleich zur alltäglich erlebten und erfahrenen Wirklichkeit der Natur. Man könnte sich fast wundern, dass alles so einfach passiert, was Naturwissenschaftler so umfangreich und kompliziert beschreiben und zu erklären suchen.

Gerade die biologische Natur, die sich als wissenschaftlich äußerst komplex, immer wieder überraschend variationsreich und zum Teil noch unerklärlich erweist, existiert einfach so und hat sich ‚einfach so‘ entwickelt. Zur Bestimmung dessen, was Leben biologisch bedeutet, ist es nötig, von Zellen, Stoffwechsel, Fortpflanzung zu reden. Wir können zwar recht gut beschreiben, was eine Zelle ist und wie sie funktioniert, aber wie es zu dieser Trennung von einem Außen und einem Innen gekommen ist, wissen wir kaum. Man kann den Metabolismus als Etablierung eines Fließgleichgewichtes am entropischen Limit beschreiben (Josef Reichholf) und die Fähigkeit zur Fortpflanzung als evolutionäre Kraft der Veränderung unter den Bedingungen größter genetischer Variabilität und Funktionalität begreifen, – all das steht in keinem Vergleich zur herrlichen Einfachheit der Schlafens und Erwachens, des Essens und Trinkens und der sexuellen Erfüllung. Zum Menschsein gehört gewiss mehr als diese basalen biologischen Grundgegebenheiten, aber ohne sie ist auch alles weitere in der Entwicklung des Geistes und der Kultur nicht möglich. Menschliches Leben ist zunächst einmal von Geburt an das Einfachste, was es gibt – Man lebt, das Baby trinkt an der Brust – , auch wenn die Einbettung in soziale Gegebenheiten sogleich zu etwas Komplexeren gehört: arm oder reich geboren zu sein, krank oder gesund usw. Dass Natur ‚einfach so‘ funktioniert, weckt immer wieder Erstaunen und lässt uns von den „Wundern der Natur“ sprechen. Umgekehrt lässt es erschrecken, wenn durch menschliche Eingriffe scheinbar unbedeutender Art Naturprozesse nachhaltig verändert und uns bedrohlich werden können. Das gilt nicht nur für den Klimawandel. Im Blick auf die gesamte Geschichte der Evolution des Lebens, soweit wir sie überblicken, gilt jedoch zuerst dies: Wäre sie nicht einfach möglich gewesen, gäbe es Natur und Mensch nicht. Uns gibt es aber ganz einfach! Einfach ist hier deswegen das rechte Wort, weil etwas, das faktisch gegeben ist, einfach da ist. Wäre es schwierig oder unmöglich, gäbe es uns nicht oder sogar nichts.

Blumen

Bauerngarten (c) R. Gruhn

Die Einfachheit natürlicher Gegebenheiten von Sonne, Mond und Sternen, Blume, Tier und Mensch hat die Romantiker beflügelt. Das Ideal des „einfachen Lebens“ lässt sich von den Vorsokratikern über die Stoiker bis hin zu den Bio-Anhängern eines ’natürlichen ländlichen Lebens‘ verfolgen. Unsere eigene Erinnerung an die Kindheit mag da, wo sie heil und gut gewesen ist, eben auch die Erinnerung an ein einfaches, unbelastetes und unkompliziertes Leben sein. Dunkle Seiten werden zum Glück leichter vergessen, solange sie nicht traumatisch waren. Der Hinweis auf die Romantik oder auf bestimmte Ideale zeigt aber schon, dass die Wirklichkeit des erlebten Lebens meist gar nicht mehr einfach ist. Individualgeschichtliche Prägungen und soziale Zusammenhänge stellen uns in ein Leben voller komplizierter Verhältnisse und Herausforderungen. Das Einfache wird oft zum reinen Wunschtraum. Das ‚Einfach leben‘ ist überhaupt nicht einfach, wenn man es auf seine Ursachen, Zusammenhänge und naturgegebenen Bedingungen hin untersucht, wie es die Naturwissenschaften umfassend, gründlich und erkenntnisreich tun, und es ist ebensowenig einfach, wenn man es in seinen kulturellen und sozialen Zusammenhängen und Interaktionen betrachtet, immer wieder infrage gestellt von einer ungewissen Zukunft.

III.

In beiden Blickrichtungen erscheint das zunächst Einfache als sachlich komplex bzw. faktisch kompliziert. Die Natur selbst erweist sich bei näherer Betrachtung als äußerst ambivalent. Natur als das dem menschlichen Bereich der Gestaltung Gegenüber- und Entgegenstehende gibt es gar nicht (oder kaum) mehr. Alles, was wir als Natur bezeichnen, ist im Grunde schon kulturell geprägt oder irgendwie anthropoid infiziert. Das gibt dem Ausdruck „Anthropozän“ für unser Zeitalter einiges an Berechtigung. Nur Vulkanismus (und damit verbundene Beben) sowie der weitere extraplanetare Raum sind noch Natur im Sinne von: existieren unabhängig von menschlicher Beeinflussung. Abgesehen davon ist unsere vorfindliche Natur weitgehend Kultur-Natur. Selbst auf Abraumhalden und in Wüsten und an den Polen zeigt sich die Prägekraft des Menschen. Im Klimawandel scheint sich zum ersten Mal eine menschlich verursachte Veränderung global zu manifestieren und global zurückzuschlagen. Die Natur, die wir lieben und gerne aufsuchen, ist der Garten, der Park, der Wald (Forst), in dem es kleine Räume als „Urwald“ geben mag, und auch Präsident Putin präsentiert sich in der sibirischen Taiga nicht mehr im Raum unberührter Natur.

Gerade im Bereich der Forschungen zum Klimawandel zeigt sich die Komplexität der zu untersuchenden Phänomene und der Daten über lange Zeitreihen hin, die insgesamt nur mit Superrechnern simuliert und in Szenarien dargestellt werden können. Naturphänomene wissenschaftlich zu erforschen, bedeutet die Konfrontation mit dieser doppelten Komplexität: komplexe Grundlagen in der theoretischen Basis, komplexe Auswirkungen und Verknüpfungen in dem zu erhebenden Datenbestand. Hier stellt sich das Problem der natürlichen und kulturellen Komplexität in besonderer Weise, sofern für die notwendigen Computersimulationen sowohl hinsichtlich der Ausgangsdaten als auch hinsichtlich der Anwendung der Algorithmen Reduktionen und Eingrenzungen erfolgen müssen, um aussagekräftige Ergebnisse zu erhalten. Die Ergebnisse müssen dann erst aufgearbeitet, interpretiert und in einem bestimmten Rahmen dargestellt werden, um verstanden zu werden und an die Öffentlichkeit gelangen zu können. Eine ziemlich radikale Vereinfachung ist nötig, sollen die Forschungsergebnisse für den einzelnen Bürger fassbar und für sein Verhalten relevant erscheinen und für die Politiker instrumentalisierbar umgeformt und als Motivation zum Handeln eingesetzt werden. Wieviel Bohren dicker Bretter hierbei erforderlich ist, zeigt die öffentliche Diskussion fast täglich.

Unser Ausgang war die Frage nach dem Zusammenhang von Einfachheit und Vielfalt. Zugespitzt auf das Verhältnis von Einfachheit und Komplexität finden wir als Ergebnis, dass es im Grunde komplementäre Perspektiven sind. Wir leben in relativ ‚einfachen‘, will sagen überschaubaren Verhältnissen und Bezügen, weil wir das Leben sonst gar nicht bewältigen könnten. Die Frage nach Ursachen, Zusammenhängen, Auswirkungen und Handlungsmöglichkeiten führt sofort in ein Feld von äußerster Komplexität hinsichtlich der theoretischen Voraussetzungen und der faktischen Möglichkeiten. Dabei ist ein Rückbezug auf das Einfache, Vereinfachte unabdingbar, soll es zu Verständnis sowie Vernunft und Interessen abwägendem Verhalten kommen. Wenn ein Sachverhalt nicht einfach dargestellt werden kann, ist noch nicht verstanden; wenn eine Handlungsmöglichkeit nicht in einzelnen Schritten operationalisiert werden kann, wird es nie zur beabsichtigen Handlung kommen. Dieses Verhältnis von Einfachheit und Komplexität ist nicht neu und im Grunde auch nicht sonderlich interessant.

Anders sieht es aus, wenn nicht nach Komplexität, sondern nach Vielfalt gefragt wird. Das Vielfältige ist sowohl im Bereich der Theorien und Gründe als auch im Bereich der Ursachen und Praktiken zu finden. Wieviel ‚Einfältiges‘ das Vielfältige beinhaltet, wäre noch einmal eine weitere Frage. Hier reicht die Aussage, dass das Vielfältige das Eine und eben Vieles enthält und Vielfalt ebenso die Voraussetzung wie die Folge von Einheit ist. Leben ist nicht eindimensional, und erst Vielfalt der Lebensmöglichkeiten macht uns als Einzelne zu lebendigen und aktiven Personen. Ebenso ist unser Wissen vielfältig, und jede Wissenschaft lebt davon, viele unterschiedliche Ideen, Anstöße, Modelle, Theorien einzusetzen und zu überprüfen. Wird unser Wissen einfach im Sinne von einfältig, eindimensional, dann ist das Ergebnis Dogmatismus und Stillstand. Ist unser Leben einsam und einfältig, dann verkümmern wir, isolieren uns vielleicht stattdessen in einer Gruppe gleich Einfältiger zu einer Gemeinschaft der Verschworenen: gegen die anderen, gegen die Offenheit, Neuem zu begegnen und Vielfältiges zu lernen. Viele ultrarechte und identitäre 7) Denk- und Verhaltensweisen scheinen mir an dieser einseitigen Einfalt und Angst, an einer ideologischen Vereinsamung und Vereinfachung zu liegen. Dabei ist der Mensch schon in sich selber vielfältig, existiert er doch von Anfang an als soziales, auf andere hin sich orientierendes und erst darin sich selbst konstituierendes Lebewesen (vgl. Volker Gerhard). Darüber hinaus besteht persönliches Leben nur als Leben in fortwährender Veränderung, sowohl für sich selbst als auch in den eigenen sozialen Bezügen. Man lebt verschiedene Leben, sowohl in zeitlicher (diachron) als auch in rollenmäßiger (synchron) Verschiedenheit und Vielfalt. „Wer bin ich und wenn ja wie viele“ (Richard David Precht) hat das in seinem Buchtitel populär auf den Begriff gebracht. Vielfalt ist offenbar die Bedingung dafür, dass sich der Mensch als Person und soziales Subjekt konstituiert und weiterentwickelt. Die Einheit und Einfachheit gilt es immer neu zu gewinnen. Sie ist nicht ‚einfach‘ vorhanden. Vorhanden ist das Viele, die Vielfalt, manchmal auch das Durcheinander. Erst Orientierung im Leben und Ordnung im Wissen, gerade auch durch Reduktionen, bringen in der unübersehbaren Vielfalt der Wirklichkeit das Einfache zutage.

Reinhart Gruhn

 

Anmerkungen

  1. Paul Feyerabend, Wider den Methodenzwang, 1976; Thomas S. Kuhn, Die Struktur wissenschaftlicher Revolutionen, 1973 [zurück]
  2. „Reduktion wörtlich verstanden im Sinne von ,Zurückführung'“ Scheibe S. 38 [zurück]
  3. siehe Scheibe Kapitel IV [zurück]
  4. siehe Scheibe Kapitel V [zurück]
  5. siehe dazu die Diskussion über mögliche Veränderungen dieser Konstanten und über die sog. Feinabstimmung, zum Beispiel bei Wikipedia. [zurück]
  6. „Das anthropische Prinzip besagt, dass das beobachtbare Universum nur deshalb beobachtbar ist, weil es alle Eigenschaften hat, die dem Beobachter ein Leben ermöglichen. Wäre es nicht für die Entwicklung bewusstseinsfähigen Lebens geeignet, so wäre auch niemand da, der es beschreiben könnte.“ Wikipedia [zurück]
  7. Die Bezeichnung „Identitäre“ deckt zwar je nach Ländern unterschiedliche politische Erscheinungen ab, hat aber generell den Selbstbezug des Einzelnen auf sich und das eigene ‚Volk‘ als unveränderbar zum Inhalt. Wikipedia [zurück]

Einheit und Vielfalt

 Geist, Naturwissenschaft, Philosophie, Wissenschaft  Kommentare deaktiviert für Einheit und Vielfalt
Jun 012018
 
Seit Langem gibt es das Bemühen, eine „Theorie von allem“, TOE (theory of everything) aufzustellen. Das kann sich im engeren Sinne auf die Physik beziehen, wo darunter eine Vereinheitlichung nicht nur der Teilchenphysik (was als gelungen gelten kann), sondern vor allem der vier Grundkräfte verstanden wird. Die „Weltformel“ spukt dann und wann als Thema des Feuilletons durch die Medien. Sodann gilt es, ganz allgemein gesprochen ‚Relativitätstheorie‘ und ‚Quantenphysik‘ miteinander auszugleichen, was zugleich die Frage nach der Alternative von kontinuierlichem oder diskretem Verständnis der Materie aufwirft. Über die Physik hinaus gibt es aber auch in der Erkenntnistheorie das Streben nach Vereinheitlichung, hier verstanden als Vereinheitlichung der Wissenschaft. Im angelsächsischen Raum ist dies zumeist als Votum für den physikalistischen Naturalismus gemeint. Aber auch der kontinental-europäische Strukturalismus und erst recht das Theorienensemble unter dem Oberbegriff „Systemtheorie“ wollen einen einheitlichen Zugang zur wissenschaftlichen Welterkenntnis bieten. Dem stehen Konzepte des Pluralismus sowohl der Methoden als auch der wissenschaftlichen Grundüberzeugungen gegenüber, teils aus liberalem, teils aus mehr skeptischem Antrieb. Dennoch ist das Streben nach Vereinheitlichung stark und zeigt sich in der lang andauernden Auseinandersetzung mit Reduktionismus-Konzepten insbesondere (aber nicht nur) im Bereich der Hirnforschung im Verhältnis zur Philosophie des Geistes; was Konzepte und Ziele betrifft, geht Letztere gewiss über das hinaus, was enger gefasst unter theory of mind verstanden wird.

Seerose

Seerose (c) R.G.

Was macht die Faszination der „Vereinheitlichung“ aus? Warum sind Menschen bestrebt, eine einheitliche, wissenschaftlich begründete Weltsicht zu präsentieren – einmal vorausgesetzt, es ließe sich überhaupt sachgerecht über „die Welt“ reden (was Markus Gabriel bestreitet). Ist es das rational verständliche Bemühen, Widersprüche zu vermeiden? Widerspruchsfreiheit ist gewiss für die Theorienbildung, für jede Theorie in sich erstrebenswert oder gar notwendig (unter Voraussetzung zweiwertiger Logik), aber ist es ebenso wünschenswert und „notwendig“, ein einheitliches theoretisches Dach zu postulieren oder zu schaffen, unter dem sich alle Theorien anderer Ansätze und Sachgebiete vereinheitlicht und widerspruchsfrei versammeln können? Nun kann ja Vereinheitlichung zunächst als Verbesserung und Korrektur angesehen werden. Der Fortschritt in den Naturwissenschaften vollzog und vollzieht sich mit ganz erheblichen Veränderungen in den Basistheorien, sodass manche älteren Theorien gänzlich verändert und aufgehoben werden. Ein solcher „Paradigmenwechsel“ (Kuhn) ist aber vermutlich seltener als angenommen, denn meist wirken Teile einer alten Theorie in einer neuen fort, umso mehr, wenn die ältere Theorie einen leichteren Zugang zur Erklärung empirischer Befunde im ’normalen‘ Bereich bietet (klassische // relativistische Physik). Die lange Diskussion über Reduktionen zeigt, wie schwierig es ist, überhaupt einen einheitlichen Reduktionsbegriff zu formulieren und an vorhandenen Theorien zu bewähren. Allein im physikalischen Bereich muss man da schon sehr vorsichtig sein ob der Vielfalt der Formen solcher Vereinheitlichungen bzw. Reduktionen (vgl. Erhard Scheibe). Unproblematisch ist es offenbar dort, wo Theorien sowohl in ihren Grundlagen als auch in ihren Auswirkungen auf Anwendungsbereiche Verbesserungen, Verfeinerungen, Anpassungen darstellen. Die Naturwissenschaften in ihren verschiedenen Fächern verfahren da ziemlich pragmatisch und instrumentell, was die Anwendung unterschiedlicher Theorien angeht. Dabei ist es wesentlich, zu unterscheiden zwischen epistemologischen Ansätzen und ontologischen Ansprüchen: Geht es jeweils „nur“ um die Verbesserung, Verfeinerung, Veränderung von Theorien, insbesondere in ihren mathematischen Formulierungen auf der Ebene gedanklicher Konstruktion, oder steht jeweils die möglicherweise dahinterstehende Ontologie zur Debatte, und meint dann Vereinheitlichung nicht nur die der Theorien, sondern die Vereinheitlichung der Wirklichkeit? Dann kommen sehr schnell Weltbilder ins Spiel, die als metaphysische Voraussetzungen und Grundannahmen unausgesprochen Regie führen. „Physikalismus“ meint als Sammelbegriff eben mehr als nur eine Theorienreduktion, der Begriff bezeichnet faktisch die Weltanschauung der Reduktion aller Dinge (der Welt) auf die Grundeinheiten und Axiome der Physik. Eine solche ontologische „Vereinheitlichung“ ist sicher in hohem Maße problematisch und kaum überzeugend darzustellen.

 

Noch einmal: Was macht dennoch die bleibende Faszination der „Vereinheitlichung“ aus? Eine mögliche Antwort hängt damit zusammen, wie sich der Mensch in der Welt verortet, wie er sich ’seine‘ Welt aneignet und wie er mit seiner gedanklichen, geistigen Arbeit Erkenntnis gewinnt und die Welt strukturiert. Dabei ist es zweifellos so, dass der Mensch mit seinem Gehirn denkt und alle geistige Arbeit verrichtet. Strittig wird es erst, wenn Mentales, hier im weiteren Sinne verstanden als geistige Aktivität, auf neurophysiologische Prozesse ‚reduziert‘, womöglich mit ihnen identifiziert wird. Hier reicht es jetzt aus, die unauflösliche Verbindung von Denkprozessen mit Hirnvorgängen festzustellen, ohne weiterhin zu klären, wie das im Einzelnen zu beschreiben ist (z. B. Supervenienz). Stirbt der Mensch, versagt auch das Hirnorgan (für die Feststellung des Todes ist es sogar umgekehrt). Das mit diesem Organ einst Erdachte und Produzierte, sei es gedanklich, sei es künstlerisch, wird weiterexistieren, sofern es in Wort, Schrift, Bild oder Tönen gefasst und aufbewahrt ist. Dies zeigt den Doppelaspekt des Geistigen, dem darum schon im lebendigen Menschen Rechnung zu tragen ist: mit dem Biophysischen verbunden zu sein, aber zugleich eine Eigenständigkeit zu besitzen, die einen eigenen Bereich kennzeichnet. Dieser Doppelaspekt hat Auswirkungen. Einerseits ist das Denken ein Vorgang, der auf neurobiologischen Prozessen, Verbindungen und Strukturen beruht (offen gelassen, wie das „beruht auf“ genauer zu verstehen ist). Dadurch verhält sich der Mensch nicht nur als ein bewusstes Lebewesen, sondern vor allem als ein seiner selbst bewusstes, sich selbst denkendes Lebewesen. Die Strukturen seines Denkorgans, des Gehirns in allen seinen Teilen und Funktionen (Gefühl, Erinnerung, Erwartung usw.), geben also zumindest den Rahmen, vermutlich auch die Strukturen des Denkens selbst weitgehend vor. Wie weitgehend, genau das gilt es näher zu klären. Denn nun kommt der zweite Aspekt des Geistigen ins Spiel: Das Vorgestellte, Gedachte, Erkannte, Gestaltete, Gebildete, ist eine selbstständige Entität. Es sind Erinnerungen, Befürchtungen, Hoffnungen, es sind strukturierte Gedanken über sich selbst (Selbstbilder) und über die Um-Welt (Weltbilder), wobei die Reihenfolge hier vermutlich umgekehrt, zumindest reziprok ist (vgl. V. Gerhard); es sind Vergegenständlichungen in Form von Reflexionen, Betrachtungen und Theorien; es sind Vergegenständlichungen in Formen der Kunst, also in Sprachgeschichten und Gedichten, Bildnissen und Plastiken, in Tönen und musikalischen Kompositionen. Textschrift (Buchstaben) und Tonschrift (Noten) sind dabei die Mittel der dauerhaften Äußerung und Vergegenständlichung, die Kunstgegenstände an sich schon besitzen. Wer lesen kann, dem eröffnet sich die geistige Welt dessen oder derer, die ihre Gedanken und Bilder eben in Worte gefasst und in Schrift umgesetzt haben. Wer Noten lesen kann, dem eröffnet sich die Welt der Klänge und Harmonien schon beim Lesen, wiewohl Kunst mehr als Gedankentexte auf Rezitation und Vortrag angewiesen ist, um zum vollen Ausdruck zu kommen. Über das Verhältnis geistiger Gegenstände in Text oder Ton und Bild(nis) ließe sich noch weit mehr sagen, wir bleiben hier aber noch etwas beim ‚theoretischen‘ Denken selbst.

„Theôria“ bedeutet im Altgriechischen Schau, Betrachtung, hat etwas mit ‚Sehen‘, äußerlich gegenständlich wie innerlich geistig zu tun. Wenn man sich Gedanken macht über etwas, stellt man sich etwas bildlich vor, wie überhaupt Bilder und ‚Karten‘ (maps) vielleicht diejenigen Strukturen sind, die das Gehirn mit dem Gedachten ursprünglich verbinden (A. Damasio). Im Denken meiner selbst befinde ich mich also in einem Zirkel: Das Gehirn mit seinen Strukturen und Prozessen ist das entscheidende Vehikel, mittels dessen ich über meine Umwelt und mich selbst Betrachtungen anstelle und Theorien aufstelle. Insofern sind die Strukturen des Denkaktes zugleich Grundlage und Limit des Gedachten. Das besagt schon der Satz des Vorsokratikers Empedokles: hê gnôsis tou homoiou tô homoiô – Gleiches wird durch Gleiches erkannt (Text bei Aristoteles, De Anima). Vereinfacht gesagt: Wir können nicht mehr und anderes denken, als es unsere Synapsen und Schwingungen der Hirnströme zulassen. Nun kommt aber die Eigendynamik des inhaltlich Gedachten hinzu. Das Gedachte, die Theorie, sei es ‚Betrachtung‘, sei es ‚Spekulation‘, sei es moderne wissenschaftliche ‚Analyse‘, kann und wird jeweils ganz eigene Strukturen erdenken und ausdrücken. Das macht gerade die Kreativität menschlichen Denkens aus, über die eigenen Grenzen hinausdenken zu können, sich selbst zu transzendieren. Ideen, Phantasien, Visionen – all dies sind geistige ‚Gegenstände‘, also das, was das Denken als Gedachtes aus sich heraussetzt. Die Lehre Platons von den Ideen hat das einzigartig formuliert, auch wenn man ihm in Gänze nicht mehr folgen möchte und die Substanz gebundene Form des Aristoteles vielleicht praktischer ist. Entscheidend für unsere Überlegung ist hier, dass sich der Doppelaspekt des Geistigen ambivalent auswirkt: Der Denkakt ist an die Strukturen und Grenzen des neurobiologischen ‚Substrats‘ gebunden, die Gedanken und Ideen können darüber hinausgehen und neue Strukturen und Konstrukte erschaffen – die Voraussetzung dafür, als homo faber tätig zu werden und Gedanken und Theorien ins weltliche Werk zu setzen. Mindestens zwei Fragen bleiben dabei aber offen: 1. Wieweit geht die geistige Unabhängigkeit wirklich? und 2. Welche Illusionen werden dadurch möglich?

Es ist zum Allgemeingut des Wissens geworden, dass soziale Gegebenheiten, insbesondere das soziale Umfeld, den Menschen maßgeblich beeinflussen und mitprägen, und zwar in allem, was er sich vorstellt, denkt und tut. In welchem Ausmaß und in welchen Grenzen das geschieht, braucht hier nicht erörtert zu werden. Da liegt die Vermutung nahe, dass auch unsere biophysische Ausstattung maßgeblich an den Fähigkeiten und Grenzen des Denkens beteiligt ist. Wieweit geht tatsächlich die Fähigkeit, die im Gehirn angelegten Strukturen und Prozesse zu transzendieren, oder andersherum, wie plastisch, anpassungsfähig und wandelbar muss das Gehirn als Denkorgan des Menschen sein, um einen solch plastischen, anpassungfähigen und phantasievollen Menschen hervorzubringen, wie er nun einmal ist? Liegen die Strukturen und Gesetze der Mathematik (zum Beispiel) bereits als Schaltmöglichkeiten im Gehirn vor oder entwickeln sie sich fortwährend eigendynamisch und eigengesetzlich als ‚mathematische Ideen‘ fort? Werden Zahlenverhältnisse entdeckt oder erfunden – oder beides? Platon hatte es einfach, für ihn sind Zahlen und die „platonischen Körper“ Inbegriff der eigentümlichen Ideenwelt. Sind sie das oder sind sie nur ‚genial‘ vom menschlichen Geist konstruiert? In welche Zwickmühlen kann das Nachdenken über Möglichkeiten und Grenzen geistiger Unabhängigkeit (also der Eigenständigkeit der Gedanken, und Theorien) führen, wenn beim Erforschen der natürlichen Welt immer wieder Unvereinbarkeiten auftauchen – zwischen Welle und Teilchen, zwischen Quanten und dem raumzeitlichen Kontinuum, zwischen Wahrscheinlichkeiten, lokalen Kausalitäten und einem wirklichen, nicht-lokalen Zufall (N. Gisin)? Die moderne Physik ist voll von solchen (scheinbaren?) Unvereinbarkeiten, und die Genetik, Neurobiologie und Biophysik stoßen auf überraschend wandelbare Strukturen – mehr als auf festgelegte Funktionen. Welche Konstanten unsere natürliche Welt wirklich beherrschen, ist in der Kosmologie ebenso rätselhaft wie fragwürdig, inwieweit es wirklich Konstanten sind – usw.. Nicht zuletzt ist die genaue Weise der Entstehung des Lebens bisher ebenso unverstanden wie die Art und Weise, in der Physisches und Geistiges tatsächlich interagieren, korrelieren, supervenieren, wie auch immer. Theorien gibt es viele, aber vielleicht auch ebenso viele Widersprüche und Fragezeichen. Wie wird Unvereinbares vereinbar? Die Logik hilft hier in der Epistemologie, aber weniger in der Ontologie. Da wird die Metaphysik wieder lebendig als das, was den fragenden, suchenden, forschenden Geist vor-einnimmt und letztlich immer wieder (unausgesprochen) bestimmt. Die geistige Unabhängigkeit (unsere erste Frage) bleibt also als etwas durchaus Ambivalentes bestehen. So könnte es sein, dass die Wirklichkeit, wie sie sich uns anschaulich (theôria) zeigt und uns forschend und erkennend begegnet, selber in sich ambig, nicht nur ambivalent ist und uns in dieser letzten Ungreifbarkeit und darum auch Unbegreiflichkeit fordert, lockt und – narrt. Dann wäre der Zirkel des sich mittels Gehirn selbst erkennenden Geistes nur das geringste Problem.

Daraus ergibt sich die zweite Frage: Welche Illusionen werden dadurch möglich? Es sind eigentlich nur zwei: die der Überforderung und die der Unterschätzung. Sie hängen zusammen, weil sie nur in zwei unterschiedliche Richtungen zielen. Es wird eine Überforderung des Denkens und jeder möglichen Theorie sein, alles in eins zu fassen. Was so ambivalent ist wie die geistig-physischen Prozesse des Denkens und zugleich so ambig ist wie die ins Visier genommene Wirklichkeit, lässt keine eindeutige Antwort erwarten. Die Suche nach der ‚Weltformel‘ oder TOE ist aus dieser Sicht eine Illusion. Den erkenntnistheoretischen Generalschlüssel dürfte es kaum geben. Es scheint ein Wunschtraum zu sein, angelegt in den Strukturen unseres Denkvermögens, geboren aus der „synthetischen Einheit der transzendentalen Apperzeption“ (I. Kant, siehe unten). Zugleich liegt darin eine Unterschätzung dessen, was wir „Wirklichkeit“ oder „Natur“ im allgemeinen Sinn nennen. Es ist damit nicht gemeint, dass der Mensch sozusagen im letzten Bruchteil einer Sekunde seit dem Entstehen und in einem Wimpernschlag des Bestehens des Kosmos existiert und daraus ein Gesamtverständnis des Kosmos und seiner eigenen Welt und Rolle darin erkennen und beurteilen zu können glaubt. Man könnte dies allenfalls als einen Nebengedanken, als eine zur Bescheidenheit mahnende Beobachtung am Rande, gelten lassen. Bedeutender ist die wachsende Erkenntnis, und zwar ausdrücklich in den Naturwissenschaften selbst, dass das, was man sich darin zu erforschen, zu erklären, zu erhellen, zu begreifen, möglichst auch widerspruchsfrei mathematisch zu beschreiben vorgenommen hat, dass sich dies immer wieder einer letzten Eindeutigkeit entzieht. Man kann das auf das bisher noch unzureichende Wissen oder die jeweilige Vorläufigkeit aller Theorien (bis zum Erweis des Besseren) zurückführen und den Gedanken einer möglicherweise prinzipiellen letzten Ambiguität und also Undurchsichtigkeit der Naturverhältnisse und Naturgegebenheiten als voreilig oder pessimistisch, auf jeden Fall aber als unwissenschaftlich ablehnen. Der Fortschritt schreitet unaufhörlich fort, so ist das wohl. Sowohl erkenntnismäßig als auch technisch wird gewiss noch Ungeahntes möglich werden. Die möglichen Ergebnisse, und zwar alle, bleiben stets so unsicher, wie es jedem induktiven Verfahren eigen ist, und jede Theoriekonstruktion taugt so lange etwas, wie ihre Gültigkeit nicht widerlegt ist (Popper). Insofern gründet sich die zweite Frage nach den möglichen Illusionen zwar auf einer nicht abgesicherten Vermutung, aber dennoch auf guten Gründen.

Das Streben nach Vereinheitlichung einer überwältigenden Vielfalt an Erscheinungen und Theorien ist dem Menschen offenbar eingepflanzt, und das mag auch gut sein. Es hat sich bisher als äußerst produktiv erwiesen, wenn auch produktiv hinsichtlich vieler Sackgassen. Darum ist wahrscheinlich derjenige theoretische Versuch am überzeugendsten, der sich von vornherein Grenzen setzt und sich in seinem begrenzten Feld um größtmögliche Genauigkeit bemüht. Das gilt für den Begriff der Reduktion ebenso wie für jede andere Definition von Begriffen oder Erklärung von Sachverhalten. Zum Glück haben wir dafür zwei ‚Werkzeuge des Geistes‘ zur Verfügung, die es an Vielfalt und Ambiguität mit jeder anderen Wirklichkeit aufnehmen können: Phantasie und Sprache …

Reinhart Gruhn

 


Immanuel Kant über die „Sythetische Einheit der transzendentalen Apperzeption“

Nun können keine Erkenntnisse in uns stattfinden, keine Verknüpfung und Einheit derselben untereinander, ohne diejenige Einheit des Bewußtseins, welche vor allen Datis der Anschauungen vorhergeht, und worauf in Beziehung alle Vorstellung von Gegenständen allein möglich ist. Dieses reine ursprüngliche, unwandelbare Bewußtsein will ich nun die transzendentale Apperzeption nennen. … [Diese] transzendentale Einheit der Apperzeption [stiftet] einen Zusammenhang aller dieser Vorstellungen nach Gesetzen…. [Diese Einheit wäre nicht möglich,] wenn nicht das Gemüt in der Erkenntnis des Mannigfaltigen sich der Identität der Funktion bewußt werden könnte, wodurch sie dasselbe synthetisch in einer Erkenntnis verbindet. Also ist das ursprüngliche und notwendige Bewußtsein der Identität seiner selbst zugleich ein Bewußtsein einer ebenso notwendigen Einheit der Synthesis aller Erscheinungen nach Begriffen, d. i. nach Regeln, die sie nicht allein notwendig reproduzibel machen, sondern dadurch auch ihrer Anschauung einen Gegenstand bestimmen, d. i. den Begriff von Etwas, darin sie notwendig zusammenhängen; denn das Gemüt könnte sich unmöglich die Identität seiner selbst in der Mannigfaltigkeit seiner Vorstellungen, und zwar a priori, denken, wenn es nicht die Identität seiner Handlung vor Augen hätte, welche alle Synthesis der Apprehension (die empirisch ist) einer transzendentalen Einheit unterwirft und ihren Zusammenhang nach Regeln a priori zuerst möglich macht. (zitiert nach KrV 1. A. tr. Anal. 1. B. 2. H. 2. Abs. 3)

 

 

 

 

 

Freges Sprachphilosophie

 Philosophie, Sprache  Kommentare deaktiviert für Freges Sprachphilosophie
Jan 202018
 
Will man sich heute mit der Sprachphilosophie von Gottlob Frege (1848 – 1925) beschäftigen, so ist dies ein philosophiegeschichtliches Thema. Zum einen hat Frege vor mehr als 100 Jahren gewirkt, zum anderen sind seine Arbeiten zur Logik und Sprachphilosophie heute kaum mehr von aktueller Relevanz. Wichtig und bemerkenswert daran sind die Grundlegungen und Anstöße, die weit über seine Zeit hinausgewiesen haben und die heutigen Darstellungen des Werkes von Frege beschäftigen. Bertrand Russell, Ludwig Wittgenstein, Rudolf Carnap haben sich auf Frege bezogen. Damit wird deutlich, dass seine Philosophie zu den Wegbereitern der analytischen Sprachphilosophie, der analytischen Philosophie überhaupt geworden ist. Das ist wohl auch der Grund dafür, dass Frege heute generell und zumal in manchen Hochburgen der deutschsprachigen analytischen Philosophie eine Art revival erlebt 1). Vielleicht ist das Motiv aber gleichwohl ein aktuelles. Der spätestens mit der ordinary language philosophy (Austin) in den 1950er Jahren und mit dem Strukturalismus überwunden geglaubte Logizismus der Sprachtheorie erwacht dank der Digitalisierung zu neuem Leben, wenn Sprache digital erfasst und in ein Kalkül übersetzt wird. Die logische Strukturierung à la Frege leistet dafür vielleicht Vorarbeit.

Programmatisch ist seine „Begriffsschrift“ von 1879 mit dem Untertitel: „Eine der arithmetischen nachgebildete Formelsprache des reinen Denkens“. Im Vorwort schreibt Frege:

„Das Erkennen einer wissenschaftlichen Wahrheit durchläuft in der Regel mehre Stufen der Sicherheit. Zuerst vielleicht aus einer ungenügenden Zahl von Einzelfällen errathen, wird der allgemeine Satz nach und nach sicherer befestigt, indem er durch Schlussketten mit andern Wahrheiten Verbindung erhält, sei es dass aus ihm Folgerungen abgeleitet werden, die auf andere Weise Bestätigung finden, sei es dass er umgekehrt als Folge schon feststehender Sätze erkannt wird. … Die festeste Beweisführung ist offenbar die rein Iogische, welche, von der besondern Beschaffenheit der Dinge absehend, sich allein auf die Gesetze gründet, auf denen alle Erkenntnis beruht. Wir theilen danach alle Wahrheiten, die einer Begründung bedürfen, in zwei Arten, indem der Beweis bei den einen rein logisch vorgehen kann, bei den andern sich auf Erfahrungsthatsachen stützen muss.“ 2)

Frege geht es in dieser Schrift um den ersten, ‚analytischen‘ Teil der Begründung wahrer Sätze.

„Damit sich hierbei nicht unbemerkt etwas Anschauliches eindrängen könnte, musste Alles auf die Lückenlosigkeit der Schlusskette ankommen. Indem ich diese Forderung auf das strengste zu erfüllen trachtete, fand ich ein Hindernis in der Unzulänglichkeit der Sprache, die bei aller entstehenden Schwerfälligkeit des Ausdruckes doch, je verwickelter die Beziehungen wurden, desto weniger die Genauigkeit erreichen liess, welche mein Zweck verlangte. Aus diesem Bedürfnisse ging der Gedanke der vorliegenden Begriffsschrift hervor. Sie soll also zunächst dazu dienen, die Bündigkeit einer Schlusskette auf die sicherste Weise zu prüfen und jede Voraussetzung, die sich unbemerkt einschleichen will, anzuzeigen, damit letztere auf ihren Ursprung untersucht werden könne. Deshalb ist auf den Ausdruck alles dessen verzichtet worden, was für die Schlussfolge ohne Bedeutung ist. Ich habe das, worauf allein es mir ankam, in § 3 als  begrifflichen Inhalt bezeichnet.“ [ebd.]

Frege nennt seine Formalisierung „ein für bestimmte wissenschaftliche Zwecke ersonnenes Hilfsmittel“, das sich auf die Arithmetik stützt und ihre Logik weiterführt und umbildet.

„Wenn es eine Aufgabe der Philosophie ist, die Herrschaft des Wortes über den menschlichen Geist zu brechen, indem sie die Täuschungen aufdeckt, die durch den Sprachgebrauch über die Beziehungen der Begriffe oft fast unvermeidlich entstehen, indem sie den Gedanken von demjenigen befreit, womit ihn allein die Beschaffenheit des sprachlichen Ausdrucksmittels behaftet, so wird meine Begriffsschrift, für diese Zwecke weiter ausgebildet, den Philosophen ein brauchbares Werkzeug werden können. … Schon das Erfinden dieser Begriffsschrift hat die Logik, wie mir scheint, gefördert.“ [a.a.O. S. XII f.]

Die ausführlichen Zitate zeigen das gewisse Pathos Freges bei seinem grundsätzlichen und weitreichenden Anspruch, auf dem Weg der wissenschaftlichen Wahrheitsfindung durch die Anwendung logischer Regeln und Gesetze weiterzukommen. Sie bringen aber auch das Leiden an der Unzulänglichkeit und Beschränkung der Sprache zum Ausdruck, deren Unklarheit sich immer wieder als Hindernis und Anlass zur Verwirrung herausstelle. Diese Klage Freges zieht sich durch alle seine logischen Schriften. Gerade darum möchte er sich in der Formalisierung der Begriffsschrift von der Nähe zur natürlichen Sprache und zur Grammatik lösen. Dem dient auch seine Ersetzung der Begriffe ‚Subjekt‘ und ‚Prädikat‘ durch ‚Argument‘ und ‚Funktion‘. Er erfindet einen eigenen Satz von Formeln und Zeichen, die sich zwar nicht durchgesetzt haben, sondern von der Peano-Russell-Notation ersetzt wurden, die aber eine in sich schlüssige Axiomatisierung seiner Logik (Erstformulierung einer mehrstufigen Prädikatenlogik) ermöglichten und Vorbild wurden für alle Nachfolger in moderner formaler Logik. Ob es ihm allerdings gelang, die „Herrschaft des Wortes über den menschlichen Geist zu brechen“, steht auf einem anderen Blatt.

In seiner Schrift „Funktion und Begriff“ von 1891, die auf einem Vortrag beruht, führt Frege die genaue Bestimmung und Unterscheidung von ‚Begriff‘, ‚Funktion‘, ‚Gegenstand‘ und „Wert“ bzw. „Wertverlauf“ durch. Einige aus dem Zusammenhang herausgegriffene Zitate aus dem Text als Beispiel für den O-Ton Frege:

„Ein Begriff ist eine Funktion, deren Wert immer ein Wahrheitswert ist. –
Wir können als Begriffsumfang den Wertverlauf einer Funktion bezeichnen, deren Wert für jedes Argument ein Wahrheitswert ist. Die sprachliche Form der Gleichungen ist ein Behauptungssatz. Ein solcher enthält als Sinn einen Gedanken – oder macht wenigstens Anspruch darauf, einen zu enthalten –; und dieser Gedanke ist im allgemeinen wahr oder falsch. –
Gegenstand ist alles, was nicht Funktion ist, dessen Ausdruck also keine leere Stelle mit sich führt. –
Wertverläufe von Funktionen sind Gegenstände, während Funktionen selbst es nicht sind. Auch Begriffsumfänge sind also Gegenstände, obwohl die Begriffe selbst es nicht sind. –
Für die Begriffe haben wir hierin die Forderung, daß sie für jedes Argument einen Wahrheitswert als Wert haben, daß für jeden Gegenstand bestimmt sei, ob er unter den Begriff falle oder nicht; mit anderen Worten: wir haben für Begriffe die Forderung ihrer scharfen Begrenzung, ohne deren Erfüllung es unmöglich wäre, logische Gesetze von ihnen aufzustellen. –
Wie nun Funktionen von Gegenständen grundverschieden sind, so sind auch Funktionen, deren Argumente Funktionen sind und sein müssen, grundverschieden von Funktionen, deren Argumente Gegenstände sind und nichts anderes sein können. Diese nenne ich Funktionen erster, jene Funktionen zweiter Stufe.“ 3)

Was Frege hier, wenngleich in schriftlicher Fassung überarbeitet, als Vortragstext seinem Publikum, der Jenaischen Gesellschaft für Medizin und Naturwissenschaft, zugemutet hat, muss schon erstaunen. Es wird vielleicht daraus verständlich, warum Frege zu Lebzeiten eine größere Resonanz auch auf dem wissenschaftlichen Parkett verwehrt blieb. Damit ist allerdings über die inhaltliche Bedeutung und formale Stringenz seiner Argumentation noch nichts gesagt, das müsste eine genauere Darstellung seiner Schrift ergeben, was hier nicht zu leisten ist. Wer von heutiger moderner Logik ausgeht, wird die wegweisenden Formulierungen bei Frege anerkennen.

Gottlob Frege

Gottlob Frege – Büste in Wismar

Freges bekannteste und wirkungsgeschichtlich vielleicht bedeutendste Schrift ist die „Über Sinn und Bedeutung“ 4). Seine Unterscheidung von ‚Sinn‘ und ‚Bedeutung‘ ist ein locus classicus: „Es liegt nun nahe, mit einem Zeichen (Namen, Wortverbindung, Schriftzeichen) außer dem Bezeichneten, was die Bedeutung des Zeichens heißen möge, noch das verbunden zu denken, was ich den Sinn des Zeichens nennen möchte, worin die Art des Gegebenseins enthalten ist.“[24] In seinem oft verwendeten Beispiel „Abendstern“ und „Morgenstern“ ist zwar die Bedeutung dieselbe, nämlich der Planet Venus, aber der Sinn, die Art des Gegebenseins ist verschieden. Sinn und Bedeutung in Freges Gebrauch sind wohl miteinander verknüpft, aber nicht jeder Sinn hat auch eine Bedeutung, wie zum Beispiel in der Poesie, und die zugehörigen Ausdrücke (Zeichen) können verschieden sein: „Die regelmäßige Verknüpfung zwischen dem Zeichen, dessen Sinn und dessen Bedeutung ist derart, daß dem Zeichen ein bestimmter Sinn und diesem wieder eine bestimmte Bedeutung entspricht, während zu einer Bedeutung (einem Gegenstande) nicht nur ein Zeichen zugehört.“ [25] In einem gegebenen Zusammenhang sollte aber dasselbe Wort stets denselben Sinn haben. Von der Bedeutung und dem Sinn eines Zeichens unterscheidet Frege ferner die (subjektive) Vorstellung von einem sinnlich wahrgenommenen Gegenstand mittels der Anschauung. Aber auch die Kunst bedient sich der Vorstellung, wenn sie „Färbungen und Beleuchtungen“ ausdrücken möchte [28]. Die skeptisch erhobene Frage, ob denn ein bestimmtes Wort tatsächlich eine Bedeutung habe, weist Frege mit dem Hinweis ab, dass es nur auf die „Absicht beim Sprechen oder Denken“ hinsichtlich der Bedeutung ankomme ungeachtet dessen, ob sie bzw. der Gegenstand wirklich vorhanden ist oder nicht [28f.].

Im zweiten, größeren Teil der Arbeit befasst sich Frege mit dem Satz und mit Satzverbindungen. Ein Behauptungssatz enthält einen Gedanken. Der Gedanke ist nun aber nicht die Bedeutung des Satzes, sondern sein Sinn. Dennoch kommt es gerade auf die Bedeutung eines Satzes oder Satzteiles und den in ihm enthaltenen Gedanken an: „Der Gedanke verliert für uns an Wert, sobald wir erkennen, daß zu einem seiner Teile die Bedeutung fehlt.“ Das Streben nach Wahrheit in der Wissenschaft sei es, das nach der Bedeutung fragt. Entscheidend ist die Wahrheit oder Falschheit eines Gedankens, also sein Wahrheitswert. „So werden wir dazu gedrängt, den Wahrheitswert eines Satzes als seine Bedeutung anzuerkennen.“ [30] Der Wahrheitswert ist ein Gegenstand nach Frege und drückt den „Schritt von der Stufe der Gedanken zur Stufe der Bedeutungen (des Objektiven)“ aus. So versteht er auch das Urteilen als Fortschreiten des Gedankens zu seinem Wahrheitswert. Gleiche Wahrheitswerte sind aber austauschbar, sodass der Wahrheitswert eines Satzes unverändert bleibt, wenn man einen Ausdruck durch einen gleichbedeutenden ersetzt. Das kann aber bei Satzkonstruktionen aus Haupt- und Nebensatz kompliziert werden, und so prüft nun Frege an allen erdenklichen Arten von Nebensätzen nach, wie sich Bedeutungen der Satzteile im ganzen Satz auf seinen Wahrheitswert auswirken. Eine besondere Rolle spielen dabei die Nebensätze in ungerader, also indirekter Rede (sagen, glauben, meinen, dass…), weil ihre Bedeutung kein Wahrheitswert, sondern ein Gedanke ist. Ferner liegen die Dinge anders, wenn der Nebensatz keinen vollständigen Gedanken enthält, sondern auf den Gedanken des Hauptsatzes verweist oder einen unbestimmten Bestandteil hat oder einen gemeinsamen Bestandteil in Form eines Eigennamens enthält (Der ein Philosoph in Athen war, starb…). Entscheidend ist immer, ob und wann man Teilsätze durch andere mit demselben Wahrheitswert ersetzen kann, ohne dass sich der Wahrheitswert des Ganzen ändert. Die Austauschbarkeit der Wahrheitswerte gerät aber nach Frege besonders dort an ihre Grenze, wo unausgesprochene  „Nebengedanken“ hinzutreten: „wir hätten dann mehr einfache Gedanken als Sätze“ [43]. Genau dies kommt aber in der gesprochenen Sprache sehr häufig vor, so dass die Ersetzung desselben Wahrheitswertes nur in genau umgrenzten und wohl bestimmten Zusammenhängen möglich ist. Durch Nebengedanken und Färbungen wird die Sprache zwar reicher, sagt Frege, aber eben auch unklarer [42]. Hier gerät auch Freges analytische Sprachlogik an ihre Grenze, wenn er bedauernd feststellt: „Es ist schwer, alle in der Sprache gegebenen Möglichkeiten zu erschöpfen.“ [45]

In den „Ausführungen über Sinn und Bedeutung“ 5) klärt Frege genauer das Verhältnis zwischen ‚Eigennamen‘ und ‚Begriffswörtern‘ in Hinsicht auf ‚Sinn‘ und ‚Bedeutung‘. Frege führt dazu aus:

„Jedem Begriffsworte oder Eigennamen entspricht in der Regel ein Sinn und eine Bedeutung, so wie ich diese Wörter gebrauche. In der Dichtung haben die Wörter freilich nur einen Sinn, aber in der Wissenschaft und überall, wo uns die Frage nach der Wahrheit beschäftigt, wollen wir uns nicht mit dem Sinne begnügen, sondern auch eine Bedeutung mit den Eigennamen und Begriffswörtern verbinden; und wenn wir es etwa aus Versehen doch nicht tun, so ist das ein Fehler, der leicht unser Nachdenken zuschanden machen kann. Die Bedeutung eines Eigennamens ist der Gegenstand, den er bezeichnet oder benennt. Ein Begriffswort bedeutet einen Begriff, wenn das Wort so gebraucht wird, wie es in der Logik zweckmässig ist. Um dies zu erklären, erinnere ich an einen Umstand, der sehr zugunsten der Logiker des Umfangs gegen die des Inhalts zu sprechen scheint, dass nämlich, unbeschadet der Wahrheit, in jedem Satze Begriffswörter einander vertreten können, wenn ihnen derselbe Begriffsumfang entspricht, dass also auch in Beziehung auf das Schliessen und für die logischen Gesetze Begriffe nur insofern sich verschieden verhalten, als ihre Umfänge verschieden sind. Die logische Grundbeziehung ist die des Fallens eines Gegenstandes unter einen Begriff: auf sie lassen sich alle Beziehungen zwischen Begriffen zurückführen. Indem ein Gegenstand unter einen Begriff fällt, fällt er unter alle Begriffe desselben Umfangs, woraus das Gesagte folgt. Wie also Eigennamen desselben Gegenstandes unbeschadet der Wahrheit einander vertreten können, so gilt dasselbe auch von Begriffswörtern, wenn der Begriffsumfang derselbe ist. Freilich wird sich bei solchen Ersetzungen der Gedanke ändern; dieser aber ist der Sinn des Satzes, nicht dessen Bedeutung. Diese aber, nämlich der Wahrheitswert, bleibt ungeändert.“ [128]

Bei der Anwendung seiner Definition, den ‚Begriff‘ als ‚Funktion‘ zu verstehen 6), stößt Frege auf die Schwierigkeit der „prädikativen Natur“ des Begriffs, nämlich dass ein Begriffswort erst zusammen mit einem Eigennamen eine Bedeutung und damit einen Wahrheitswert erhält. Ist er ‚wahr‘, folgt das Urteil, dass der als Argument gewählte Gegenstand unter den Begriff fällt. Diese Differenzierung zwischen funktionalem Begriffswort und Eigennamen / Gegenstand als Argument macht den Ausdruck ‚Begriff‘ unklar.

„Dies Wesen des Begriffes ist nun ein grosses Hindernis für den sachgemässen Ausdruck und für die Verständigung. Wenn ich von einem Begriffe reden will, zwingt mir die Sprache mit kaum entrinnbarer Gewalt einen unpassenden Ausdruck auf, wodurch der Gedanke verdunkelt – fast könnte ich sagen verfälscht – wird. …
Aus dem Gesagten geht hervor, dass Gegenstände und Begriffe grundverschieden sind und einander nicht vertreten können. Das gilt auch von den entsprechenden Wörtern oder Zeichen. Eigennamen können nicht wirklich als Prädikat gebraucht werden. Wo es etwa so scheint, lehrt die genauere Betrachtung, dass sie dem Sinne nach nur ein Teil des Prädikates sind: Begriffe können nicht in denselben Beziehungen stehen wie Gegenstände.“ [130]

Genau um diese Schwierigkeit geht es Frege im Fortgang dieses  Aufsatzes. Er entwickelt darin in sehr komprimierten Gedanken eine extensionale Logik 7) gegen den „Inhaltslogiker“, der nur beim ‚Sinn‘ stehenbleibe, ohne zur Bedeutung und damit zur Frage nach dem Wahrheitswert zu gelangen. Voller Emphase stellt Frege fest:

„Wenn es einem auf die Wahrheit ankommt- und auf die Wahrheit zielt die Logik hin – muss man auch nach den Bedeutungen fragen, muss man Eigennamen verwerfen, welche keinen Gegenstand bezeichnen oder benennen, wiewohl sie einen Sinn haben mögen; muss man Begriffswörter verwerfen, die keine Bedeutung haben. Das sind nicht etwa solche, die Widersprechendes vereinigen – denn ein Begriff kann recht wohl leer sein – sondern solche, bei denen die Umgrenzung verschwommen ist. Es muss von jedem Gegenstand bestimmt sein, ob er unter den Begriff falle oder nicht; ein Begriffswort, welches dieser Anforderung an seine Bedeutung nicht genügt, ist bedeutungslos. [133] Und der Dichtung genügt der Sinn, der Gedanke auch ohne Bedeutung, ohne Wahrheitswert, aber nicht der Wissenschaft.“ [134]

Das Zitat macht deutlich, wie sehr Frege dem Impetus der Wahrheitssuche folgt. Das Streben nach Wahrheit und der Trennung des Wahren vom Falschen macht für ihn das Wesen der Wissenschaft aus. Dem dienen alle Formalismen, Definitionen, Abgrenzungen, Präzisierungen, dem allein dient auch seine Insistieren auf Eindeutigkeit und Klarheit, demgemäß auf der Logik und ihren Gesetzen. Sie allein verbürgen für Frege vernünftiges, inhaltsvolles Denken und damit mehr und mehr Erkenntnis der Wahrheit, wie sie in Sätzen und Gedanken der Wissenschaft formuliert werden kann. Genau auf diesem Hintergrund wird verständlich, warum ihn der logische Widerspruch, ausgedrückt in der Russellschen Antinomie , völlig aus der Bahn warf. Frege hatte von Russell selbst in einem Brief davon Kenntnis erhalten. Er sah dadurch die „Grundlagen meines Baues erschüttert“. Auch sein Programm einer Begründung der Mathematik auf reiner Logik (→ Logiszismus), genauer der Rückführung der Sätze der Arithmetik auf logische Wahrheiten, wie er es in seiner Schrift „Die Grundlagen der Arithmetik. Eine logisch mathematische Untersuchung über den Begriff der Zahl“ (1884) unternommen hatte, war von diesem Verdikt betroffen. Frege zog sich zurück und wurde auch von den akademischen Zeitgenossen weithin ignoriert. Er veröffentlichte erst Jahrzehnte später wieder einige Schriften, die aber zu seinen Lebzeiten kaum Widerhall fanden. 8)

Eine vergleichbare Themenverschiebung von der logischen Sprachkritik zur ‚Philosophie der normalen Sprache‘ („Sprachspiele“) findet man in der Entwicklung Ludwig Wittgensteins, wenn man den frühen Wittgenstein des „Tractatus“ mit dem späteren der „Philosophischen Untersuchungen“ vergleicht 9). Das Programm des Logizismus verbindet sich ab den dreißiger Jahren des vorigen Jahrhunderts vor allem mit Rudolf Carnap („Logische Syntax der Sprache“, 1934), aber auch er wandte sich in seinen späteren Werken dem Aufbau unterschiedlicher logischer Systeme zu; manche rechnen ihn nun zum Behaviorismus. – Eine ganz eigene Richtung der Sprachphilosophie findet sich dann in den unterschiedlichen Entwürfen des Strukturalismus und Poststrukturalismus. Es sind dies vielleicht die eher indirekten Erben Gottlob Freges. Seine Arbeiten zur Logik der Sprache und zur Mathematik (Arithmetik) schlugen frühzeitig (wissenschaftsgeschichtlich gesehen vielleicht ‚vor‘ ihrer Zeit) Themen an, welche die Philosophie des 20. Jahrhunderts durchweg bestimmten. Frege begann noch voller Enthusiasmus und Zuversicht, der wissenschaftlichen Erkenntnis der Wahrheit in Form von wahren Sätzen durch eine eindeutig bestimmte und widerspruchsfreie axiomatische Logik ein zuverlässiges Gerüst zu geben. Russells Antinomie war ein erster Schlag gegen dieses Konzept, die Unvollständigkeitssätze Gödels (1931) erlebte er nicht mehr. Diese zeigten die Grenzen formaler Systeme auf, indem erstens in einem hinreichend starken formalen System wie der Arithmetik es Aussagen gibt, die nicht beweisbar sind (Unvollständigkeit) und dass zweitens in hinreichend starken widerspruchsfreien Systemen die Widerspruchsfreiheit nicht beweisbar und damit Hilberts Programm des Aufbaus einer widerspruchsfreien Mathematik nicht lösbar ist 10). Insofern hat Frege eine Entwicklung mit angestoßen, deren Tragweite und Fruchtbarkeit er erhofft, aber kaum wirklich übersehen hat, deren Probleme, Grenzen und Abhängigkeit von jeweiligen Rahmenbedingungen und Interpretationen er nur ansatzweise wissenschaftlich und biografisch erfahren hat. Für die Geschichte der modernen Philosophie, insbesondere in ihrem analytisch verfahrenden Zweig, ist die Bedeutung Gottlob Freges kaum hoch genug einzuschätzen.

 

Bleibt noch ein Blick auf die Sprachphilosophie insgesamt. Im angelsächsischen Bereich wird darunter nahezu ausschließlich die analytische Sprachphilosophie verstanden 11). Im europäischen Raum sind die Hermeneutik und der (Post-) Strukturalismus bedeutsamer gewesen. Sprache und Macht (Diskurstheorie, Michel Foucault), herrschaftsfreier Dialog (Theorie kommunikativen Handelns, Jürgen Habermas), antimetaphysische, gesellschaftliche Dekonstruktion (Schrift und Differenz, Jacques Derrida) nehmen sowohl psychologische (Lacan) als auch existenzphilosophische (Martin Heidegger) Traditionen auf. Sprachphilosophie im Umfeld von Entwürfen sozialen Handelns, gesellschaftlicher Kommunikation oder metaphysischer Ontologien reicht also sehr viel weiter als der auf Logik und analytische Philosophie beschränkte Ausschnitt. Das relativiert die Bedeutung Freges, weist ihm aber innerhalb einer bestimmten Entwicklungslinie der Sprachphilosophie eine besondere Bedeutung zu. Wieweit in der Nachfolge Freges die Anwendung logischer Systeme und aktueller Sprachtheorien im Blick auf eine Logik der digitalisierten Sprache 12) fruchtbar gemacht werden kann, bleibt ein spannendes Thema. 13)

Reinhart Gruhn


Anmerkungen

1) So ist Freges Sprachphilosophie Thema eines Graduierten-Seminars an der Uni Bielefeld. – Seine wichtigsten sprachphilosophischen Schriften hat Günther Patzig 1962 herausgegeben. Sie wurden 2008 neu aufgelegt: Gottlob Frege, Funktion – Begriff – Bedeutung. Fünf logische Studien, Textausgabe TB V&R 2008 [zurück]

2) Gottlob Frege, Begriffsschrift und andere Aufsätze. Mit E. Husserls und H. Scholz‘ Anmerkungen, herausgegeben von Ignacio Angelelli, 1993 (4. Nachdruck der 2. Auflage 1964), S. X [zurück]

3) zitiert nach dem Abdruck von „Funktion und Begriff“ in der Taschenbuch-Ausgabe (1), S. 2 – 22. [zurück]

4) Über Sinn und Bedeutung, in: Ztschr. f. Philos. u. philos. Kritik, NF 100, 1892, S. 25–50, heute auch in der unter 1) genannten Textausgabe. Bei Zitaten beziehe ich mich auf die Seitenzahlen in diesem Taschenbuch. [zurück]

5) Ausführungen über Sinn und Bedeutung. 1892 /1895, in: Frege, G., Nachgelassene Schriften. Unter Mitwirkung von Gottfried Gabriel und Walburga Rödding bearbeitet, eingeleitet und mit Anmerkungen versehen von Hans Hermes, Friedrich Kambartel, Friedrich Kaulbach. Zweite, revidierte Auflage. Hamburg 1983, 128–136. [zurück]

6) siehe „Funktion und Begriff“ im Taschenbuch unter 1). [zurück]

7) „Was zwei Begriffswörter bedeuten, ist dann und nur dann dasselbe, wenn die zugehörigen Begriffsumfänge zusammenfallen“ a.a.O. S. 133 [zurück]

8) Einen ersten Überblick gibt der Wikipedia-Artikel zu Gottlob Frege (besser der englische Artikel). Er soll ein recht unfreundlicher, antisemitisch und nationalistisch eingestellter Zeitgenosse gewesen sein. – Unter den Artikeln findet man eine gute Auswahl weiterführender Literatur vor allem der Gegenwart und Weblinks. [zurück]

9) Die Interpretationen des Werkes Wittgensteins sind uferlos und hoch umstritten. Fast jede kurze Kennzeichnung sticht in ein Wespennest und zieht sich den Vorwurf der Fehlinterpretation zu. Überblick im Wikipedia-Artikel zu Wittgenstein. [zurück]

10) Die Unvollständigkeitssätze Kurt Gödels und ihre Rezeption gehören zu den Meilensteinen der modernen Philosophiegeschichte ebenso wie zur Geschichte der Mathematik. Heute wird eher auf die begrenzte Bedeutung der Gödelschen Sätze hingewiesen, die dem Aufbau widerspruchsfreier logischer bzw. mathematischer Systeme nicht im Wege stehen müssen. [zurück]

11) Diese Einschränkung räumt zum Beispiel die US-amerikanische Internet Encyclopedia of Philosophy bei ihrem Artikel zu ‚Philosophy of Language‘ ausdrücklich ein. [zurück]

12) Hierbei ist zuerst an die Logik der Programmiersprachen zu denken, dann aber auch an die Umsetzung und Erkennung natürlicher Sprache in bzw. durch digitale Systeme. [zurück]

13) Nachtrag: Knapp und präzise ist die Darstellung der Sprachphilosophie Freges in heutiger Begrifflichkeit in: Johannes Hübner, Einführung in die theoretische Philosophie, 2015, S. 96 – 112 [zurück]


Hier geht es zur Fassung als e-book (PDF):

Freges Sprachphilosophie

Das Maß der Vernunft

 Kunst, Philosophie, Religion, Vernunft, Wissenschaft  Kommentare deaktiviert für Das Maß der Vernunft
Dez 072017
 
Über das Maß der Vernunft zu sprechen bedeutet, dass Vernunft nicht maßlos ist. Ein Maß ist eine Begrenzung, in diesem Fall eine begriffliche Bestimmung. Vernunft ist nicht alles und jedes, was denkt, weil nicht alles Denken und nicht alle Welt vernünftig ist. Man kann Unsinniges denken, man kann sich etwas ausdenken, man kann sich selbst etwas denken. Denken scheint als Tätigkeit des menschlichen Geistes umfassender zu sein als das, was unter Vernunft verstanden wird. Vernunft ist regelgeleitetes Denken, das Denken aufgrund von Prinzipien und Kategorien (Kant). Man kann mit Kant davon den Verstand unterscheiden als praktische Tätigkeit des Unterscheidens und Urteilens, aber das ist in unserem Zusammenhang nicht wichtig. Einverständnis herrscht darüber, dass die Betätigung des menschlichen Geistes nicht ohne die funktionale Ebene der physischen Basis (Gehirn) geschehen kann. Auch diese Unterscheidung wird jetzt nicht weiter verfolgt. Eine dritte Unterscheidung interessiert mich hier, die zwischen Vernunft und Wirklichkeit. Auch wenn diese mit den vorigen beiden Unterscheidungen zusammenhängt, kann sie zunächst für sich betrachtet werden.

Abgesehen vom alten und neuen Skeptizismus besteht in der heutigen Philosophie, vor allem in ihrer „analytischen“ Ausprägung, Einigkeit darüber, dass sich die Vernunft auf die Wirklichkeit der Welt bezieht. Wirklichkeit wird vor allem auf naturwissenschaftlicher Basis definiert und entsprechend naturalistisch verstanden. Auch dies sei hier zunächst einmal nicht weiter hinterfragt. Die Aufgabe der Vernunft ist es dann, sich an der Wirklichkeit abzuarbeiten, sie zu erkennen, zu durchdringen, Regeln und Muster zu finden und diese in einer möglichst klaren und eindeutigen Sprache (Mathematik) zu beschreiben, zu „formulieren“. Ferner ist es Aufgabe der Vernunft, über ihre eigenen Verfahren und Regeln (Logik, Sprache) Rechenschaft abzulegen. Wenn man will, kann man auch über die Bedingungen der Möglichkeit des angemessenen Vernunftgebrauchs nachdenken, also über das, was man heute die Metaebene nennen würde und was bei Kant die Bestimmung des Transzendentalen ist. Diese Art einer klar begrenzten Metaphysik ist gerade noch gelitten. Kurz gesagt ist die Vernunft die Basis des wissenschaftlichen Umgangs mit der Welt. Die Frage ist aber, ob die Vernunft der ausschließliche Umgang mit Wirklichkeit ist, ob also ein bestimmter vernünftiger Kanon von Denkweisen und Methoden, wie er in den Wissenschaften verwirklicht ist, auch das Ganze der Wirklichkeit bestimmt, die uns überhaupt irgendwie zugänglich ist.

Man wird schnell einsehen, dass dies nicht der Fall ist. Es gibt viele andere Wege zur Wirklichkeit, beispielsweise über die Emotionen, das „Bauchgefühl“, über Stimmungen, Töne, Tanzen, alle weiteren Sinneswahrnehmungen wie z. B. Düfte, über willkürliche Aneignung von Wirklichkeit, wie sie subjektiven Vorstellungen entspricht (Schopenhauer). Die Kunst, also die Gesamtheit der künstlerischen Tätigkeiten und Gestaltungen der Wirklichkeit, ebenso wie die Religion und ihr transzendenter Weg zur Wirklichkeit und schließlich der Politik mit Erwerb und Verlust von Macht als entscheidender Einwirkungsweise auf die Wirklichkeit sind als wichtigste Bereiche neben der Vernunft zu nennen. Diese Bereiche sind nicht per se unvernünftig, aber jedenfalls eigenständig und folgen nicht in erster Linie den Regeln und Methoden der Vernunft. Die Wirklichkeit, wie sie uns zugänglich ist, reicht also weiter als das, was mit dem Begriff Vernunft begrenzt und bestimmt ist. Man könnte darüber hinaus auch noch an Wirklichkeiten denken, die uns nicht zugänglich sind, über die sich darum auch nichts sagen lässt, die es aber geben kann, die man darum als Grenzmöglichkeiten stehen lassen muss.

Es ist ein verführerischer Weg, die Vernunft, wie sie sich in den Wissenschaften verwirklicht, von vornherein als beschränkt und eingegrenzt anzusehen. Sie droht dann bald in der Beliebigkeit unterschiedlicher Zugänge zur Wirklichkeit zu versinken. So behauptet es die Redeweise vom postfaktischen Zeitalter, als wäre nun, da die Vernunft selbst als korrumpierbar erscheint, alles gleich möglich, wirklich, richtig. Das verkennt die ausgezeichnete Stellung, die der menschlichen Vernunft in Kultur- und Geistesgeschichte zugewachsen ist. Die Vernunft ist das einzige Mittel, das Menschen haben, um ihre Welt und Umwelt methodisch zu erkennen und intersubjektiv zu vermitteln, das heißt, eigene Erkenntnis mitzuteilen und  durch andere infrage stellen zu lassen, und zwar auf dem Boden gemeinsamer, anerkannter Wege und Verfahrensweisen. Dieses aufzugeben kann mit guten Gründen niemand wollen. Bloßer Wille und eigenes Interesse, Machtgewinn und -durchsetzung existieren sehr wohl weithin, ohne auf vernünftige Begründung und Rechtfertigung angewiesen zu sein. Umso mehr ist zur Begrenzung von Macht und Willkür vernünftiges Denken und Argumentieren unerlässlich, wenn der Primat einer humanitären Orientierung der Wirklichkeit (gleiche Würde und Rechte des Menschlichen) bestehen bleiben soll. Wissenschaft ist nicht eine beliebige Option unter vielen gleichwertigen, sondern eine ausgezeichnete, weil die Vernunft selbst zu den ausgezeichneten Eigenschaften des Menschen gehört. Über die Art, die Grundlagen und die Grenzen der jeweiligen Wissenschaft lässt sich dennoch sehr wohl streiten, aber eben als Auseinandersetzung um den besten, weil angemessensten und sachgerechtesten Weg, Erkenntnis zu gewinnen, auf der Basis gleicher Regeln und Verfahren des Vernunftgebrauchs.

Himmel

Die ausgezeichnete Stellung der Vernunft nachdrücklich zu behaupten und zu verteidigen, heißt aber nicht, die Vernunft als den einzigen und allein gültigen Zugang zur Wirklichkeit zu definieren. Das hieße, das Kind mit dem Bade auszuschütten. Es gibt andere Wege, weniger objektivierbare und regelgeleitete, aber oft ebenso intersubjektiv vermittelbar, bisweilen sogar deutlich weitreichender kommunizierbar als der Weg über die Vernunft, Wissenschaft und Sprache. „Musik kennt keine Grenzen“, sagt man, und meint damit genau dies, dass die „Sprache“ der bildenden Kunst oder eben der Musik eine unmittelbare Verbindung der teilnehmenden Menschen in und mit ihrer Wirklichkeit bewirkt. Darüber hinaus kann auf den Wegen der künstlerischen Weltdarstellung mehr und anderes erschlossen werden, als es der wissenschaftliche Zugang zulässt. Intuition, Kreativität, Ahnung, unklare Gedanken und gemischte Seelen- und Gemütszustände können sich hier Ausdruck verschaffen und so auf die Vieldeutigkeit und Ambiguität der Wirklichkeit angemessen Antwort geben. Das meint auch das heute gebrauchte Wort der Resonanz: auf Wirklichkeit und Umwelt anders antworten und eingehen als objektiv, vernünftig, regulär und analytisch. Die für alle Wissenschaft nötige Objektivierung kann in anderen Bereichen und Zugängen der Wirklichkeit gerade hinderlich sein. Gerade nicht erst dann, wenn ich ein Musikstück analysiere, habe ich es genossen, sondern es ist eher umgekehrt: Weil es mich anspricht, mich bewegt, mir eine neue Welt erschließt, kann ich auch das Interesse aufbringen, es weiter zu untersuchen und in seinen besonderen Strukturen zu verstehen und schätzen zu lernen. Dieser zweite Schritt kann sein, muss es aber nicht. Kunst spricht aus sich selber, und für ihre Kommunikation gibt es keine vernünftigen Regeln und Grenzen.

Ein besonderes Erlebnis war ein Konzert von Musikern und Musikerinnen der Musikhochschule Münster. Zu hören, zu sehen und zu erleben, wie sich junge Menschen Musikwerke aneignen, sie umformen und ihren eigenen Ausdruck finden hinsichtlich dessen, was ein Musikstück ausstrahlt, ist eindrucksvoll und schafft eine neue musikalische Wirklichkeit.

In anderer Weise gilt das auch für die Religion. Sie ist mitnichten als ein gesellschaftliches System (Niklas Luhmann) angemessen beschrieben. Religion als derjenige Bereich des Menschlichen, der es mit dem Göttlichen zu tun bekommt, ist ein so wesentlicher eigenständiger Bereich, dass er nicht in der Antithese von Immanenz und Transzendenz erfasst werden kann. In den Religionen vollzieht sich auf sehr unterschiedliche Weise durch Meditation, Tanz, Ritual usw. eine Selbstbeziehung, Selbstbegrenzung und Selbsttranszendierung auf etwas, das den Menschen sowohl einzeln als auch innerhalb einer Gemeinschaft übersteigt. Der Mensch sieht sich konfrontiert mit einer Wirklichkeit, die sein natürliches Dasein begründen, begleiten und ausrichten kann und die ihn unter, inmitten und jenseits der natürlichen Welt umgibt. Diese vagen Formulierungen deuten an, dass Religion in ihrer jeweiligen kulturellen Ausprägung sowohl innerweltlich (Schamanen, Ahnen) als auch vorweltlich (Traumzeit) und jenseitig (das Göttliche, Gott) und zugleich als Verschränkung dieser drei Dimensionen beschreibbar ist. Jenseitige-Welt-Vorstellungen, wie sie dem christlich-jüdisch- islamischen Religionskreis zugeschrieben werden, sind, falls sie zutreffen, kein exklusives Muster, das als Maßstab dienen kann. Religionen als kulturelle Gegebenheiten sind so vielfältig, dass es schwerfällt, das darin sich äußernde Welt- und Lebensgefühl auf einen gemeinsamen Nenner zu bringen. Vielleicht ist es dies, dass sich der Mensch innerhalb seiner natürlichen Welt von einer darüber hinausgehenden Wirklichkeit umgeben und durchdrungen sieht, die sich dem zweckrational-technischen, nur verstandesmäßigen Zugriff entzieht. Als gesellschaftlich geronnene Form mag Religion dann auch soziologisch als System beschreibbar sein und theologisch rational gestaltet werden.

Wie immer man sich selbst gegenüber der Welt der Kunst oder gegenüber der Wirklichkeit der Religion verortet und verhält, positiv, negativ oder indifferent, muss jeder einzelne mit sich ausmachen. Es gibt das bekannte Bonmot, man sei „religiös unmusikalisch“ (Max Weber; Jürgen Habermas, siehe dazu Dirk Kaesler), um eine distanzierte Nähe oder Ambivalenz auszudrücken. Es ist kein Zufall, dass diese Metapher Kunst und Religion verbindet, als sei die Religion mit der Musik und diese mit der Religion vergleichbar oder zusammengehörig. Vielleicht drückt sich darin sehr prägnant aus, wie ‚Vernunftmenschen‘ und ausgewiesene Wissenschaftler bei aller notwendigen rationalen Verpflichtung ihrer Arbeiten doch um eine Grenze wissen, um ein Anderes gegenüber der Vernunft, dessen man teilhaftig sein kann oder nicht, dessen Kraft und Wirklichkeit aber für diejenigen, die religiös oder musikalisch oder beides sind, unzweifelhaft gegeben ist. Genau so verstanden ist Vernunft maßvoll und wirksam, ausgezeichnet als eine der besten Fähigkeiten des Menschen, aber doch nur als eine der vielfältigen Lebensäußerungen, die Kultur und Welt prägen, die den Menschen zugleich einbetten in eine umfassendere Wirklichkeit, die nicht auszumessen und letztlich nicht zu ergründen ist.

Reinhart Gruhn

Kausalität – causation

 Naturwissenschaft, Philosophie  Kommentare deaktiviert für Kausalität – causation
Aug 202017
 

I

Eine wesentliche Bedingung unseres heutigen physikalischen Weltbildes ist kausale Geschlossenheit. Die Behauptung kausaler Geschlossenheit ist ein Schlüsselargument sowohl in anti-metaphysischer Zielrichtung (was soll bei kausaler Geschlossenheit der Physik noch „meta = darüber hinaus“ sein?) als auch in einer naturalistischen theory of mind, die entweder reduktionistisch mentale Prozesse mit physikalischen bzw. physiologischen Prozessen gleichsetzt oder epiphänomenal mentale Prozesse über physikalischen ’supervenieren‘ lässt, ohne dass die mentale Ebene ihrerseits physikalische Prozesse auslösen (gegen Überdeterminierung) oder initiieren kann: Genau dies wird ausgeschlossen durch das Argument der kausalen Geschlossenheit physikalischer Prozesse. Auch innerhalb der Physik selber ist die kausale Geschlossenheit lokaler Prozesse ein Dogma von hohem Stellenwert. „Spukhafte Fernwirkungen“ (Quantenphysik) waren Einstein ein Gräuel, der gerade mit der Relativitätstheorie Newtons Gravitation lokal ‚geerdet‘, nämlich auf Inertialsysteme bezogen hatte. Nun sollte die Quantenphysik mit nicht-lokalen Ereignissen die kausale Geschlossenheit wieder aushebeln? Wir wissen, sie tut es. Aus diesem Grunde versuchen Physiker nach wie vor, die Quantentheorie mit dem Weltbild der Relativitätstheorie zu versöhnen, um die kausale, wenngleich nicht unbedingt deterministische Geschlossenheit des theoretisch-physikalischen Weltbildes aufrechtzuerhalten oder wiederherzustellen.

Auch der Determinismus hängt wesentlich von kausalen Verhältnissen ab, wird doch ‚deterministisch‘ als etwas verstanden, das notwendig durch eine Kausalkette bestimmt ist und in einer gegebenen Welt von Naturgesetzen beherrscht wird. Damit taucht der dritte Begriff auf: Naturgesetz, der mit Kausalität und Determinismus zu einem Theoriegebäude zusammengehört. Die drei Begriffe verweisen wechselseitig aufeinander, wobei der Grundbegriff der Begriff der Kausalität ist. Kausale Verknüpfungen bestimmen alle Prozesse der physikalischen, sogar der natürlichen Welt, lassen sie als von Ursachen bedingte Ereignisse verstehen und erklären und führen durch Verallgemeinerung zur Formulierung von Naturgesetzen, die ihrerseits Prognosen über künftige Verläufe zulassen. Der Begriff des Naturgesetzes ist zwar seinerseits problematisch und von Induktion, Konditionen und Regularitäten abzugrenzen, dennoch hängt er engstens mit dem Verständnis kausaler Verknüpfungen und kausaler Geschlossenheit zusammen. Kausalität ist offenbar der beste Weg zu „erkennen, was die Welt im Innersten zusammenhält“ (Faust I). Dafür ist es allerdings erforderlich, genau zu wissen, was denn Kausalität eigentlich ist. Darum bemüht sich heutige Philosophie, und es ist sehr viel schwieriger, als man beim ersten Anschein meinen könnte. Ich möchte hier drei Ansätze skizzieren und sehen, ob die bisherige Diskussion über Kausalität zu mehr Klarheit und besserem Verständnis geführt hat. 1)

II

Der moderne locus classicus des Problems einer Definition von Ursache (cause) und Wirkung (effect) steht bei David HumeAn Enquiry Concerning Human Understanding (1748), Kap VII/2:

We may define a cause to be an object, followed by another, and where all the objects, similar to the first, are followed by objects similar to the second. Or in other words, where, if the first object had not been, the second never had existed. The appearance of a cause always conveys the mind, by a customary transition, to the idea of the effect. Of this also we have experience. We may, therefore, suitably to this experience, form another definition of cause; and call it, an object followed by another, and whose appearance always conveys the thought to that other. … But though both these definitions be drawn from circumstances foreign to the cause, we cannot remedy this inconvenience, or attain any more perfect definition, which may point out that circumstance in the cause, which gives it a connexion with its effect. We have no idea of this connexion…

Humes Ausführungen breiten ein Tableau von Fragestellungen aus, das die Philosophie die nächsten Jahrhunderte bis heute beschäftigt. Was unterscheidet eine kausale Abfolge von einer bloß zufälligen? Selbst wenn eine Beziehung zwischen zwei zeitlich auf einander folgenden Ereignissen vermutet werden kann, wie kann sichergestellt werden, dass es sich nicht nur um Korrelationen (statistisch ermittelt), sondern um Kausalverhältnisse handelt? Was begründet und beinhaltet diese connexion, von der Hume keine Vorstellung zu haben einräumt? Liegt die kausale Verknüpfung in re, in der ‚Sache selbst‘, oder ist er lediglich ein Produkt unserer Vorstellung, nach dem der menschliche Geist erfahrungsgemäß aufgrund eines Ereignisses c ein zweites Ereignis e erwartet (‚konstruiert‘) und ähnliche Folgeereignisse daraus ableitet wie die Klänge aus den Schwingungen einer Saite? Liegt die Verknüpfung von cause und effect also nur in der Tätigkeit unseres Verstandes, wie es Kant nahelegt? Lässt sich etwas Genaueres über die Art der Verknüpfung herausfinden, die die Verbindung zweier Ereignisse zu einer Kausalverknüpfung macht und den Prozess dieser und folgender Verknüpfungen zu einer Kausalkette der Ereignisse selbst werden lässt? Was genau unterscheidet cause und effect, Ursache und Wirkung, die doch offenbar raumzeitlich irgendwie verbunden sind?

III

David Lewis setzt in seinem Aufsatz „Causation“ 2) bei dem zweiten Teil von Humes erster Definition an, der Negativaussage: „Or in other words, where, if the first object had not been, the second never had existed.“ Lewis will den Schwierigkeiten entgehen, die eine Analyse von Regularitäten, Epiphänomenen und potentiellen Effekten mit sich gebracht haben. Darum schlägt er mit dem negativen Ansatz eine kontrafaktische Erklärung von Verursachung vor 3), wiewohl ihm die Schwierigkeiten mit counterfactual conditions sehr wohl bewusst sind. Lewis möchte darum keine zu weitgehende Definition wagen, sondern sich bei kontrafaktischen Erklärungen darauf beschränken, was sie ganz einfach leisten können: mögliche Alternativen zu gegenwärtigen Situationen aufzuzeigen. Er glaubt, damit konsistent Kausalität zu beschreiben und eigentliche Ursachen von Effekten, Epiphänomenen und bloß potentiellen Ursachen unterscheiden zu können. 4) So definiert Lewis:

Causal dependence among actual events implies causation. If c and e are two actual events such that e would not have occurred without c, then c is a cause of e. But I reject the converse. Causation must always be transitive; causal dependence may not be.

Der zweite Teil der Definition zeigt schon, wo der Hase im Pfeffer liegen kann: Verursachung darf unter kontrafaktischen Bedingungen nicht in umgekehrter Richtung (converse) verlaufen, muss also ‚transitiv‘, vorwärts gerichtet, sein, um Fehlschlüsse zu vermeiden. Schon die Scholastik wusste, das Schlüsse ex negatione trügerisch, bestenfalls widersprüchlich sind – spurious causal dependence nennt es Lewis. Rückwärts gerichtete Verursachung bleibt in jedem Falle höchst problematisch. Aber aus dem kontrafaktischen Schluss „c verursacht e, weil, wenn c nicht wäre, es auch e nicht gäbe“, folgt eben nicht (verboten nach Lewis), dass „wenn e nicht da ist, es auch c nicht gibt“. Dies sei nur ein Problem des Determinismus, dass jede Änderung von e (Zukunft) auch eine Änderung von c (Vergangenheit) bedinge. Das ist absurd, meint Lewis, eher müsse man Abweichungen von Naturgesetzen in Kauf nehmen: „Violation is a matter of degree.“ 5) Das muss einen nicht unbedingt überzeugen. Diese „Was-wäre-wenn-Theorie“, wie ich es etwas salopp nennen möchte, krankt genau daran, was Lewis gesehen hat, aber vermeiden wollte: Es müssen zum einen eine Reihe von Zusatzbedingungen erfüllt werden, um die kontrafaktische Erklärung kausaler Verknüpfungen nicht unsinnig werden zu lassen, d. h. unsinnige Schlussfolgerungen zu vermeiden, und man muss sich zum anderen betreffs der Wahrheitsbedingungen von counterfactuals auf Viele-Welten-Theorien (und seien es auch nur ähnliche Welten) verpflichten, was erkenntnistheoretisch auch nicht überall Begeisterung hervorruft. Ich sehe nicht, wo Lewis über Humes Eingeständnis hinauskommt: „no idea about this connexion“.

IV

Direkt auf das Problem der Art der Verknüpfung (connexion) von Ursache und Wirkung steuert Wesley C. Salmon zu. In seinem Aufsatz „Causality without counterfactuals“ legt er einen revidierten Entwurf seiner Definition von Kausalität vor 6), denn eine solche liefert er im Unterschied zu Lewis. Salmon definiert causal interactions im Rahmen kausaler Prozesse (causal lines [Russell] mit spacetime intersections) als grundlegende kausale Mechanismen, in denen einem Objekt etwas (marks, conserved quantities) übermittelt wird. Damit will er genau die kausale Verknüpfung konkret bestimmen, die Hume vergeblich zu fassen suchte. 7) Zugleich gilt es, kausale Prozesse von Pseudoprozessen zu unterscheiden, was weder Russell gelungen sei noch mit counterfactuals möglich sei. Darum muss Salmon in seiner Definition strikt ohne kontrafaktischen Aussagen auskommen. Was ist nun dieses Etwas, das im kausalen Prozess objektiv physikalisch übermittelt wird?

Billard Anstoss

Break

1984 definiert Salmon einen kausalen Prozess als die Fähigkeit, „marks“, Eigenschaften zu übermitteln, „marks“ können Energie, Information oder andere kausale Einflüsse sein, gewissermaßen Qualitäten eines Objekts, das Teil eines kausalen Prozesses ist 8). Paradebeispiel ist das Verhalten von Billardkugeln oder das eines Lichtstrahls, der mit einem Rotfilter auf eine Wand geworfen wird 9). Dies ist noch ziemlich unscharf und erklärungsbedürftig und wurde insbesondere von P. Dowe einer substanziellen Kritik unterzogen. Dowe schlägt vor, statt von marks besser von conserved quantities zu sprechen. Diesen Vorschlag aufgreifend und weiter präzisierend bestimmt Salmon nun einen kausalen Prozess als die sich kreuzenden Weltlinien eines Objekts mit einem anderen Objekt, das dabei Werte einer Erhaltungsgröße übermittelt 10). Unter conserved oder invariant quantity versteht Salmon die basalen Erhaltungsgrößen der Physik wie Masse / Energie, Impuls, Ladung. Er fügt zwar noch ‚Information‘ an, ohne zu präzisieren, was unter dieser über die Erhaltungsgrößen hinaus denn vorzustellen wäre 11). Aufgrund des plastischen Beispiels mit den Billardkugeln nenne ich Salmons Vorschlag die Billardtisch-Theorie. Es gelingt ihm tatsächlich zu benennen, was der eigentliche Inhalt der Verknüpfung ist, die sich in einem kausalen Prozess manifestiert, nämlich die Übermittlung oder Weitergabe von numerischen Werten basaler physikalischer Größen, die von Erhaltungssätzen in jedem Bezugssystem (darum invariant) regiert werden. Humes „no idea“ ist durch eine konkrete Bestimmung ersetzt, die Salmon sowohl von sogenannten Pseudoprozessen, also solchen, die keine invariante Größen übermitteln wie z.B. Schatten, unterscheiden und die er zugleich ohne kontrafaktische Bedingungen definieren kann. Salmons klares Modell hat nur einen Nachteil: Es ist auf physikalische Kausalprozesse beschränkt, sogar auf mechanistische, denn quantenphysikalische Prozesse „übermitteln“ nichts. Über Ursache und Wirkung in anderen lebensweltlichen Bereichen ist mit Salmon wenig gewonnen. Aber mehr wollte er vielleicht gar nicht, wenn er als sein Ziel erklärt, eine „Prozesstheorie physikalischer Kausalität“ zu begründen 12). Dies Ergebnis bleibt also hinsichtlich einer umfassenden Theorie der Kausalität unbefriedigend.

V

In eine ganz andere Richtung bewegt sich James Woodward. In seinem Buch „Making Things Happen“ (2003) legt er eine umfassende Theorie kausaler Erklärungen vor. Woodward leistet damit eine Aufarbeitung und Darstellung bisheriger Lösungsvorschläge für eine Theorie der Kausalität ebenso wie eine ausführliche und detailliert dargestellte Erklärung der Beziehungen und Strukturen kausaler Verhältnisse und Prozesse. Er nennt es eine manipulability theory of causation , also eine funktionale Theorie kausaler Verursachung und Kontrolle. Er greift damit einen Ansatz unter anderem von Roger Newton auf, Kausalität zu begreifen als die Möglichkeit, mittels eines Eingriffs in A (command) eine Veränderung (switch) in B zu erzeugen. Woodward geht es in seinem Ansatz in erster Linie darum zu zeigen, wie Kausalverhältnisse strukturiert sind, wie sie wirken / funktionieren und wie man sich bedingter Verursachung zwecks Beeinflussung und Manipulation (neutral verstanden) erzielbarer Wirkungen bedienen kann. Seine Erklärungen und grafischen Modelle stellen vielleicht am genauesten dar, wie in der experimentellen Praxis der Naturwissenschaften und der empirischen Gesellschaftswissenschaften tatsächlich verfahren wird. Seine Arbeit ist zwar die Ausarbeitung einer Theorie kausaler Erklärung (Untertitel), aber immer in pragmatischer Absicht: Wozu ist das nütze? Was kann man damit machen? Insofern ist der Buchtitel Making Things Happen durchaus Programm. Bei diesem Ansatz kann man schon vermuten, dass es Woodward weniger um die Beantwortung der Frage nach Humes „no idea“, also der Art der Verknüpfung geht. Nicht was Kausalität eigentlich ist, sondern wie sie funktioniert ist das Ziel seiner Ausführungen – im besten Sinne eine funktionale Theorie kausaler Beziehungen.

Woodwards grundlegende Definition lautet: „Eine notwendige und hinreichende Bedingung für X, eine direkte Ursache von Y zu sein in Bezug auf eine variable Menge V ist die, dass es einen Eingriff an X gibt, der Y oder die wahrscheinliche Verteilung von Y verändert, wenn man alle anderen Variablen Z in V mit einem bestimmten Wert unverändert lässt.“ 13) Entsprechend definiert er eine Mit-Ursache so, dass es einen direkten Pfad von X zu Y gibt derart, dass jede Verknüpfung auf diesem Pfad eine direkte kausale Beziehung ist 14). Das klingt im Original sehr kompliziert, und es bedarf auch ausführlicher Erklärungen, die Woodward gibt, um seine Theorie abzugrenzen gegen andere zum Beispiel kontrafaktische oder strukturale Modelle. Dazu unterscheidet Woodward penibel Gesamtursachen (total cause), Mit-Ursachen (contributing cause), direkte Ursachen (direct cause), notwendige und hinreichende Bedingungen, gerichtete Wirkungspfade bzw. Kausalketten (directed path), kausale Faktoren (causal factors), berücksichtigt die gültigen Variablen, bezieht Wahrscheinlichkeiten in die Verursachung ebenso ein wie nur begrenzte und darin näher zu bestimmenden Interventionen. Eine eigene Untersuchung ist der aktuellen Verursachung (actual causation) gewidmet, die sich von einer allgemein möglichen durch ihre konkrete Einmaligkeit unterscheidet. Seine getroffenen Festlegungen verdeutlicht er am Beispiel einer Gesundheitserhebung, welche die Wirksamkeit eines Präparats mittels einer ausgesuchten Testgruppe und einer ebenso ausgesuchten Kontrollgruppe (ohne Präparat) in ihren Auswirkungen untersucht. Hier gehen viele nur annähernd bestimmbare und nur begrenzt vorhersehbare Variablen ein wie der jeweilig Gesundheitszustand, Alter, Bereitwilligkeit, Zuverlässigkeit usw. der Testpersonen. Nicht zufällig wählt Woodward sein Beispiel aus dem Bereich empirischer Sozialwissenschaften und nicht, wie Salmon, aus der Physik. Hier bestimmt er genauer, was eine Intervention ist und von welchen Variablen sie abhängt. Breiten Raum nehmen seine Graphen ein, mit denen er die komplexen möglichen oder aktuell gegebenen Bezüge zwischen verschiedenen Ursachen und ihren Wirkungen anschaulich macht. Heraus kommt das recht realistisch Bild von Verursachung als eines Cluster – Konzepts. Seine Definitionen von Interventionen / Manipulationen nennt er ein „regulatives Ideal“, um auch in nicht-experimentellen Situationen Kriterien für die Beurteilung von Kausalzusammenhängen zu haben 15). Daher ist es auch klar, dass Woodward bestimmte kontrafaktische Bedingungen in Gedankenexperimenten über Kausalität keine Sorgen bereiten müssen 16).

Ohne Zweifel gelingt Woodward in seinem Buch eine eindrucksvolle Zusammenfassung bisheriger Lösungsansätze zur Beschreibung und zum Verständnis des Ursache – Wirkungs- Zusammenhangs mit weitreichender explanatorischer Kraft und einer Vielzahl von Anwendungsbereichen 17). Woodward hat wohl recht mit der Feststellung, dass sein Konzept einer manipulability theory of causation mehr den empirischen Wissenschaften zugewandt ist als den Philosophen, gleichwohl ist es ein umfassender, detailliert ausgearbeiteter philosophischer Entwurf eines funktionalen Verständnisses von Kausalität 18).

VI

Zum besseren Verständnis dessen, was Kausalzusammenhänge bedeuten, haben wir drei Entwürfe betrachtet, das „Was-wäre-wenn-Modell“ (Lewis), das Billardtisch – Modell (Salmon) und das „Wozu-ist-das-nütze – Modell“ einer funktionalen Theorie der Kausalität (Woodward). Es sind keineswegs die einzigen oder einzig möglichen, aber gegenwärtig bedeutende und erhellende Ansätze, über Kausalität nachzudenken. Haben wir dadurch auch eine Antwort auf Humes Frage bekommen, was denn die Verknüpfung in einer kausalen Beziehung wirklich ist? Am ehesten hat Salmon mit seiner Theorie der Übermittlung von invarianten Eigenschaften diese Frage beantwortet, aber sie gilt allenfalls im physikalischen Bereich. Alle drei Entwürfe müssen sich außerdem der Frage stellen, die Hume in seiner zweiten Definition anklingen ließ, nämlich inwieweit der Kausalzusammenhang nur in mente, nur in der Vorstellung des Menschen besteht, der auf ein bestimmtes Ereignis ein genau darauf folgendes, dem vorhergehenden entsprechendes Folgeereignis erwartet. Salmon geht darauf ein, wenn er sich am Ende seines Aufsatzes von 1994 mit P. Kitchers Einwand befasst. Es ist mit Salmons Worten der Einwand, dass das „Weil“ der Verursachung bloß abgeleitet ist vom „Weil“ der (besten) Erklärung 19); er lässt ihn als eben entgegengesetzt mehr oder weniger unbeantwortet stehen. Woodward stellt sich diese Frage gar nicht aufgrund seiner funktionellen Analyse. Bei der Frage „Wozu ist das nütze?“ braucht er sich nicht damit aufzuhalten, was die kausale Verknüpfung ‚eigentlich‘ ist; die Funktionalität geht über die Alternative in re – in mente hinaus. Schließlich bleibt aber auch hier zu fragen, worin und wodurch Kausalverhältnisse unterschieden und anders sind als Korrelationen, seien sie zufällig oder durch natürliche Verteilungsverhältnisse hervorgerufen. In mancher Hinsicht mag die Frage nach dem konkreten Nexus der Kausalverbindung überflüssig sein, wenn zum Beispiel Stochastik und Chaostheorien auf ganz andere Weise Zusammenhänge und Verknüpfungen konstruieren und abbilden können.

Dennoch scheint es so, als wäre Kausalität so etwas wie der Notenschlüssel der Partitur, in der die Natur ihre Harmonien und Sprünge erklingen lässt, nur dass wir diesen Notenschlüssel immer noch nicht ganz verstanden haben. Humes Tableau der offenen Fragen ist weiterhin aktuell.

Reinhart Gruhn

 


Anmerkungen

  1. Diese Ausführungen sind angeregt durch ein Seminar über Kausalität ua. von Prof. Ulrich Krohs im SS2017 an der WWU Münster. [zurück]
  2. David Lewis, Causation, The Journal of Philosophy, Volume 70, Issue 17, 1973, S. 556-567 [zurück]
  3. „A promising alternative is not far to seek. Hume’s „other words“ —that if the cause had not been, the effect never had existed—are no mere restatement of his first definition. They propose something altogether different: a counterfactual analysis of causation.“ S. 557 [zurück]
  4.  „In this paper, I shall state a counterfactual analysis, not very different from Hume’s second definition, of some sorts of causation. Then I shall try to show how this analysis works to distinguish genuine causes from effects, epiphenomena, and preempted potential causes.“ S. 558 [zurück]
  5. „Under determinism any divergence, soon or late, requires some violation of the actual laws. If the laws were held sacred, there would be no way to get rid of e without changing all of the past; and nothing guarantees that the change could be kept negligible except in the recent past. That would mean that if the present were ever so slightly different, then all of the past would have been different— which is absurd. So the laws are not sacred. Violation of laws is a matter of degree.“ S. 567 [zurück]
  6. Wesley C. Salmon, Causality without Counterfactuals, in: Philosophy of Science, Vol. 61, No. 2 (Jun., 1994), pp. 297-312. Angeregt durch P. Dowe überarbeitet er darin seinen 1984 vorgelegten Entwurf über die „Causal Structure of the World“. [zurück]
  7. „The main point is that causal processes, as characterized by this theory, constitute precisely the objective physical causal connections which Hume sought in vain.“ S. 297 [zurück]
  8. „A causal process is one that is self-determined and not parasitic [non-pseudo] upon other causal influences. A causal process is one that transmits energy, as well as information and causal influence. The fundamental criterion for distinguishing self-determined energy transmitting processes from pseudo-processes is the capability of such processes of transmitting marks.“ S. 146 (1984) [zurück]
  9. Salmon benutzt sehr ausführlich das Beispiel einer rotierenden Lichtquelle in der Mitte eines runden Gebäudes, eines „super-Astrodomes“, um kausale Prozesse, z.B. der rot ‚markierte‘ Lichtstrahl, der als roter Punkt auf die Wand trifft, von Pseudoprozessen, also der auf der Wand herumhuschende Lichtpunkt, zu unterscheiden, siehe S. 141 ff (1984). [zurück]
  10. „A causal process is a world-line of an object that transmits a nonzero amount of an invariant quantity at each moment of its history (each spacetime point of its trajectory).“ S. 308 (1994) [zurück]
  11. „A necessary condition for a quantity to be transmitted in a process is that it can meaningfully be said to characterize or be possessed by that process at any given moment in its history.“ S. 306 (1994) [zurück]
  12. „We have, I believe, clean definitions of causal interaction, causal transmission, and causal processes on which to found a process theory of physical causality.“ S. 310 (1994) [zurück]
  13. „A necessary and sufficient condition for X to be a (type-level) direct cause of Y with respect to a variable set V is that there be a possible intervention on X that will change Y or the probability distribution of Y when one holds fixed at some value all other variables Z in V.“ S. 59 [zurück]
  14. Die vollständige Formulierung lautet: „A necessary and sufficient condition for X to be a (type-level) contributing cause of Y with respect to variable set V is that (i) there be a directed path from X to Y such that each link in this path is a direct causal relationship: that is, a set of variables Z1… Zn such that X is a direct cause of Z1, which is in turn a direct cause of Z2, which is a direct cause of … Zn, which is a direct cause of Y, and that (ii) there be some intervention on X that will change Y when all other variables in V that are not on this path are fixed at some value. If there is only one path P from X to Y or if the only alternative path from X to Y besides P contains no intermediate variables (i.e., is direct), then X is a contributing cause of Y as long as there is some intervention on X that will change the value of Y, for some values of the other variables in V.“ ebd. [zurück]
  15. „I emphasized above that the point of the conditions in IN is not that reliable causal inference is possible only when those conditions are met. Instead, the role of IN (and thus of M and TC) is to serve as a kind of regulative ideal: they tell us what must be true of the relationship between X and Y if X causes Y and in this way tell us what we should aim at establishing, perhaps on the basis of nonexperimental evidence or on the basis of an imperfect or nonideal experiment, if we want to show that a causal claim is true. In other words, when we engage in causal inference regarding the effects of X in a situation in which there is no variable that satisfies all of the conditions for an intervention variable with respect to X (or at least there is no such variable that we are able to observe or measure), we should think of ourselves as trying to determine what would happen in an ideal hypothetical experiment in which X is manipulated in such a way that the conditions in IN are satisfied.“ S. 114 – Der Absatz ist typisch für den Stil und die Genauigkeit Woodwards. [zurück]
  16. Bezogen auf sein Beispiel des Gesundheitstests führt er als mögliche Überlegung aus: „If those in the control group had received the drug, the incidence (or expected incidence) of recovery in that group would have been much higher.“ S. 122 [zurück]
  17. „This book is an attempt to construct a comprehensive account of causal explanation that applies to a wide variety of causal and explanatory claims in different areas of science and in ordinary life, which engages some of the relevant literature from other disciplines and avoids at least some of the difficulties faced by previous philosophical treatments.“ S. 4 [zurück]
  18. „The manipulability conception plays an important role in the way that scientists themselves think about causal explanation but has received rather less attention from philosophers.“ S. 9 [zurück]
  19. „Kitcher’s motivation is essentially the opposite; he supports an altogether different account of causality. His thesis is that „the ‚because‘ of causation is always derivative from the ‚because‘ of explanation“ (ibid., 477). My view is roughly the opposite,“ S. 311 (1994) [zurück]