Jul 172019
 

Einführung in die Technikwissenschaften [Langtext]

I. Einführung

Technik und technische Produkte umgeben uns ständig, wir nutzen sie fortwährend und selbstverständlich. Uns stößt nur dann etwas Technisches auf, wenn es nicht funktioniert, wie es soll. Funktionierende Technik ist im Alltag ein transparenter Gegenstand oder Vorgang, dem an sich selbst wenig Beachtung geschenkt wird. Wichtig ist das Handeln, die Praktik mit einem bestimmten Ziel, die sich eines technischen Mittels, des Lichtschalters zum Beispiel, bedient. Schon diese wenigen Sätze sind recht voraussetzungsvoll. Fangen wir darum mit den Begriffen an.

Wir sprechen von Technik, wenn wir das Funktionieren eines Alltagsgegenstandes meinen, z.B. von der Technik des Kühlschranks reden. Wir können ‚Technik‘ aber auch umfassend gebrauchen, wie in der Zusammensetzung ‚Welt der Technik‘. Der Duden beschreibt fünf Bedeutungsweisen des Begriffes „Technik“:

  1. Gesamtheit der Maßnahmen, Einrichtungen und Verfahren, die dazu dienen, die Erkenntnisse der Naturwissenschaften für den Menschen praktisch nutzbar zu machen
    BEISPIELE
    1. die moderne Technik
    2. ein Wunder der Technik
    3. auf dem neuesten Stand der Technik
  2. besondere, in bestimmter Weise festgelegte Art, Methode des Vorgehens, der Ausführung von etwas
    BEISPIELE
    • die virtuose, brillante, saubere Technik der Pianistin
    • eine Technik erlernen, beherrschen
  3. technische Ausrüstung, Einrichtung für die Produktion
    BEISPIELE
    • eine Werkstatt mit modernster Technik
    • unsere Technik ist veraltet
  4. technische Beschaffenheit eines Geräts, einer Maschine o. Ä.
    BEISPIEL
    • mit der Technik einer Maschine vertraut sein
  5. Stab von Technikern
    BEISPIEL
    • unsere Technik hat ein Problem

Davon zu unterscheiden ist der Begriff ‚Technologie‘, der zunehmend gleichbedeutend mit dem allgemeinen Verständnis von ‚Technik‘ gebraucht wird. Der Duden definiert „Technologie“ so:

  1. Wissenschaft von der Umwandlung von Roh- und Werkstoffen in fertige Produkte und Gebrauchsartikel, indem naturwissenschaftliche und technische Erkenntnisse angewendet werden
  2. Gesamtheit der zur Gewinnung oder Bearbeitung von Stoffen nötigen Prozesse und Arbeitsgänge; Produktionstechnik
    BEISPIEL
    • moderne, neue Technologien einführen, anwenden

Da haben wir nun die Wissenschaft (episteme) mit dabei, die bei Aristoteles von der Herstellung (techne) unterschieden wird, aber als Methodik zur herstellenden Tätigkeit insgesamt (poiesis) hinzutritt. „Jede Kunst ist ein System von festen Regeln, die auf den Einzelfall angewendet werden müssen. Sie hat zwei Seiten: die theoretische des auf das Erkennen der Ursachen beruhenden, geregelten Verfahrens (μέϑοδος, méthodos) und die praktische, anwendungsbezogene einer entsprechenden Kompetenz oder Fähigkeit (δύναμς, dýnamis), die der hat, welcher das Werk … hervorbringt.“ (Franz-Hubert Robling, zit nach Wikipedia). Über das Verhältnis zwischen der Praxis der Herstellung und den dazu erforderlichen Kenntnissen und Fähigkeiten, also zwischen episteme und techne, denkt die Technikphilosophie nach, genauer die Philosophie der Technikwissenschaften (Theory of Design), die einen Bereich der Wissenschaftsphilosophie darstellt. Auch wenn Technikphilosophie im Wissenschaftsbetrieb hierzulande bislang nur eine geringe Rolle spielt, ist sie keineswegs eine müßige Beschäftigung. Sie sucht die Hintergründe und Zusammenhänge eines so wichtigen Lebensbereiches wie den der ‚Technik‘ analytisch zu erhellen. Eigentlich müsste es eine Basiswissenschaft sein.

II. Die Problemstellung

An den niederländischen Universitäten ist das viel stärker der Fall, darum stammt das derzeitige Grundlagenwerk zum Thema Technikphilosophie auch von holländischen Wissenschaftlern: Anthonie Meijers, (ed.), Philosophy of Thechnology and Engineering Science, Handbook of the Philosophy of Science Vol. 9, Elsevier 2009. Anthonie Meijers lehrt an der Technischen Universität Eindhoven. Auf seiner Homepage findet sich das Motto: „Technical objects are also material things with social functions. I think it is essential that engineers understand this.“ Darauf werden wir noch zurückkommen. In seiner Einführung in den umfangreichen Sammelband schreibt er:

“Now, if there are no artifacts, then there are no
philosophical problems about artifacts.”
[Van Inwagen, 1990, p. 128]
Not so very long ago most philosophers of science maintained that the subjectmatter of this volume was uninteresting and most ontologists claimed it was nonexistent. It was thought to be uninteresting because technology was taken to be an applied science in which the application itself presented no new philosophical challenges. It was believed to be non-existent, because technological artifacts and systems did not live up to the criteria for being part of the ultimate inventory of the world. A combination of these two views leads to the rather fatal conclusion that the philosophy of technology and engineering sciences is boring stuff about non-existing entities! This volume shows how completely wrong that conclusion is.

a.a.O. S. 1

Damit ist zunächst die Situation beschrieben, dass herkömmlich der Technikphilosophie keine eigene Rolle zugewiesen wird, weil sie ‚irgendwie‘ zwischen den theoretischen Naturwissenschaften und der praktischen Anfertigung von Artefakten (Ingenieurwesen) steht, materiellen Dingen und Systemen also, deren Eigendynamik und Eigenwert damit übersehen wird. Denn Artefakten kommen von Anfang an soziale Funktionen zu, genau dies ist für sie wesentlich. Wie genau materielle Artefakte (Technik) und (soziale) Funktionen zusammenhängen, ist ein weites Feld der Erörterung.

… technology and engineering cannot be identified exclusively in terms of a body of systematic knowledge. After all they do not aim at knowledge for its own sake, but rather at the development and use of knowledge for practical purposes. Technology or engineering is primarily a practice which is knowledge-based. In this practice scientific knowledge, but also experience-based know-how, codes and standards, customer requirements, organizational, legal and economic constraints, physical circumstances, scarcity of resources, uncertainty and ignorance play an important role.

Carl Mitcham made a useful distinction between four modes of technology:
• technology as a set of artifacts or systems of artifacts;
• technology as a form of knowledge (for the design, production, maintenance and use of technological artifacts and systems);
• technology as a range of activities (designing, producing, maintaining and using artifacts); and
• technology as an expression of the will of its makers, designers and producers (volition).
This distinction shows in another way that the cognitive dimension of technology is important, but does not suffice to define technology.

a.a.O.. S. 3; 4

Ein anderes grundlegendes Werk zum Thema ist schon fünfzig Jahre alt und stammt von dem US-Nobelpreisträger (Ökonomie) Herbert Alexander Simon (1916 – 2001): The Sciences of the Artificial, 1969, 3. überarbeitete Auflage 1996, 4. Aufl. als re-print 2001. Der Text der dritten Auflage ist frei verfügbar. Nachdem Simon im ersten Kapitel „Understanding the Natural and Artificial Worlds“ den weiten Themenrahmen abgesteckt hat, befasst er sich in Kapitel 5 und 6 speziell mit „The Science of Design: Creating the Artificial“ und „Social Planning: Designing the Evolving Artifact“. Im Unterschied zur natürlichen Welt gibt es in der ‚künstlichen‘ Welt der Artefakte eine Reihe von Besonderheiten, die einem zunächst gar nicht auffallen, die aber genauer zu untersuchen sind. Seine Aufgabe beschreibt Simon so:

The kernel of the problem lies in the phrase „artificial science.“ The
previous chapters have, shown that a science of artificial phenomena is always in imminent danger of dissolving and vanishing. The peculiar properties of the artifact lie on the thin interface between the natural laws within it and the natural laws without. What can we say about it? What is there to study besides the boundary sciences – those that govern the means and the task environment?
The artificial world is centered precisely on this interface between the inner and outer environments; it is concerned with attaining goals by adapting the former to the latter. The proper study of those who are concerned with the artificial is the way in which that adaptation of means to environments is brought about – and central to that is the process of design itself.

a.a.O. S. 113

Als wesentliche Elemente einer Theory of Design fasst Simon folgende Punkte programmatisch für ein „Curriculum“ zusammen:

THE EVALUATION OF DESIGNS
1. Theory of evaluation: utility theory, statistical decision theory
2. Computational methods:
a. Algorithms for choosing optimal alternatives such as linear programming computations, control theory, dynamic programming
b. Algorithms and heuristics for choosing satisfactory alternatives
3. THE FORMAL LOGIC OF DESIGN: imperative and declarative logics
THE SEARCH FOR ALTERNATIVES
4. Heuristic search: factorization and means-ends analysis
5. Allocation of resources for search
6. THEORY OF STRUCTURE AND DESIGN ORGANIZATION: hierarchic systems
REPRESENTATION OF DESIGN PROBLEMS

a.a.O. S. 134

III. Einzelne Positionen

Folgende Problemkreise haben sich in der Diskussion über eine Theory of Design ergeben:

  • a) die Bestimmung der „richtigen“ Funktion (proper function)
  • b) die Bedeutung der Intention des Herstellers (belief of the maker)
  • c) das mögliche Auftreten von Emergenz bei komplexen Artefakten (ontological – epistemic; control-paradigm)
  • d) eine allgemeine Definition von Funktion und Design (intentional + non-intentional function)

zu a) Dass technische Artefakte Dinge für etwas sind, also einen Zweck oder eine bestimmte Funktion haben, scheint einfach auf der Hand zu liegen, aber welchen? Der Stuhl ist dazu gemacht, um darauf zu sitzen, – aber wenn ich ihn als Tritt benutze, um oben ans Regal zu kommen, – ist der Stuhl dann zur Leiter geworden, oder hat sich nur seine Funktion geändert? Schaut man näher bzw weiter hin, dann wird man kaum einen artifiziellen Gegenstand finden, der nicht irgendwie anders benutzt oder gebraucht werden kann, als es sein „ursprünglicher“ Zweck erkennen ließ. Aber was ist dann überhaupt der ursprüngliche Zweck, die „richtige“ Funktion? Ruth Millikan (1) und Beth Preston (2) haben dann sehr folgerichtig unterschieden zwischen „proper function“ und „system function“: proper function hat mehr etwas mit dem zugedachten Zweck eines Gegenstandes zu tun, verweist also auf seine Herkunftsgeschichte (kausal) ebenso wie auf die Intention seiner überwiegenden Nutzer. System function stellt den erweiterten Gebrauchsbereich dar, welche Funktion(en) ein Gegenstand innerhalb eines übergreifenden Systems tatsächlich hat. In einer Wohnung hat ein Stuhl sowohl die normale Aufgabe, Sitzgelegenheit zu sein, aber auch die, gelegentlich als Tritt zu dienen oder als Ablage für andere Gegenstände, usw. Das jeweilige Umfeld oder der Rahmen des Gebrauchs (System) bestimmt dann die konkrete Funktion. Preston weist darauf hin, dass proper function nur als Spezialfall einer immer umfassender gegebenen system function angesehen werden kann. Der proper use ergibt sich aus der jeweiligen ‚Umwelt‘. Überhaupt kann die Funktion eines technischen Artefakts auch als sein use plan (types of use, Houkes / Vermaas, (3)) beschrieben werden, der abhängig ist von der praktischen Verwendung.

Rathausuhr Heilbronn (c) Wikimedia

zu b) Eine ausführliche Diskussion wird über die Bedeutung der Absichten des Herstellers (intentions of the maker) eines Artefakts geführt. Die Akzente können in zweierlei Hinsicht gesetzt werden: Einmal ist es die Frage nach dem Wozu eines hergestellten Gegenstands, im Sinne von ‚Was hat sich der Hersteller dabei gedacht, ein solches Ding zu schaffen?‘. Beispiele werden besonders aus der ethnologischen und archäologischen Forschung angeführt, wenn unbekannten Gegenständen eine bestimmte Nutzungsweise zugeschrieben werden soll. Das ist durchaus nicht immer trivial, wenn zum Beispiel eine besondere ‚Verzierung‘ sich erst später als kunstvoller Kalender entpuppt (Bronzezeitlicher Goldhut). Zur Entdeckung einer solchen Funktion ist die (vermutete) Kenntnis der Intention des Herstellers innerhalb seines sozialen Umfeldes erforderlich; sie macht die besondere Bedeutung dieses Artefakts aus. Sofern Artefakte von Menschen hergestellte materielle Gegenstände (oder Systeme z. B: wie Aquädukte) sind, scheint das jeweilige Herstellungskonzept, die motivierende Intention, wesentlich zu einem Artefakt hinzuzugehören.

Dies arbeitet insbesondere Amie L. Thomasson heraus (4). Sie bestimmt die Gattung der „artifactual kinds“ strikt im Unterschied zu den „natural kinds“ eben aufgrund der mit ihnen verbundenen Intentionen: „metaphysical natures of artifactual kinds are constituted by the concepts and intentions of the makers – crucially apart from natural kinds“. „Thus the sense in which these artifacts and artifactual kinds are human creations does have important consequences for their metaphysics, and for our epistemic relation to them – consequences that mark them as importanly different from the objects and kinds of the natural sciences.“ Für Thomasson fallen somit die proper functions mit den intended functions zusammen. Zudem liegt darin ein privilegierter Wissenszugang der Hersteller (privileged knowledge of the makers) des jeweiligen Artefakts begründet. Auch wenn diese Analyse nicht überall Zustimmung findet, ist hier doch eine (die?) Besonderheit von Artefakten herausgearbeitet, nämlich der unlösbare Zusammenhang konkreter materieller Dinge mit menschlichen Konzepten, Intentionen und Absichten. Artefakte führen ein Design mit sich.

zu c) Von der Seite eines Ingenieurs nähert sich Peter Kroes (5) der Frage, inwieweit das Design von technischen Systemen, bestehend aus unterschiedlichen technischen Artefakten, zu emergenten Eigenschaften des artifiziellen Gesamtsystems führt. Sein Interesse ist geleitet vom „Kontrollparadigma“ innerhalb der engineering practice: Ein Design sollte so gestaltet werden können, dass unerwünschte oder nicht vorhersehbare Auswirkungen im System vermieden werden. Er untersucht den Begriff ‚Emergenz‘ in seiner ontologischen und epistemischen Bedeutung im Hinblick auf technische Artefakte. Entscheidend dabei ist, ob ontologisch emergentes Verhalten eines Gesamtsystems eigene ‚kausale Kraft‘ (causal power) besitzt, oder ob sich das Verhalten kausal auf die physikalische Grundstruktur zurückführen lässt. Dies ist normalerweise der Fall (sein Beispiel: Eigenschaft der Zeitmessung einer Uhr ist auf ihre mechanische Konstruktion kausal zu reduzieren). ‚Starke‘ ontologische Emergenz / Unableitbarkeit („nonpredictable“ and „nonexplainable“) kommt wenn überhaupt nur bei speziellen Phänomenen vor (Quanteneffekte) und hat bei herkömmlichen technischen Artefakten keine Bedeutung. Die häufigste ‚Emergenz‘ nach Kroes ist die epistemische; sie drückt dann das unvollständige oder noch unbekannte Wissen aus. ‚Starke‘ epistemische Emergenz wie bei komplexen Systemen der Selbstorganisation wird durch größere Rechenkapazitäten (Simulationen) oder den Zeitfaktor auf die physikalische Basis zurückgeführt werden können. Auch sie dürfte das Kontrollparadigma nicht infrage stellen und ist darum für engineering practice derzeit kein Problem. Dementsprechend fasst Kroes seine Position folgendermaßen zusammen:

The function of a technical artifact such as a mechanical clock is ontologically emergent on its physical structure in the sense that its function is not a property that may be attributed to its parts and is not realized by the physical structure of the clock. Although ontologically emergent in this sense, the functions of simple technical artifacts have no causal powers of their own. Therefore they pose no threat to the control paradigm of traditional engineering. Ontologically emergent functions (features) with causal powers of their own would seriously undermine that paradigm; such a strong form of ontological emergence, however, does not appear to be very likely. As far as weak forms of epistemic emergence are concerned, they are part and parcel of routine engineering practice and constitute no significant threat to the control paradigm. The functions of technical artifacts as well as the physical phenomena upon which they are based may be weakly epistemically emergent. I argue that it is a mistake to assume that weak epistemic emergence implies unexpectedness and on that ground poses a threat to the control paradigm. Strong epistemic emergence endangers the control paradigm on the grounds that it is incompatible with techniques such as functional decomposition. Whether the extreme complexity of some of the modern technical systems implies a strong kind of epistemic emergence remains to be seen. Without a doubt, the complexity of these systems stretches to the very limit the capabilities of traditional methods of designing and controlling technical systems, stretching them sometimes so far beyond that these methods are no longer applicable. The search by engineers for new principles of design and control appears warranted. However, complexity within systems is not necessarily proof that such systems will display features that are strongly epistemically emergent. For the time being, with respect to the impact of emergence on engineering practice, we may have to revert to the age-old saying Nihil nove sub sole.

a.a.O. S. 289

zu d) Eine allgemeine Fassung des Funktionsbegriffs, der sowohl intentionales als auch nicht-intentionales Design umfasst, legt Ulrich Krohs (6) vor. Er geht davon aus, dass technische Artefakte in soziale Systeme der Nutzer eingebettet sind und damit vom social design mitbestimmt werden. Grundlegend für den Design – Begriff ist die Unterscheidung von intentionalem und nicht-intentionalem Design: Technische Artefakte sind immer intentional, dagegen sind biologische und evolutionäre Prozesse nicht-intentional. Krohs möchte für beides einen allgemeinen Begriff entwickeln. Zunächst unterscheidet er zwischen design und design process, weil unterschiedliche Design-Prozesse zum selben Ergebnis, dem gewünschten Design, führen können. „… we may regard as the design the result of the design process that fixes the designed entity, or, more precisely, the type of the designed entity.“ So bestimmt er Design als „type fixation of a complex entity“, die in jeweiligen token realisiert wird. Diese Definition umfasst sowohl intentionales als auch nicht-intentionales Design wie bei biologischen oder auch komplexen sozialen Systemen – „Design“ aufgrund der ihnen zugrunde liegenden Struktur (DNA) oder aufgrund ihrer Selbstorganisation. Auch hier liegt Typen-Fixierung und somit realisiertes Design vor.

In sozio-technischen Systemen findet Typen-Fixierung auf verschiedenen Ebenen statt. Bei einem industriellen Herstellungsprozess findet sich eine solche Typfixierung auf der Ebene der jeweiligen Komponenten: Geräte und Maschinen, Mensch-Maschine -Schnittstellen, Arbeitsplatzanforderungen und – besetzung usw. Die Typfixierung der Komponenten ist also transitiv hinsichtlich der Typfixierung des sozio-technischen Gesamtsystems. Diese Analyse weist Krohs den Weg zur Definition von „Funktion“, einem der Zentralbegriffe für das Verständnis von Design (sozio-) technischer Artefakte: „a function is a contribution of a type-fixed component to a capacity of a system that is the realization of a design.“ Diese Definition hebt auf die Rolle ab, die eine Komponente innerhalb eines funktionierenden Systems tatsächlich hat, unabhängig davon, ob die Funktion für diese Rolle ursprünglich gedacht war (intention of the maker). Der so definierte Begriff löst sich vom Gegensatz proper function und system function, indem er auf die faktische Rolle einer Komponente innerhalb eines Systems Bezug nimmt.

So a function is the role that a component has according to a design, where it is not asked whether it was designed to have this role. As in the case of the design concept, this concept of function is applicable to functions of components of intentionally designed entities and to functions of components of naturally designed entities. Precondition is only the ascription of design in terms of type fixation.

a.a.O. S. 239

Insofern wird „Funktion“ nicht als Eigenschaft eines Artefakts, sondern als ausschließlich relational realisierte Rolle in einem System gedacht. Der ursprüngliche Designer und seine Absichten kommen nur noch vor als abstrakte intended function. Dieses Verständnis von Funktion und Design macht Krohs‘ Analyse flexibel für die unterschiedlichsten Anwendungsbereiche und tatsächlichen Vorkommen sozio-technischer Systeme. Der springende Punkt ist jeweils die Typfixierung. Bei hochkomplexen Systemen (Evo-Devo) und Selbstorganisation sozialer Systeme bleibt die Fixierung von Typen allerdings wenig stabil bzw. ist ständiger Veränderung und Anpassung unterworfen, weil die Systeme selbst in fortwährender Anpassung begriffen sind. Genau hier stellt sich dann die Frage, ob noch sinnvoll von Typfixierung gesprochen werden kann, wenn die Typen und tatsächlichen Rollen nur als Token vorkommen und sich als solche in ständiger Veränderung und Anpassung befinden. Letztlich entscheidet die analytische Zuschreibung darüber, was als Design fixiert und was als zufälliger Status „von selbst“ entsteht (evolviert) und vergeht (adaptiert). So fasst Krohs einschränkend zusammen:

– The type fixation that can be found in society will be a highly dispersed patchwork: the designs of related components of a society may originate from completely different sources and may be realized independently rather than in a coordinated way.
– These pieces of design are subject to continuous change, which again may be uncoordinated: in newly designed socio-technical systems, which form components of the society, machines may be used for functions they were never designed for. In the case of type-fixing positions, the individuals who exert these positions may modify the type fixation and by this mediate a deviation of the society from its previous design.
– Societies are, to a high degree, self-organizing instead of assembled according to a plan and may be dependent largely on contingent side-conditions. Therefore, the actual role of a type-fixed technical artifact will often deviate from what its function would be according to any design of a system it belongs to.

a.a.O: S. 243

IV. Ausblick

Der Überblick über wesentliche Themen einer Philosophie der Technikwissenschaften zeigt eine Reihe von Fragestellungen, die zu aktuellen Problemen unserer Welt, zu ihren Strukturen von Technik und Gesellschaft durchaus passen. Ich erinnere an das oben zitierte Motto von Anthonie Meijers: „Technical objects are also material things with social functions.“ Schon Herbert Simon hatte dem social design in seinem oben genannten Buch ein eigenes Kapitel 6 gewidmet: „Social Planning: Designing the Evolving Artifact“. Und zuletzt hat Ulrich Krohs seinen Aufsatz überschrieben: „Co-Designing Social Systems by Designing Technical Artifacts“ und sich, wie dargestellt, mit der Typfixierung von sozio-technischem und gesellschaftlichem Design beschäftigt. Die Ansichten haben sich in den fünf Jahrzehnten seit Simons Werk stark gewandelt, aber nach meinem Eindruck kommt das Thema gesellschaftspolitischer Steuerung in einer digitalisierten, vernetzten und globalisierten Welt gerade wieder stärker auf die Tagesordnung, besonders unter dem Aspekt einer energiepolitischen Wende. Die Frage der Steuerungswirkung einer CO2-Bepreisung (Steuer, Zertifikate) ist derzeit besonders aktuell und zeigt, dass das klima-ökologische Problem eben kein rein technisches ist, sondern eminent sozio-technische Implikationen hat: Wie kann eine Industriegesellschaft so umgestaltet werden, dass sie die naturwissenschaftlich evaluierten Rahmenbedingungen der CO2-Reduktion erfüllt und zugleich Lebensqualität, Prosperität und Wohlstand für alle sichert? Die Aufgabe ist ersichtlich von ungeheurer Komplexität, enthält viel gesellschaftspolitischen Sprengstoff, und ihr Gelingen ist politisch keineswegs gesichert. Gesellschaften evolvieren nicht unbedingt rational und ethisch verantwortbar. Nicht nur der homo oeconomicus ist eine unrealistische Abstraktion, auch der homo politicus ist nicht unbedingt der Rationalität oder gar der Wissenschaft verpflichtet. Wie kann da die Anwendung von social design helfen?

In den 1970er und 1980er Jahren war man da sehr viel optimistischer und vielleicht auch naiver. Besonders H. Simons viele Beispiele aus seiner eigenen politischen Praxis zeigen, wie sehr man in den Jahrzehnten nach dem 2. Weltkrieg auf politische Planung (Marshall -Plan, ERP), auf Städteplanung und landesweite Verkehrsplanung setzte. Die 1960er Jahre waren in Westdeutschland geprägt von der Idee der „Globalsteuerung“ der Wirtschaft (Karl Schiller), das Thema Kybernetik in seiner Anwendung auf gesellschaftliche Projekte beschäftigte die Öffentlichkeit (siehe Karl Steinbuch; Frederic Vester, Das kybernetische Zeitalter, 1974; bis hin zur Cebit ab 1986). Heute spricht man eher von Informatik, Netzwerktheorie, Systemtheorie – oder in den Feuilletons von „Schwarmintelligenz“ oder „Künstlicher Intelligenz“. Aber auch hierbei geht es immer um Steuerung und Gestaltung, also um die Anwendung von Design auf Prozesse sozio-technischer Veränderung. Denn das ist ja gerade das Besondere am „social planning“: das evolvierende Artefakt (Simon) oder System, das heißt die fortwährende Veränderung in Voraussetzung, Ausführung und Nebenwirkung, und damit auch die jeweils notwendige Anpassung des Designs. Ulrich Krohs stellt dazu illusionslos fest:

Social Systems Design (SSD) nevertheless tries to determine a social system exactly on the level of such interactions and mutual relationships between components, and to institutionalize all acceptable interactions within the system. This seems only to work in small systems of cooperative individuals, e.g., in educational systems in a benevolent environment, where, in addition, the number of involved artifacts is very limited and interactions are almost completely social.

a.a.O. S. 242

Und Krohs schließt mit der Feststellung (und ich zitiere hier aus seiner bereits oben angeführten Liste den ersten Punkt):

– The design of a society will always be incomplete. Not all components of the social system will be type-fixed and presumably only a small fraction of them is. Humans do not only exert type-fixed positions (instead, they will engage in numerous different self-imposed tasks), nor are all their acts institutionalized (they will interact as well according to free and deliberate, though bounded, choice). And nothing else would be compatible with human freedom.

a.a.O. S. 242f

Trotzdem sind wir heute ‚aus der Not geboren‘ dazu verpflichtet, ein umfassendes Design zu finden, das die Energiewende ermöglicht und Gesellschaften zu möglichst klimaneutralem Verhalten bringt oder zwingt. Eigentlich hat schon Herbert Simon vor vielen Jahrten sehr weitsichtig einen noch heute gültigen Anspruch für jegliches social planning formuliert – im Grunde einen politischen Auftrag, der heute aktueller ist als je: Unseren Enkelkindern eine Welt mit ebenso viel Offenheit, Chancen und Freiheitsmöglichkeiten zu hinterlassen, wie wir selber sie hatten. Dies zu hoffen bedarf auch heute einer guten Portion Optimismus. Ein entsprechendes Design zu finden liegt in unserer Verantwortung. Mit Herbert Simon gesprochen:

Our age is one in which people are not reluctant to express their pessimism and anxieties. It is true that humanity is faced with many problems. It always has been but perhaps not always with such keen awareness of them as we have today. We might be more optimistic if we recognized that we do not have to solve all of these problems. Our essential task—a big enough one to be sure—is simply to keep open the options for the future or perhaps even to broaden them a bit by creating new variety and new niches. Our grandchildren cannot ask more of us than that we offer to them the same chance for adventure, for the pursuit of new and interesting designs, that we have had.


(1) Ruth Millikan, Language, Thought and other Biological Categories, MA, The MIT Press, 1984; dieselb., White Queen. Psychology and Other Essays for Alice, London and Cambridge, MA. The MIT Press, 1993 [zurück]

(2) Beth Preston, THE FUNCTIONS OF THINGS, A philosophical perspective on material culture, in: MATTER, MATERIALITY AND MODERN CULTURE, Edited by P.M. Graves-Brown, London and New York, 2000 [zurück]

(3) Wybo Houkes, Pieter Vermaas, Actions Versus Functions: A Plea for an Alternative Metaphysics of Artifacts, in: The Monist,vol. 87 no. 1, 2004 [zurück]

(4) Amie L. Thomasson, Artifacts and Human Concepts, in: Creations of the Mind. Theories of Artifacts and Their Representation, ed. by Eric Margolis and Stephen Laurence, Oxford University Press, New York 2007 [zurück]

(5) Peter Kroes, Technical Artifacts, Engineering Practice, and Emergence, in: Functions in Biological and Artificial Worlds. Comparative Philosophical Perspectives, ed by Ulrich Krohs and Peter Kroes, MIT Press, Cambridge and London 2009 [zurück]

(6) Ulrich Krohs, Co-Designing Social Systems by Designing Technical Artifacts. A Conceptual Approach, in: P. E. Vermaas et al. (eds.). Philosophy and Design. © Springer 2008 [zurück]

(Dieser Beitrag wurde angeregt durch ein philosophisches Seminar von Prof. Ulrich Krohs im SS 2019 an der WWU Münster.)

Der Text dieses Beitrags steht auch als E-Book (PDF) zur verfügung.

art.

Rätsel der Einfachheit

 Mensch, Natur, Philosophie, Wissenschaftstheorie  Kommentare deaktiviert für Rätsel der Einfachheit
Aug 282018
 
Im früheren Beitrag Einheit und Vielfalt wurde schon darauf hingewiesen, dass durch eine Theorienreduktion zwar eine Vereinheitlichung der Wissenschaft angestrebt wird, aber der Begriff Reduktion zugleich unscharf und problematisch ist. Erhard Scheibe hat in seinem Buch „Die Reduktion physikalischer Theorien. Ein Beitrag zur Einheit der Physik“ (1997) die vielleicht gründlichste Aufarbeitung des Begriffs Reduktion für den Bereich der Naturwissenschaften am Beispiel der Physik vorgelegt. Zunächst soll daher das Anliegen seines Buches dargestellt werden.

Einige „Rätsel“ der Natur zeigen eine bisher unverstandene Einfachheit, die offenbar der Einheit und Vielfalt der Natur zugrunde liegt. Wie aber kann der Zusammenhang von Einheit und Einfachheit gedacht werden und was verstehen wir eigentlich unter ‚Natur‘?

I.

In seiner Exposition des Problems stellt Erhard Scheibe das Problem der sogenannten „großen“ programmatischen Reduktionen zum Beispiel der Chemie oder der Biologie auf die Physik fest:

Wiederum würde aber eine Resümierung dieser Ergebnisse als einer Reduktion der Biologie auf Physik und Chemie die Sachlage eher verschleiern als aufklären. Wie schon im Falle der Mechanisierung der Physik würde eine solche Zusammenfassung der mühsam errungenen molekular-biologischen Erfolge deren nun erreichten wissenschaftlichen Standard durch die Heranziehung von noch nicht hinreichend durchdachter reduktionistischer Begrifflichkeit wieder aufs Spiel setzen. Es ist viel zu unklar, welches bei derart unqualifizierten Reduktionsbehauptungen schon die Reduktionspartner sind, ganz zu schweigen, was unter der jeweiligen Reduktion selbst verstanden werden soll. Schon die generalisierende Analyse von Phänomenen – die Theoriebildung – ist eine Art Reduktion der Phänomene auf eine Theorie. Man kann Sprachen auf andere Sprachen reduzieren, Theorien auf andere Theorien, Gegenstände auf andere Gegenstände, aus denen sie bestehen, – all dies fließt unkontrolliert in die allgemeine Diskussion um diese Reduktionen ein und läßt kaum erkennen, worum es überhaupt gehen soll. [Scheibe, S. 2f.]

Darum möchte Scheibe „die grandiosen Perspektiven, wie sie durch eine Reduktion
der Chemie auf die Physik, der Biologie auf die Chemie oder gar der Psychologie
auf die Physik gegeben sind, zunächst einmal ganz auszuklammern.“ Deswegen beschränkt er sich auf den Bereich der Physik und darin auf eine präzise Durchführung einer „rationalen Rekonstruktion“ des Reduktionsbegriffs, ausgeführt also als „Theorienreduktion, … also Reduktionen, durch die Theorien auf andere Theorien reduziert werden.“ [S. 3]

In diesem inhaltlich auf die Physik eingeschränkten und methodisch rekonstruktionistisch eingestellten Rahmen ist das eigentlich Neue, das den Leser in diesem Buch erwartet, zum einen eine in der Literatur bisher nicht nachweisbare Theorie der Reduktion, also genauer eine Metatheorie der Reduktion physikalischer Theorien, und zum anderen eine besonders ausführliche Exemplifikation des Reduktionsproblems. [S. 3]

Das führt Scheibe zu einer Zweiteilung des Buches, wobei der zweite Teil den ausführlichen Beispielen gewidmet ist – mathematisch und physikalisch sehr anspruchsvoll. Nicht weniger anspruchsvoll ist der erste Teil, in dem er seinen Reduktionsbegriff entfaltet und immerhin mit einigen ausgeführten Beispielen erläutert. Für seine theoretische Rekonstruktion stellt er fest:

Ihre Neuheit besteht darin, daß der sonst übliche Versuch, in den Mittelpunkt einer solchen Theorie einen für alle Einzelfälle verbindlichen allgemeinen Begriff der Reduktion zu stellen, ersetzt wird durch die Auffindung unterschiedlicher, möglichst spezieller, nicht mehr echt zerlegbarer Reduktionsarten, durch deren Kombination  (Hintereinanderausführung) dann weitere Reduktionsarten gebildet werden. [S. 3]

Dieser „synthetische (oder: rekursive) Aufbau des Reduktionsbegriffs“ vermeidet einen vorgängigen Allgemeinbegriff von Reduktion, den es dann auf die Einzelfälle und Beispiele herunterzubrechen und abzuwandeln gelte. Sein mehr induktiver Ansatz führt Scheibe von vornherein zu einem mehrfach gegliederten und in sich differenzierten Begriff von Reduktion und verschiedenen Reduktionsarten. Das „Iterative“ zeigt sich darin, dass zur Beschreibung einer bestimmten Theorienreduktion verschiedene reduktive Schritte unterschiedlicher Arten nacheinander unternommen werden müssen, um den exakten Vorgang der Übersetzung einer Ausgangstheorie in ihre Zieltheorie auch mathematisch korrekt zu beschreiben. Es ist der mühsame Weg über das konkrete Einzelne, um der Genauigkeit einer gewissen Verallgemeinerung willen. „Im übrigen erfolgt der hier bevorzugte synthetische Aufbau des Reduktionsbegriffs unbeschadet der allgemeinen Leitidee, daß eine physikalische Theorie durch Reduktion im Prinzip entbehrlich oder überflüssig oder redundant gemacht wird durch eben die Theorie, auf die sie reduziert wird.“ [S. 4]

Zwei weitere Problembereiche werden benannt und in der Durchführung seiner Arbeit zumindest gestreift oder teilweise erfüllt. Zum einen geht es um den Nachweis, dass physikalische Reduktionen auch einem empirischen Fortschritt darstellen und sich dadurch bewähren müssen. Die Schwierigkeiten zu zeigen, dass eine Nachfolgetheorie „vollinhaltlich“ die frühere Theorie ersetzen sollte, haben bereits Feyerabend und Kuhn 1) unter dem Stichwort „semantischer Inkommensurabilität“ beschäftigt. – Zum anderen verweist Scheibe auf den „Typ einer ontologischen Reduktion“, wenn „die Gegenstände der reduzierten Theorie aus den Gegenständen der reduzierenden in irgend einem Sinne bestehen.“ [S.5] Klassischer Fall dafür ist die Tradition des Atomismus, die sich heute in dem Schichtenmodell der Elementarteilchen wiederfindet. Hier will Scheibe im Konkreten nachfragen und dabei auch prüfen, wieweit „andererseits anti-reduktionistische Vorstellungen von Ganzheit und Emergenz zu rechtfertigen sind“. [S. 5]

Die grundlegenden Reduktionsarten nach Scheibe sind die exakten und die approximativen Reduktionen 2). In zusammengesetzten Reduktionen, also dem Normalfall, kommt exakten Reduktionen (Punkt-zu-Punkt-Ersetzung durch Verallgemeinerungen oder Äquivalenzen 3)) eine besondere Bedeutung zu. Ein Reduktionsverfahren ist allerdings insgesamt approximativ, wenn auch nur auf einer Stufe eine approximative Reduktion vorkommt. Insgesamt decken die approximativen Reduktionen den größten Bereich ab. 4) Eine größere Bedeutung kommt in der Praxis der Physik aber einem Bereich zu, den Scheibe gar nicht mehr den eigentlichen Reduktionen und Erklärungen zurechnet, nämlich dem Bereich der „partiellen Reduktionen“. Hier hinein gehören die Grenzfall-Reduktionen (z.B. Newton-Mechanik als Grenzfall der Quantenmechanik) und all diejenigen Fälle, in denen nur teilweise Reduktionen (micro-reductions) möglich sind. „Es kommt hinzu – und hier geht es, wenn überhaupt, nur noch um eine Konzession an das menschliche Erkenntnisvermögen -, daß in der Entwicklung der Physik eine Theorie durch eine andere ersetzt und wirklich verbessert werden könnte, auch ohne daß sich erstere auf letztere total reduzieren läßt.“ [S. 8]

Ein schönes Beispiel für Scheibes Vorgehen ist sein Modell des geschlossenen bzw. offenen Reduktionsquadrates innerhalb des Gebietes der partiellen Reduktionen.

gschlossenes Reduktionsquadrat

Das geschlossene Reduktionsquadrat

Angenommen Σ und Σ‘ sind die Axiome je einer Theorie T bzw. T‘, und es ist Σ auf Σ‘ approximativ (und total) reduzierbar. Wenn nun eine Aussage β aus Σ und eventuellen Zusatzannahmen ableitbar ist, so wird man vermuten, daß es eine in demselben Sinne aus Σ‘ gewinnbare Aussage β‘ gibt, welche im Lichte der (totalen) Reduktion von Σ auf Σ‘ die Verbesserung von β in Σ‘ ist. Sofern β und β‘ ebenfalls als Axiome selbstständiger Theorien gelten können, wird nun auch β auf β‘ approximativ reduzierbar sein. Und insofern dies gilt, wird Σ auch partiell, nämlich eben durch die Reduktion von β auf β‘ reduziert sein. [S. 207]

 

offenes Reduktionsquadrat

Das offene Reduktionsquadrat der ,echten‘ partiellen Reduktionen

Hier fehlt also die Angabe einer direkten Reduktion von Σ auf Σ‘, und wir erfahren nur, daß ein ,Ergebnis‘ β von Σ auf ein ,Ergebnis‘ β‘ von Σ‘ (approximativ) reduzierbar ist – allerdings auch hier in der Weise, daß β‘ das ,Ergebnis‘ von Σ‘ ist, welches β in Σ entspricht und also zugleich die Verbesserung von β in Σ‘. In diesem Sinne wäre hier Σ auf Σ‘ also nur partiell reduziert, nämlich in Gestalt der Reduktion von β auf β‘ in ihrer Rolle innerhalb Σ bzw. Σ‘. Das Offenlassen einer direkten Reduktion von Σ auf Σ‘ kann den Grund haben, daß man keine kennt, möglicherweise auch den, daß es keine gibt. [S. 212]

Dies offene Reduktionsquadrat als Modell einer partiellen Reduktion führt Scheibe am Beispiel der Reduktion der klassischen Mechanik auf die Quantenmechanik durch. Uns genügt an dieser Stelle der bloße Hinweis. Mit diesem ‚Umweg-Modell‘ des offenen Reduktionsquadrates gelingt es Scheibe, die in der Physik häufig vorkommenden teilweisen oder nur näherungsweisen Reduktionen zu fassen. Es sind Erklärungen, die in der einen (alten) Theorie gegeben sind und besseren Erklärungen entsprechen, die zu einer neuen Theorie führen. In jedem Falle muss die Durchführung exakt erfolgen und mathematisch quasi Zeile für Zeile rekonstruiert werden können. Nur auf diesem Wege gelingt es Scheibe, einen präzise bestimmten Begriff von Reduktionen zu gewinnen – ein aufwendiges, aber lohnendes und überzeugendes Programm. Scheibe zeigt sehr detailliert, was der Reduktionsbegriff in der Physik tatsächlich leisten und was er nicht leisten kann: Er leistet eine fundierte Kombination, In-Beziehung-Setzung und ‚Rückführung‘ von einzelnen, grundlegenden Theorien aufeinander und erweitert, verbessert, verfeinert unser Verständnis physikalischer Gegebenheiten und Erklärungsmodelle. Er leistet dagegen nicht, uns eine einfache Super-Theorie an die Hand zu geben, mit der alles erklärt und verstanden werden kann.

II.

Zweifellos führen Reduktionen zu einer Vereinheitlichung und Vereinfachung naturwissenschaftlicher Theorien, auch wenn die Durchführung im Einzelnen zu mehr Komplexität führen mag (z.B. quantenmechanische versus klassisch mechanische Beschreibung). Zusammenhänge und reduktive Interdependenzen aufzuzeigen und zu belegen, ist schon für sich genommen ein Schritt hin auf eine vereinheitlichte Sichtweise natürlicher Gegebenheiten. Genau aus diesem Grunde übt der Physikalismus solch eine Faszination aus. Dennoch macht Scheibes Darstellung physikalischer Reduktionen klar, dass der Traum vieler Wissenschaftsphilosophen und Erkenntnistheoretiker von einer einfachen, begrifflich klaren Theoriebildung über die Wirklichkeit der Natur eben nur ein Traum ist. Jede neue allgemeine Theorie mag zwar auf der mathematischen Ebene der Beschreibung an Abstraktion und insofern an ‚Vereinfachung‘ gewinnen, auf der semantischen Ebene aber und erst recht auf der Ebene experimenteller Überprüfung wird sie komplexer, differenzierter und eben schwieriger sein. Etwas Ähnliches findet sich auch bei den rekursiven Algorithmen des Maschinen-Lernens („KI“), deren Ausführung von äußerster Komplexität ist, so dass sie kaum mehr wirklich nachvollzogen werden kann. Aber bleiben wir bei der Physik: Was bedeutet es, dass die wissenschaftliche Beschreibung und Erklärung der Vorgänge in der Natur (Physis) zunehmend komplexer und ambivalenter wird (zum Beispiel bei der Quantenthermodynamik; bei Verschränkung und Superposition), wohingegen die Natur doch als solche, also nicht wissenschaftlich analysiert, sondern alltäglich erlebt, ganz einfach ist?

Auch für den Physiker wird die Beschreibung der Natur dann ‚ganz einfach‘, sofern er sich auf die Gegebenheit von Naturkonstanten bezieht. Fundamental sind im Grunde nur wenige, wenn man die abgeleiteten Fassungen weiterer Konstanten außer Acht lässt, dazu gehören die Lichtgeschwindigkeit, das plancksche Wirkungsquantum, die Gravitationskonstante und die Feinstrukturkonstante. Diese Konstanten sind räumlich und zeitlich unveränderlich und liegen allen Vorgängen in Raum und Zeit zugrunde 5). Zusammen mit der Feinabstimmung (anthopic coincidence) ‚vereinfachen‘ sie die Sicht auf die Vorgänge in unserem Kosmos. Auch das anthropische Prinzip 6) kann zwar als eine erkenntnistheoretische Restriktion verstanden werden, macht aber die Erkenntnis dessen, was in der Natur ist, aus menschlicher Sicht (aus welcher auch sonst?) einfacher. Dennoch aber ist die nicht nur mathematische Abstraktion und Komplexität physikalischer Theorien unermesslich im Vergleich zur alltäglich erlebten und erfahrenen Wirklichkeit der Natur. Man könnte sich fast wundern, dass alles so einfach passiert, was Naturwissenschaftler so umfangreich und kompliziert beschreiben und zu erklären suchen.

Gerade die biologische Natur, die sich als wissenschaftlich äußerst komplex, immer wieder überraschend variationsreich und zum Teil noch unerklärlich erweist, existiert einfach so und hat sich ‚einfach so‘ entwickelt. Zur Bestimmung dessen, was Leben biologisch bedeutet, ist es nötig, von Zellen, Stoffwechsel, Fortpflanzung zu reden. Wir können zwar recht gut beschreiben, was eine Zelle ist und wie sie funktioniert, aber wie es zu dieser Trennung von einem Außen und einem Innen gekommen ist, wissen wir kaum. Man kann den Metabolismus als Etablierung eines Fließgleichgewichtes am entropischen Limit beschreiben (Josef Reichholf) und die Fähigkeit zur Fortpflanzung als evolutionäre Kraft der Veränderung unter den Bedingungen größter genetischer Variabilität und Funktionalität begreifen, – all das steht in keinem Vergleich zur herrlichen Einfachheit der Schlafens und Erwachens, des Essens und Trinkens und der sexuellen Erfüllung. Zum Menschsein gehört gewiss mehr als diese basalen biologischen Grundgegebenheiten, aber ohne sie ist auch alles weitere in der Entwicklung des Geistes und der Kultur nicht möglich. Menschliches Leben ist zunächst einmal von Geburt an das Einfachste, was es gibt – Man lebt, das Baby trinkt an der Brust – , auch wenn die Einbettung in soziale Gegebenheiten sogleich zu etwas Komplexeren gehört: arm oder reich geboren zu sein, krank oder gesund usw. Dass Natur ‚einfach so‘ funktioniert, weckt immer wieder Erstaunen und lässt uns von den „Wundern der Natur“ sprechen. Umgekehrt lässt es erschrecken, wenn durch menschliche Eingriffe scheinbar unbedeutender Art Naturprozesse nachhaltig verändert und uns bedrohlich werden können. Das gilt nicht nur für den Klimawandel. Im Blick auf die gesamte Geschichte der Evolution des Lebens, soweit wir sie überblicken, gilt jedoch zuerst dies: Wäre sie nicht einfach möglich gewesen, gäbe es Natur und Mensch nicht. Uns gibt es aber ganz einfach! Einfach ist hier deswegen das rechte Wort, weil etwas, das faktisch gegeben ist, einfach da ist. Wäre es schwierig oder unmöglich, gäbe es uns nicht oder sogar nichts.

Blumen

Bauerngarten (c) R. Gruhn

Die Einfachheit natürlicher Gegebenheiten von Sonne, Mond und Sternen, Blume, Tier und Mensch hat die Romantiker beflügelt. Das Ideal des „einfachen Lebens“ lässt sich von den Vorsokratikern über die Stoiker bis hin zu den Bio-Anhängern eines ’natürlichen ländlichen Lebens‘ verfolgen. Unsere eigene Erinnerung an die Kindheit mag da, wo sie heil und gut gewesen ist, eben auch die Erinnerung an ein einfaches, unbelastetes und unkompliziertes Leben sein. Dunkle Seiten werden zum Glück leichter vergessen, solange sie nicht traumatisch waren. Der Hinweis auf die Romantik oder auf bestimmte Ideale zeigt aber schon, dass die Wirklichkeit des erlebten Lebens meist gar nicht mehr einfach ist. Individualgeschichtliche Prägungen und soziale Zusammenhänge stellen uns in ein Leben voller komplizierter Verhältnisse und Herausforderungen. Das Einfache wird oft zum reinen Wunschtraum. Das ‚Einfach leben‘ ist überhaupt nicht einfach, wenn man es auf seine Ursachen, Zusammenhänge und naturgegebenen Bedingungen hin untersucht, wie es die Naturwissenschaften umfassend, gründlich und erkenntnisreich tun, und es ist ebensowenig einfach, wenn man es in seinen kulturellen und sozialen Zusammenhängen und Interaktionen betrachtet, immer wieder infrage gestellt von einer ungewissen Zukunft.

III.

In beiden Blickrichtungen erscheint das zunächst Einfache als sachlich komplex bzw. faktisch kompliziert. Die Natur selbst erweist sich bei näherer Betrachtung als äußerst ambivalent. Natur als das dem menschlichen Bereich der Gestaltung Gegenüber- und Entgegenstehende gibt es gar nicht (oder kaum) mehr. Alles, was wir als Natur bezeichnen, ist im Grunde schon kulturell geprägt oder irgendwie anthropoid infiziert. Das gibt dem Ausdruck „Anthropozän“ für unser Zeitalter einiges an Berechtigung. Nur Vulkanismus (und damit verbundene Beben) sowie der weitere extraplanetare Raum sind noch Natur im Sinne von: existieren unabhängig von menschlicher Beeinflussung. Abgesehen davon ist unsere vorfindliche Natur weitgehend Kultur-Natur. Selbst auf Abraumhalden und in Wüsten und an den Polen zeigt sich die Prägekraft des Menschen. Im Klimawandel scheint sich zum ersten Mal eine menschlich verursachte Veränderung global zu manifestieren und global zurückzuschlagen. Die Natur, die wir lieben und gerne aufsuchen, ist der Garten, der Park, der Wald (Forst), in dem es kleine Räume als „Urwald“ geben mag, und auch Präsident Putin präsentiert sich in der sibirischen Taiga nicht mehr im Raum unberührter Natur.

Gerade im Bereich der Forschungen zum Klimawandel zeigt sich die Komplexität der zu untersuchenden Phänomene und der Daten über lange Zeitreihen hin, die insgesamt nur mit Superrechnern simuliert und in Szenarien dargestellt werden können. Naturphänomene wissenschaftlich zu erforschen, bedeutet die Konfrontation mit dieser doppelten Komplexität: komplexe Grundlagen in der theoretischen Basis, komplexe Auswirkungen und Verknüpfungen in dem zu erhebenden Datenbestand. Hier stellt sich das Problem der natürlichen und kulturellen Komplexität in besonderer Weise, sofern für die notwendigen Computersimulationen sowohl hinsichtlich der Ausgangsdaten als auch hinsichtlich der Anwendung der Algorithmen Reduktionen und Eingrenzungen erfolgen müssen, um aussagekräftige Ergebnisse zu erhalten. Die Ergebnisse müssen dann erst aufgearbeitet, interpretiert und in einem bestimmten Rahmen dargestellt werden, um verstanden zu werden und an die Öffentlichkeit gelangen zu können. Eine ziemlich radikale Vereinfachung ist nötig, sollen die Forschungsergebnisse für den einzelnen Bürger fassbar und für sein Verhalten relevant erscheinen und für die Politiker instrumentalisierbar umgeformt und als Motivation zum Handeln eingesetzt werden. Wieviel Bohren dicker Bretter hierbei erforderlich ist, zeigt die öffentliche Diskussion fast täglich.

Unser Ausgang war die Frage nach dem Zusammenhang von Einfachheit und Vielfalt. Zugespitzt auf das Verhältnis von Einfachheit und Komplexität finden wir als Ergebnis, dass es im Grunde komplementäre Perspektiven sind. Wir leben in relativ ‚einfachen‘, will sagen überschaubaren Verhältnissen und Bezügen, weil wir das Leben sonst gar nicht bewältigen könnten. Die Frage nach Ursachen, Zusammenhängen, Auswirkungen und Handlungsmöglichkeiten führt sofort in ein Feld von äußerster Komplexität hinsichtlich der theoretischen Voraussetzungen und der faktischen Möglichkeiten. Dabei ist ein Rückbezug auf das Einfache, Vereinfachte unabdingbar, soll es zu Verständnis sowie Vernunft und Interessen abwägendem Verhalten kommen. Wenn ein Sachverhalt nicht einfach dargestellt werden kann, ist noch nicht verstanden; wenn eine Handlungsmöglichkeit nicht in einzelnen Schritten operationalisiert werden kann, wird es nie zur beabsichtigen Handlung kommen. Dieses Verhältnis von Einfachheit und Komplexität ist nicht neu und im Grunde auch nicht sonderlich interessant.

Anders sieht es aus, wenn nicht nach Komplexität, sondern nach Vielfalt gefragt wird. Das Vielfältige ist sowohl im Bereich der Theorien und Gründe als auch im Bereich der Ursachen und Praktiken zu finden. Wieviel ‚Einfältiges‘ das Vielfältige beinhaltet, wäre noch einmal eine weitere Frage. Hier reicht die Aussage, dass das Vielfältige das Eine und eben Vieles enthält und Vielfalt ebenso die Voraussetzung wie die Folge von Einheit ist. Leben ist nicht eindimensional, und erst Vielfalt der Lebensmöglichkeiten macht uns als Einzelne zu lebendigen und aktiven Personen. Ebenso ist unser Wissen vielfältig, und jede Wissenschaft lebt davon, viele unterschiedliche Ideen, Anstöße, Modelle, Theorien einzusetzen und zu überprüfen. Wird unser Wissen einfach im Sinne von einfältig, eindimensional, dann ist das Ergebnis Dogmatismus und Stillstand. Ist unser Leben einsam und einfältig, dann verkümmern wir, isolieren uns vielleicht stattdessen in einer Gruppe gleich Einfältiger zu einer Gemeinschaft der Verschworenen: gegen die anderen, gegen die Offenheit, Neuem zu begegnen und Vielfältiges zu lernen. Viele ultrarechte und identitäre 7) Denk- und Verhaltensweisen scheinen mir an dieser einseitigen Einfalt und Angst, an einer ideologischen Vereinsamung und Vereinfachung zu liegen. Dabei ist der Mensch schon in sich selber vielfältig, existiert er doch von Anfang an als soziales, auf andere hin sich orientierendes und erst darin sich selbst konstituierendes Lebewesen (vgl. Volker Gerhard). Darüber hinaus besteht persönliches Leben nur als Leben in fortwährender Veränderung, sowohl für sich selbst als auch in den eigenen sozialen Bezügen. Man lebt verschiedene Leben, sowohl in zeitlicher (diachron) als auch in rollenmäßiger (synchron) Verschiedenheit und Vielfalt. „Wer bin ich und wenn ja wie viele“ (Richard David Precht) hat das in seinem Buchtitel populär auf den Begriff gebracht. Vielfalt ist offenbar die Bedingung dafür, dass sich der Mensch als Person und soziales Subjekt konstituiert und weiterentwickelt. Die Einheit und Einfachheit gilt es immer neu zu gewinnen. Sie ist nicht ‚einfach‘ vorhanden. Vorhanden ist das Viele, die Vielfalt, manchmal auch das Durcheinander. Erst Orientierung im Leben und Ordnung im Wissen, gerade auch durch Reduktionen, bringen in der unübersehbaren Vielfalt der Wirklichkeit das Einfache zutage.

Reinhart Gruhn

 

Anmerkungen

  1. Paul Feyerabend, Wider den Methodenzwang, 1976; Thomas S. Kuhn, Die Struktur wissenschaftlicher Revolutionen, 1973 [zurück]
  2. „Reduktion wörtlich verstanden im Sinne von ,Zurückführung'“ Scheibe S. 38 [zurück]
  3. siehe Scheibe Kapitel IV [zurück]
  4. siehe Scheibe Kapitel V [zurück]
  5. siehe dazu die Diskussion über mögliche Veränderungen dieser Konstanten und über die sog. Feinabstimmung, zum Beispiel bei Wikipedia. [zurück]
  6. „Das anthropische Prinzip besagt, dass das beobachtbare Universum nur deshalb beobachtbar ist, weil es alle Eigenschaften hat, die dem Beobachter ein Leben ermöglichen. Wäre es nicht für die Entwicklung bewusstseinsfähigen Lebens geeignet, so wäre auch niemand da, der es beschreiben könnte.“ Wikipedia [zurück]
  7. Die Bezeichnung „Identitäre“ deckt zwar je nach Ländern unterschiedliche politische Erscheinungen ab, hat aber generell den Selbstbezug des Einzelnen auf sich und das eigene ‚Volk‘ als unveränderbar zum Inhalt. Wikipedia [zurück]

Analytische Methode

 Philosophie, Wissenschaftstheorie  Kommentare deaktiviert für Analytische Methode
Jan 102014
 

[Philosophie]

Wie von mir öfter zu lesen bin ich gegenüber der analytischen (angelsächsischen) Philosophie des Geistes eher kritisch eingestellt – aus guten Gründen. Das könnte man als Ablehnung der Analytischen Philosophie insgesamt missverstehen. Darum möchte ich hier einmal eine Lanze brechen für die analytische Methode.

Die analytische Methode zeichnet sich aus durch möglichst klar definierte Aussagen und logische Schlussverfahren. Eine Behauptung wird aufgestellt und verteidigt. Diese Verteidigung stützt sich auf gute Gründe, die die Behauptung rechtfertigen. Das geschieht mit klar definierten Begriffen und Schlüssen. Nach den Regeln logischen Denkens werden Folgerungen abgeleitet, Implikationen aufgewiesen oder Voraussetzungen geprüft. Um ein solches Verfahren in Gang zu bringen, müssen Probleme und Fragestellungen in eine Folge von Sätzen (Propositionen) umgeformt und zerlegt werden. Erst dadurch kann eine Meinung überprüft, verteidigt oder widerlegt werden. Die angeführten Gründe wiederum müssen selber gerechtfertigt und plausibel sein. Eben dieses Aufteilen, Zerlegen und Begründen, das bedeutet ja „analysieren“, hat dieser philosophischen Methode den Namen gegeben.

Ziel der analytischen Methode ist eine rational konsistente, kohärente Theorie über bestimmte, konkret definierte Aussagen. Diese müssen sich bewähren und können unter den angegebenen Bedingungen als gerechtfertigt gelten – oder wiederum aus guten Gründen abgelehnt werden. Ein starkes Leitmotiv ist immer wieder die Plausibilität, die bestimmte analysierte Aussagen im Vergleich zu anderen Aussagen und Tatsachen gewinnen können. Darum geht dann bestenfalls der Streit. Man kann leicht erkennen, dass die wissenschaftliche Philosophie mit der analytischen Methode ein überaus mächtiges, vielseitiges und wirkungsvolles Instrument entwickelt hat. Sie kann dabei sprachanalytische und erkenntnistheoretische Prinzipien mit einbeziehen. Der Klarheit und logischen Stringenz dieser Methodik kann man sich kaum entziehen, vielmehr sollte man sie produktiv nutzen. Hinter die analytische Methode führt kein Weg mehr zurück.

Das heißt aber noch nicht, dass die analytische Methode das alleinige Universalprinzip der Philosophie sein müsste. Um ihren Wert zu schätzen und ihre Fähigkeiten richtig zu nutzen, müssen zugleich ihre Grenzen beachtet werden. Die erste Grenze: Es handelt sich um eine Methode, eine wichtige und hilfreiche, aber nicht die einzige und allein gültige. Statt von Analytischer Philosophie spricht darum Ansgar Beckermann lieber vom analytischen „Stil des Philosophierens“ oder einer bestimmten „Analytischen Einstellung philosophischen Problemen gegenüber“. Tatsächlich möchte er aber auch hier das Wort „Analytisch“ groß geschrieben wissen. Denn die Fruchtbarkeit dieser Methode ist beeindruckend, ebenso wie die Namen ihrer Repräsentanten. Sie hat die Philosophie von dem Vorwurf befreit, nur inhaltsleeres Geschwafel zu sein.

Die zweite Grenze liegt in der wirkungsvollen Anwendung der analytischen Methode im Bereich der Philosophie des Geistes. Zunächst einmal ist hier die enorme Produktivität philosophischer Arbeit und Ergebnisse zu nennen. Man kann sagen, dass erst die Analytische Philosophie eine ernsthaft betriebene „Philosophie des Geistes“ heute wieder salonfähig gemacht hat. Dies gilt insbesondere auf dem Hintergrund einer engen Verbindung zu den naturwissenschaftlichen Methoden und Erkenntnissen, ohne die eine Beschäftigung mit dem, was als „Geist“ verstanden wird, heute nicht mehr sinnvoll geredet werden kann. Soweit die Möglichkeiten, aber nun kommt die Grenze:  Man ist falsch beraten, aus der analytischen Philosophie in Verbindung mit den als fundamental geltenden Naturwissenschaften eine physikalistische Weltanschauung zu machen.

Eine dritte Grenze – für mich die wesentlichste – liegt darin, was gerade die Stärke dieser Methode ist: etwas zu an analysieren und ein Problem in einzelne Schritte der Argumentation zu zerlegen. Dabei kommt es methodisch notwendig zu einer Formalisierung (siehe die Verwendung logischer Symbole und Schreibweisen), die zwar eine äußerste Korrektheit und Genauigkeit wohldefinierter Begriffe und Schlüsse anstrebt, aber eben damit die Sache (Problem, Fragestellung), um die es geht, durch eine formale Abstraktion ersetzt. Dies kann aber niemals ohne Verluste gelingen. Auch Gedankenexperimente, die angestellt werden („brain in the tank“, Zombie, Zanu usw.), sollen einerseits beglaubigende Wirkung haben, vergleichbar naturwissenschaftlichen Experimenten, verengen andererseits den Blick auf einen konstruierten Einzelfall. Die langwierige Qualia-Diskussion innerhalb einer theory of mind kann das belegen. Das Ganze ist eben doch noch etwas anderes als die Summe der analysierten Teile.

Dies wird besonders an der Sprache deutlich. Die sprachanalytische Wendung der Philosophie Mitte des 20. Jahrhunderts (linguistic turn) hat nachwirkend dieses erbracht: Die genaue Hinwendung zu den Fähigkeiten und Möglichkeiten der Sprache. Was in den vergangenen fünfzig Jahren über Sprache und Bedeutung geschrieben und geforscht worden ist, füllt Bibliotheken. Daran zeigt sich: Die Sprache ist nicht so leicht in den Griff zu kriegen, auch wenn das Wort Be-griff etwas anderes nahelegt. Alle Begriffsbestimmungen und Klärungen des Verhältnisses von Wort, Bedeutung, Sprechakt, Sinn usw. kommen nicht an dem Faktum vorbei, das Sprache schillernd ist – ein Graus für jede analytische Herangehensweise. Sätze, Worte, Begriffe bezeichnen je nach Kontext und Situation sehr unterschiedliche Bedeutungsfelder, die einander unscharf überlappen können. Ein simples Wort wie „Haus“ klingt völlig anders und bedeutet etwas anderes, wenn man es im Zusammenhang einer Heimkehr, eines Einbruchs oder einer Bauplanung gebraucht. Hier bleiben die Erkenntnisse der Hermeneutik bedeutsam.

David Foster Wallace hat in seinem schönen Buch über „Die Entdeckung des Unendlichen“ die kluge, alltagspraktische Unterscheidung zwischen Wissen und „Wissen“ gemacht. Was wir im alltäglichen Leben wissen, worauf wir uns verlassen und wovon wir ausgehen, ist eine Sache. Etwas ganz anderes ist das „Wissen“, um das es methodisch in der Wissenschaft geht. Beides muss getrennt, aber auch vermittelt werden. Die analytische Methode in der Philosophie hilft viel auf dem Feld des „Wissens“. Aber es muss auch der Weg des Wissens über die unmittelbare Realität und Faktizität gegangen werden. Die Frage nach der Wahrheit kann nicht formal auf gerechtfertigte Gründe und korrekte (wahrheitsfähige) Schlussverfahren reduziert werden.

Denn dies bleibt die Aufgabe aller Philosophie: die Wahrheit zu wissen über die wirkliche Welt.

Dez 222013
 

[Philosophie]

Thomas S. Kuhn hat in seiner Studie „Die Struktur wissenschaftlicher Revolutionen“ aus dem Jahre 1962 den Begriff des Paradigmas geprägt. Als „Paradigmenwechsel“ ist es in die Gegenwartssprache eingegangen, um einen grundlegenden Wechsel der Perspektiven oder Strategien anzuzeigen. So verallgemeinert kann der Begriff des Paradigmas auf viele Bereiche der Politik oder der Zeitgeschichte übertragen werden. Ursprünglich hat Kuhn ihn benutzt, um hauptsächlich für die Naturwissenschaften den Stand der „normalen Wissenschaft“ oder anders gesagt der Schulwissenschaft zu definieren.

… die Rolle dessen in der wissenschaftlichen Forschung zu erkennen, was ich seitdem „Paradigmata“ nenne. Darunter verstehe ich allgemein anerkannte wissenschaftliche Leistungen, die für eine gewisse Zweit einer Gemeinschaft von Fachleuten maßgebende Probleme und Lösungen liefern. (S. 10)

[Es handelt sich um Grundprinzipien einer Forschungsgemeinschaft, die] „denselben Regeln und Normen für die wissenschaftliche Praxis verbunden [ist]. Diese Bindung und die offenbare Übereinstimmung, die sie hervorruft, sind Voraussetzungen für eine normale Wissenschaft, d. h. für die Entstehung und Fortdauer einer bestimmten Forschungstradition. (S. 26)

Paradigmata begründen Theorien, Gesetze, Regeln und Standpunkte. Das ist bemerkenswert. Nach Kuhn sind Paradigmata so etwas wie der grundlegende Forschungsrahmen, der allererst Theorien und Gesetzmäßigkeiten erkennen lässt. Er definiert Fragestellungen und Problemlösungen. Auf dem Feld der Naturwissenschaften gehört ein Paradigma zur Bedingung erfolgreich verlaufender Forschung.

In seinem Buch geht es Kuhn vor allen Dingen um die Beschreibung und Kennzeichnung dessen, was „wissenschaftliche Revolution“ genannt wird. Dafür arbeitet er gewissermaßen als Hintergrundfolie das Paradigma heraus, die Normalwissenschaft mit ihren Leistungen. Erst wenn sich Anomalien häufen, wenn Beobachtungen zu Tage treten, die unerwartet sind, weil sie in den Kontext der bisherigen Fragen und Problemlösungen nicht hinein passen, wenn Versuchsanordnungen zufällig Ergebnisse hervor bringen, die niemand vorher gesehen hatte (z. B. Röntgen-Strahlung), kommt es zu einer Änderung der Regeln und Fragestellungen und, wenn die Änderungserfordernis groß genug ist, zu einem Wechsel des Paradigmas. Die Grundeinstellungen werden aufgrund neuer Tatsachen neu justiert. Interessant ist dabei, dass daraufhin auch frühere, als gesichert geltende Ergebnisse überprüft werden müssen, ob sie im Licht der neuen Paradigmata noch Bestand haben. Ein Paradigmenwechsel verändert also die gesamte wissenschaftliche Landschaft einer bestimmten Forschung. Alte Erklärungen werden revidiert, neue Fragen und Probleme tauchen auf und warten auf vertiefende Erforschung. Das neue Paradigma bildet sich aus (z. B. Maxwell – Gleichungen; Plancks Wirkungsquantum).

Die Beispiele zeigen: Kuhn bezieht sich als früherer Physiker in erster Linie auf die Naturwissenschaften, bezieht aber immer wieder auch die Sozialwissenschaften in seine Überlegungen ein. Sein Ansatz ist wissenschaftsgeschichtlich orientiert. In den vergangenen zwei bis drei Jahrhunderten haben naturwissenschaftliche Paradigmata das wissenschaftliche Weltbild entscheidend geprägt. Kuhns Erkenntnisse über das Paradigma und einen Paradigmenwechsel sind aber mit gewissen Modifikationen auf andere Bereiche der Wissenschaften übertragbar. Paradigmata machen eine ungeheure Vertiefung und Ausdifferenzierung der wissenschaftlichen Erkenntnis in Fachdisziplinen möglich.

Mich interessiert aber derzeit mehr, wie weit wissenschaftliche Paradigmata (oder wie wir heute zu sagen pflegen „Paradigmen“) den Blick verengen und neue Erkenntnisse für eine lange Zeit geradezu verhindern. Fachdisziplinen und Schulmethoden zementieren auch die Blickrichtung von Fragestellungen und Lösungsansätzen für Probleme („Rätsel“, „Puzzle“ nennt es Kuhn). Problemlösungen werden nur dann als richtig anerkannt, wenn sie das erwartete Gesamtbild ergeben – wie beim Puzzle. Genau so scheint mir die Lage bei den Neurowissenschaften zu sein, ähnlich auch bei den heutigen Entwürfen einer Theory of Mind oder bei grundlegenden Ansätzen der Wissenschafts- und Erkenntnistheorie. Man weiß allzu genau, was erwartbar ist und was nicht. Andere Beobachtungen und Einstellungen werden ignoriert. Wenn meine Vermutung nicht ganz falsch ist, dann könnte in diesen Feldern der Wissenschaft ein Wechsel der Paradigmen bevor stehen.

Wer sich nicht den etwas obskur anmutenden Out-of-Body – Erlebnissen eines Thomas Metzinger als Beispiel einer neurophysiologischen Bewusstseinstheorie anvertrauen möchte; wer den Streit über Qualia oder Emergenz nicht als der Weisheit letzten Schluss in der analytischen Philosophie und Neuropsychologie ansehen kann; wer den Konstruktivismus welcher Schattierung auch immer nicht als die selbstverständliche Basis vernünftiger Theoriebildung überhaupt etablieren möchte; wer die kosmologische Selbstgewissheit eines Stephen Hawking zwar für geistreich, aber kaum für mehr als Spekulation halten kann – der gerät heute sehr schnell an die Grenzen der anerkannten Wissenschaften. Oder sollte ich sagen: an die anerkannten und für unabänderlich gehaltenen Grenzen der Wissenschaft? Paradigmen ändern sich, wenn sich standardwissenschaftliche Anomalien häufen oder tatsächliche Phänomene überhaupt nicht mehr erfasst werden. Dies ist aus meiner Sicht heute der Fall. Darum drängt sich ein allmählicher Wechsel der Perspektiven und damit der Paradigmen auf. Das materialistische, physikalistische Paradigma gerät sehr deutlich an seine Grenzen.

Der Altmeister der angelsächsischen philosophischen Diskussion der letzten Jahrzehnte, Thomas Nagel (klassisch sein Aufsatz „What is it like to be a bat?“ 1974) hat in seinem jüngsten Buch „Mind and Cosmos“ (2012, deutsch: Geist und Kosmos 2013) sehr einleuchtend begründet, „warum die materialistische neodarwinistische Konzeption der Natur so gut wie sicher falsch ist“ (Untertitel). Da wird an einem mächtigen Paradigma sehr heftig gerüttelt. Seine Schrift ist zwar insbesondere im US-amerikanischen Kontext zu verstehen, aber ebenso gut für die „kontinentale“ Diskussion hierzulande wertvoll. Peter Bieri ist hier schon länger eingeführt als ein Mahner und Warner vor einem weltanschaulich – naturwissenschaftlichen Paradigma. Es gibt weit mehr Beispiele dafür, dass sich etwas bewegt. Noch nie war die wissenschaftliche Erkenntnis verbunden mit einer bestimmten Grundüberzeugung, Kuhn nennt es Paradigma, endgültig. Paradigmenwechsel kündigen sich langsam an. Wir sind anscheinend im Übergang begriffen. Noch fehlt der Zündfunke.

 

Jul 302013
 
Das Thema „Analytische Philosophie“ am Beispiel des Studienbuches von Ansgar Beckermann (siehe voriger Blogbeitrag) soll um einige Aspekte ergänzt und näher erklärt werden. Die kritische Rückfrage nach den Voraussetzungen und Vorfestlegungen bedeutet nicht, dass sich bei der Durchführung eines philosophischen Konzepts oder bei der Ausarbeitung einer philosophischen Arbeit Voraussetzungen vermeiden ließen. Das ist natürlich nicht der Fall. Es geht gar nicht ohne. Der Kritikpunkt ist die fehlende Abklärung zu Beginn oder zumindest im Verlaufe der philosophischen Durcharbeitung. Davon kann die Analytische Philosophie nicht ausgenommen werden, auch wenn sie sich als „reine“ und begrifflich klare Methode eigentlich als den zeitlosen Endpunkt oder doch zumindest Höhepunkt alles Philosophierens begreift. Es gibt in ihrem Selbstverständnis keine geschichtlich bedingte Entfaltung von Themen und Denkweisen, es gibt keine Prägung durch Schulen und Überzeugungen, es gibt nur noch Argumente, Urteile, Schlüsse und im Endergebnis nachvollziehbare Lösungen oder Klärungen. Die der mathematisch-naturwissenschaftlichen Arbeit abgelauschte klare Formensprache soll eben auch in der Philosophie zu einer abschließenden Klarheit der Gedanken führen, darum „Analytische Philosophie“.

Vorentscheidungen, Vorbegriffe, Vorverständnis usw. ist aber konstitutiv für jeglichen Erkenntnisweg. Man kann das nicht aus dem Denkprozess des Philosophierens ausschließen mit dem Hinweis auf die objektive Gültigkeit und Validierung von Argumenten, die keine Vorlieben und Neigungen zulassen. Genau die eigene Prägung des Denkens – durch Ausbildung, Studium, überzeugende Lehrer –  ist aber kein irrelevanter ‚menschlicher‘ Aspekt vor und unabhängig von der philosophischen Arbeit, sondern ist viel mehr ein integraler Teil des Denkprozesses. Denn die eigenen Grundentscheidungen, Einstellungen und Vorbegriffe müssen während der folgenden Denkarbeit doch gerade überprüft, abgeklärt, in ihrem Gültigkeitsbereich fest gelegt und damit eingegrenzt und bestimmt werden. Darum ist es unabdingbar, sich über die unausgesprochenen Hintergründe und Voraussetzungen des eigenen Denkens fortwährend Rechenschaft abzulegen, insbesondere dann, wenn sie auf dem Hintergrund eines ganz bestimmtenWeltbildes angesiedelt sind.

Aristoteles nach Lysipp (Wikipedia)

Aristoteles nach Lysipp (Wikipedia)

Es gab einmal so etwas wie „methodologische Vorüberlegungen“, welche die Grenzen der angewandten Methode / Begrifflichkeit absteckte. Heute ist aber die selbstverständliche Voraussetzung des Physikalismus anscheinend so unausweichlich und übermächtig, dass jede Alternative oder auch nur die Frage nach einer solchen absurd und lächerlich erscheint. „Wie sollte es denn sonst sein?“ ist die oft gehörte und gelesene Gegenfrage. Ja, genau das ist doch sehr enrsthaft zu fragen: Wie könnte es denn anders, besser gedacht werden? Vielleicht ist nun nach einer längeren Phase der Dominanz Analytischer Philosophie etwas mehr Kreativität des Denkens, der Mut zu einem Neuansatz gefragt, statt sich im endlosen Puzzlespiel logischer Relationen und bisweilen doch sehr abstruser Beispiele und Gedankenexperimente (wie der Zombie in der Qualia-Diskussion) zu verheddern. Beckermanns Durchführung der „Analytischen Einführung in die Philosophie des Geistes“ beweist es doch auf jeder Seite: Von Klarheit, Eindeutigkeit, Übereinstimmung und damit abschließende Klärung kann überhaupt keine Rede sein. Vielmehr werden manche Probleme (zum Beispiel in den verschiedenen Spielarten des Funktionalismus) so oft hin und her gewendet und erneut noch detaillierter ausgeführt, dass man an die Mandelbrot-Mengen und -Bilder (Fraktale, Selbstähnlichkeit) erinnert wird: Jeder neue Aufsatz mit einem neuen Vorschlag von Argumenten, Beispielen und den ach so unverzichtbaren logischen Denk-Formeln bringt noch einmal dieselben „Lösungen“ und Aporien zum Vorschein, wie der vorige Entwurf, nur auf einer etwas veränderten Argumentationsebene – und auch der nun als neu dargestellte Beitrag von Argumenten wird vom Nächsten nur wieder auf seine (selben) Fehler / Fehlschlüsse und Unzulänglichkeiten zurück geführt – und so fort ad ultimum. Liest man sich durch all diese Konzepte und Gegenkonzepte hindurch (nicht nur in dieser Einführung, sondern zum Beispiel in dem dreibändigen „Grundkurs Philosophie des Geistes“ von Thomas Metzinger mit einer Vielzahl von Originaltexten), kommt man um ein gelegentliches Kopfschütteln über diese Art des Philosophierens kaum herum – trunken vor analytischer Begeisterung. Um so wichtiger ist es, nach den jeweiligen stillschweigenden Voraussetzungen zu fragen und die Selbstverständlichkeit, mit der bestimmte Grundentscheidungen vorausgesetzt werden (Dualismus ist Mist, Physikalismus ist unvermeidbar, Metaphysik ist absurd), einfach nicht durch gehen zu lassen. Wer meint davon enthoben zu sein, richtet sich selber als voreingenommener Jünger einer Schule, der Analytischen halt.

[Übrigens nur als Beobachtung: Das Wort „intuitiv“ bzw. „kontra-intuitiv“ kommt in analytisch-philosophischen Erörterungen erstaunlich häufig vor. Immer wieder wird es als Argument oder Gegenargument verwandt, was doch eigentlich einer strikt kausal-logischen Denkweise zuwider läuft. Ohne Intuition geht es also auch bei den Analytikern nicht, und sei es wenn sie den allgemeinen Menschenverstand bemühen.]

Ansgar Beckermann würde sich von meinen Vorhaltungen kaum getroffen sehen, gehört er doch zu den (selbst-) kritischen Geistern der Analytischen Philosophie. Das erkenne ich durchaus an und schätze es. Dennoch macht es sich das analytische Verfahren / Stil / Methode bei aller ernsthaften Bemühung zu einfach, wenn es naturwissenschaftliche Verfahren und Denkweisen, nach Möglichkeit in mathematischer oder zumindest eindeutiger, logisch formalisierbarer Gestalt, als Modell oder Rahmen für die Philosophie insgesamt übernimmt. Der heute fast übliche synonyme Gebrauch von „Analytischer Philosophie“ und „Philosophie des Geistes“ bedeutet eine unbegründete Gleichsetzung von Methode und Inhalt. Sie führt zu einer fatalen Verengung des philosophischen Denkens und Fragens. Dabei fällt vieles von den Hauptthemen und Problemen aus der Geschichte der Philosophie und damit aus der geschichtlichen Entwicklung des menschlichen Denkens überhaupt unter den Tisch. Die vierte philosophische „Grundfrage“ (Kant) gerät sogar ganz aus dem Blick: „Was ist der Mensch?“ – und für die Beantwortung dieser Menschheitsfrage muss man mit den drei anderen Fragen immer wieder neu beginnen: „Was kann ich wissen, was darf ich hoffen, was soll ich tun?“ Nein, einfacher sollte man es sich nicht machen.

Vielleicht kann man sich ja von den Überlegungen und Anstößen eines Markus Gabriel neu motivieren lassen…

Festlegungen Analytischer Philosophie des Geistes

 Philosophie, Wissenschaftstheorie  Kommentare deaktiviert für Festlegungen Analytischer Philosophie des Geistes
Jul 282013
 
Einige Bemerkungen zum Studienbuch von Ansgar Beckermann, Analytische Einführung in die Philosophie des Geistes, 3. Aufl. 2008

Beckermanns „Einführung“ kann als ein Standard-Studienbuch gelten, das innerhalb weniger Jahre in dritter Auflage vorliegt. Für Studierende der Philosophie ist es nach wie vor unentbehrlich, wenn ein deutschsprachiger Einstieg und Überblick in die Analytische Philosophie des Geistes gesucht wird. Wie Beckermann die heute verbreitete analytische Philosophie darstellt und welche Vorentscheidungen und Schwerpunkte er dabei setzt, bestimmt das Bild einer ganzen Generation von Philosophiestudenten. Genug Anlass näher hin zu schauen, welche Weichenstellungen Beckermann für seine Analytik der „Philosophie des Geistes“ vornimmt.

In Fortentwicklung des sprachanalytischen Ansatzes der zweiten Hälfte des vorigen Jahrhunderts („linguistic turn“) nennt Beckermann drei „Merkmale“ des besonderen analytischen „Stils des Philosophierens“:  1. Die Argumentationskultur logischer Verknüpfungen und begrifflicher Implikationen (Carnap, Quine). 2. Die Annahme der Zeitunabhängigkeit philosophischer Probleme und ihrer Argumente. 3. Die Überzeugung, dass philosophische Schulen überholt sind, da es nur unterschiedliche, arbeitsteilig zu behandelnde Argumentationslinien gebe. Allen drei Merkmalen liegt die Hoffnung zu Grunde, „dass es möglich sei, philosophische Probleme ein für allemal zu lösen“. Diese Hoffnung, so Beckermann, werde zwar heute nicht mehr uneingeschränkt geteilt, aber doch die Zuversicht, dass es einen „wesentlichen Fortschritt“ gibt: „Fortschritt in der Philosophie bedeutet im allgemeinen nicht die Lösung, sondern die Klärung von Problemen.“ (S. IX)

Insofern geht es in der Philosophie des Geistes nicht um einen speziellen Blick auf den jeweiligen Inhalt (Perspektive, Hermeneutik), sondern um die „Analytische Einstellung“. Darum behandelt das Buch 1. die „zentralen Fragen“ des Bereiches der Philosophie des Geistes, 2. die Darstellung der Hauptpositionen zu diesen Fragen, 3. die Argumente Pro und Contra einzelner Positionen. Dabei gibt Beckermann zu, dass er eine Auswahl treffe, die insofern zeitgebunden sei, als sie sich aus dem gegenwärtigen Stand der Diskussion ergebe. Aber immerhin, so die Absicht, vermitteln die Grundfragen und Hauptprobleme dieser Philosophie in analytischem Stil ein „Basiswissen“, das mehr oder weniger zeitlos gültig ist und die „solide Grundlage“ liefert, neue Positionen „richtig einzuordnen“. Gerechtfertigt sieht sich Beckermann gegenüber anderen Einführungen dadurch, dass eben jeder Autor doch „erhebliche Unterschiede“ in der Einteilung und Problemdarstellung des Gebietes aufweise, weil „der persönliche Standpunkt nicht ausgeblendet werden kann“.

Jaques Droz Automates (Wikimedia Commons)

Jaques Droz Automates (Wikimedia Commons)

Schon diese Vorklärungen werfen einige Fragen auf. Es ist zuerst die dezidierte Geschichtslosigkeit, die hier zum philosophischen Programm erhoben wird. Es gibt prinzipiell nur Grundfragen, Argumente, Widerlegungen, die, wenn sie einmal behandelt und ausreichend geklärt sind, ein Thema erschöpfen; es kann ein für allemal als ‚erledigt‘ gelten. Die wachsende Menge der analytisch geklärten (wenn nicht gelösten) Themen stellt dann den Fortschritt der philosophischen Arbeit dar. Die Parallele der Naturwissenschaft ist unverkennbar. Auch dort erhoffte man sich im vorigen Jahrhundert und zum Teil noch immer, dass eine abschließende TOE, „Theory of everything“, zumindest aber eine GUT, eine „Great Unified Theory“, die abschließende Lösung aller Rätsel zu Tage fördert. So ist die aufwändige Suche nach dem Higgs-Teilchen auch dadurch motiviert, eine „letzte“ Lücke in der allgemeinen Theorie der Elementarteilchen und der universellen Kraftfelder zu schließen. Bisher hat sich allerdings gerade auch in der Teilchenphysik immer wieder gezeigt, dass die gezielten Experimente neben den gesuchten Antworten auch viele neue Fragen aufwerfen. Die String-Theorie oder die Theorien zur Supersymmetrie bleiben zunächst einmal das, was ihr Name besagt: Theorien, Gedankenmodelle, Fragerichtungen in mathematischer Sprache.

In der Analytischen Methodik der Philosophie scheint genau dasselbe vorzuliegen. Angestrebt, sozusagen axiomatisch begründet ist die ‚Große Allgemeingültigkeit‘ der thematische Fragen und ihrer argumentativen Klärungen. De facto gibt es aber ebenso viele Klärungen und Argumente wie analytische Philosophen. Und natürlich gibt es dort auch die Anhänger (warum nicht „Schulen“?) ganz bestimmter Richtungen, je nach dem ob sie sich zum Beispiel mehr sprachanalytisch, strukturalistisch oder systemtheoretisch orientieren. Das in den Auflagen stetig gewachsene Studienbuch Beckermanns legt davon selber Zeugnis ab. Die Positionen und ihre Unterschiede und Differenzierungen nehmen zu, nur die aktuellen Namen ihrer Vertreter wechseln. (Kleine Nebenbemerkung: Ich brauche hier nicht korrekterweise von „Vertreterinnen“ zu schreiben, weil es Professorinnen in der Analytischen Philosophie kaum gibt. Das bedeutet…?)

Allein ein Blick ins Inhaltsverzeichnis lässt einen schnell die Hoffnung preisgeben, hier würde endlich eine Philosophie aus einem Guss geliefert, die die Menschheitsfragen eindeutig und abschließend lösen könnten. Auch in der Analytischen Philosophie gibt es so viele verschiedene Ansätze wie Protagonisten, und selbst die Themen werden unterschiedlich gesetzt, von dem angewandten theoretischen Rahmen und Begrifflichkeiten ganz zu schweigen. So bleibt letztlich nur ein bei den Naturwissenschaften, insbesondere der Logik, ausgeliehenes formales Instrumentarium bei der Formulierung von Argumenten, das gelegentlich hilft, aber ebenso oft als unangemessen bezeichnet werden muss. Jedenfalls wird das Programm, Philosophie „zeitlos“ und allgemein „problembezogen“ zu betreiben, sehr schnell als leere Hülse sichtbar, die nur den Anspruch auf allgemeine Gültigkeit und Unbezweifelbarkeit verdeckt. Schon vom Ansatz her wird, das macht das Vorwort Beckermanns deutlich, ist auch dieser philosophische Ansatz eben nur ein zeitverhaftetes Denkmodell, das je nach Gusto und Denkrahmen mal mehr, mal auch weniger überzeugen kann.

Werfen wir noch einen Blick auf Beckermanns Einleitung zu den Problemen und Fragen der Philosophie des Geistes. Auffallend ist es, wie grundsätzliche  Vorentscheidungen begrifflicher und methodischer Art eher beiläufig genannt werden. So identifiziert er gleich zu Beginn den Gegenstandsbereich der Philosophie des Geistes mit der „mentalen Seite des menschlichen Lebens“ im Unterschied zur „biologischen“ Seite (er nennt physiologische Funktionen wie Fortpflanzung, Stoffwechsel usw.) und ordnet diesen „mentalen Bereich“ dann weiteren „vier Problembereichen“ zu (Ontologie, Epistemologie, Semantik, Methodologie). Dabei ist schon eine erste Vorentscheidung gefallen, die nicht weiter geklärt wird: Den Menschen als zweigeteiltes Objekt in den Blick zu nehmen, nämlich einerseits biologisch-physikalisch, andererseits „mental“, was immer das genauer bedeuten soll. Denn darum geht nun in der Folge der Streit: Was das Mentale denn eigentlich ist: „Gibt es Mentales? – Was ist die Natur des Mentalen?“ Die allererste, vorgängige Unterscheidung in biologisch und / oder mental wird aber vorausgesetzt und nicht weiter hinterfragt. Sie ergibt sich für Beckermann offenbar intuitiv, aber auf dem Hintergrund welchen Weltbildes?

„Den Kern des ontologischen [gemeint ist metaphysischen] Teilproblems bildet das klassische Leib-Seele-Problem“, fährt Beckermann fort. Jetzt tauchen mentale und physische Phänomene auf, deren Zuordnung problematisch wird. Beim näheren Eingehen auf das „ontologische Teilproblem“ wechselt er sogleich auf eine andere Begrifflichkeit. Statt „Leib-Seele-Problem“ sollte man besser sagen „Körper-Geist-Problem“. Immerhin verwendet Beckermann eine Fußnote, um diesen gravierenden Austausch der Begriffe zu erläutern. „Leib“ und „Seele“ trügen zu viele unklare Konnotationen mit sich, die man mit den neuen Begriffen vermeiden könne, „denn schließlich geht es um den Zusammenhang zwischen seelischen Phänomenen und physiologischen Prozessen in unserem Körper“. Das ist alles an ‚Begründung‘. In der Fußnote wird dann noch auf die unterschiedliche Bedeutung der Begrifflichkeit englisch „mind“ und deutsch „Geist“, Gefühl, Intuition, aufmerksam gemacht. Wiederum ist eine grundlegende Vorentscheidung so nebenher vollzogen. Natürlich spiegelt sich hierin die cartesianische Zweiteilung von res cogitans und res extensa, zwischen Denkendem und Ausgedehntem, wider. Außer Platon ist dann auch Descartes der einzige, der in dem sehr knappen philosophiegeschichtlichen Rückblick ausführlicher erwähnt wird. Platon dient mehr als Negativfolie für metaphysischen „Substanz-Dualismus“ (auch solch ein ungeklärter Begriff, eigentlich eher ein Etikett), dem er eine „begriffliche Konfusion“ (27) attestiert. Den „Substanz-Dualismus“ behandelt Beckermann deswegen nur noch am Rande, weil „er in der gegenwärtigen Philosophie … kaum noch eine Rolle“ spielt und weil diese Position angesichts ihrer Widersprüche und Probleme (obwohl intuitiv zugänglich) „den meisten zeitgenössischen Philosophen schier unglaublich scheint“ (8). Nun gut, wenn man das für ein „Argument“ hält…

Es rächt sich also sehr bald, in der Darstellung der Grundprobleme der Philosophie des Geistes auf eine vorgängige Klärung der eigenen Voraussetzungen, Denkrahmen und Kategorien zu verzichten. Es rächt sich ebenso, Philosophie als zeitlos im ungeschichtlichen Raum abstrakter ‚Grundfragen‘ zu verorten. Die geschichtlich-hermeneutische Bedingtheit der eigenen Position kommt nur noch als zufällige Auswahl unterschiedlicher Meinungen und Argumente in den Blick. Und was dem naturalistisch geprägten Weltbild des analytischen Philosophen „unglaublich“ erscheint, mag einem anderen Philosophen durchaus als plausibel gelten. Auch der andere Philosoph wird eigene Voraussetzungen und Vorstellungen / Weltbilder mit bringen. Aber er sollte und müsste sie genau so vorgängig offen legen und abklären, wie es vom analytisch verfahrenden Philosophen zu fordern ist. Aber dagegen hat sich dieser offenbar schon durch die als naturwissenschaftlich unbezweifelbare vorausgesetzte Methodik und formale Begrifflichkeit bzw. Argumentationsstruktur immun gemacht. Wahr ist (wenn man denn überhaupt noch so fragen darf), was „richtig“ ist. Richtig aber ist die logische Struktur und das naturalistische, neopositivistische Weltbild.

In der Tat, dagegen gäbe es einiges zu fragen und zu sagen. Allerdings zeigt allein die Menge der Widersprüche und Probleme innerhalb der analytisch verfahrenden Philosophie des Geistes heutzutage (fünf Jahre später) deutlich, dass hier offenbar auch nur mit Wasser theoretischer Modelle gekocht wird und „Lösungen“ und „Klärungen“ weit entfernt sind von einer allgemeinen Plausibilität. Die Hochphase der Analytischen Philosophie scheint sich auch dem Ende zuzuneigen. Sie erstickt womöglich an ihrer eigenen Vollmundigkeit, an ihren eigenen ungeklärten Voraussetzungen.

Eliminative Wirklichkeit

 Philosophie, Wissenschaftstheorie  Kommentare deaktiviert für Eliminative Wirklichkeit
Jun 292013
 
Die Wirklichkeit ist nicht so unzweifelhaft wirklich, wie sie auf den ersten Blick scheint – und wie sie von den „naiven“ Realisten voraus gesetzt wird. Es ist erstaunlich, wie alte philosophische Traditionen wie der antike erkenntnistheoretische Skeptizismus eines Sextus Empiricus plötzlich wieder ganz aktuell erscheinen. Natürlich muss ein neuer Name her, „eliminativer Phänomenalismus“ klingt auch gleich viel wissenschaftlicher. Die dahinter stehende Sache ist aber alt und durchaus ernst zu nehmen. Es ist erst recht bemerkenswert, dass diese radikale Position auf dem Hintergrund der Hirnforschung und der modernen Phänomenologie des Bewusstseins auftaucht. Thomas Metzinger, analytischer Philosoph und Bewusstseinsforscher, entwickelt eine hoch interessante, wenn auch im Blick auf die verfügbare empirische Datenbasis noch hoch spekulative Theorie des Ich und des Bewusstseins; auf sein anregendes Buch „Der Ego-Tunnel“ habe ich wiederholt hingewiesen. Mittels des Begriffs des „phänomenalen Selbstmodells“ (PSM) versucht Metzinger, auf der Höhe der empirischen Befunde der Neurowissenschaften eine evolutionär-funktionale Theorie des Bewusstseins zu entwickeln. Der Titel seines populärwissenschaftlichen Buches deutet schon das Ergebnis an: Wir leben in einem unbewusst selbst entworfenen „Ego-Tunnel“, aus dem es kein Entrinnen gibt. Der aus dem Gehirn evolutionär entspringende Geist hat eine unglaublich komplexe und effektive Weise der Aneignung der Welt hervor gebracht mit dem Ziel, Handlungsmöglichkeiten zu gewinnen. Dabei wird „die Welt“ aber allererst in einem Modell konstruiert, das durch die Sinnesorgane und die Verarbeitung im Gehirn transparent zur Verfügung gestellt wird. „Welt“, also äußere Realität, ist das, was mir zuhanden ist. Das „virtuelle“ Selbst erstellt eine virtuelle Welt, um darin als absichtsvoller Agent auftreten zu können. In einer wissenschaftlichen Theorie des Bewusstseins kann diese Funktionalität entdeckt und bewusst gemacht werden. Es bleibt aber ein Zirkel, denn das Bewusstsein spiegelt sich hierbei nur in sich selbst. Offenbar hat sich dieses Modell aber als Überlebensstrategie bestens bewährt. Es ist allerdings nur ein Modell.

Dass der Wirklichkeitsbezug erkenntnistheorerisch zweifelhaft bleibt, verdeutlicht eine zunächst recht exaltiert erscheinende Position. Metzinger beschreibt sie in einem fiktiven Gespräch so:

Das merkwürdige philosophische Konzept, das diese Traumgemeinschaft aus Naturwissenschaftlern entwickelt und zu ihrer Prämisse gemacht hat, ist unter dem Namen »eliminativer Phänomenalismus« bekannt. Wie der etwas übereifrige Doktorand Ihnen erklärt: »Eliminativer Phänomenalismus ist durch die These charakterisiert, dass die Physik und das neurowissenschaftliche Menschenbild eine radikal falsche Theorie sind; eine Theorie, die so fundamentale Defekte aufweist, dass sowohl ihre Prinzipien als auch ihre Ontologie irgendwann schließlich durch eine vollständig entwickelte Wissenschaft des reinen Bewusstseins ersetzt werden, statt problemlos auf diese reduziert zu werden.« Die gesamte Wirklichkeit ist demzufolge eine phänomenale Wirklichkeit. Die einzige Möglichkeit, aus dieser Wirklichkeit herauszufallen, besteht darin, die grandiose (aber fundamental falsche) Annahme zu machen, dass es tatsächlich eine Außenwelt gibt und dass Sie das Subjekt – das heißt das erlebende Selbst – dieser phänomenalen Wirklichkeit sind, dass es tatsächlich so etwas wie einen Bewusstseins-Tunnel gibt (ein Wurmloch, wie die Forscher im Traum-Tunnel es ironisch nennen) und dass es Ihr eigener Tunnel ist. Indem Sie sich diese Überzeugung ernsthaft zu eigen machen, würden Sie jedoch plötzlich unwirklich werden und sich selbst in etwas noch Geringeres als eine bloße Traumfigur verwandeln: in eine mögliche Person – genau das, was Ihr Kontrahent am Anfang der Diskussion behauptet hat. (Thomas Metzinger, Der Ego-Tunnel, S. 213f.)

Der „Ego-Tunnel-Blick“ ist also durchaus nicht nur erhellend. Aber richten wir unsere Überlegung auf etwas Anderes. Weniger bezweifelbar ist es, dass wir die Welt außerhalb nur vermittels unserer Sinne durch unsere geistige Aktivität wahrnehmen können. Dabei geschieht eine Interpretation der Sinneserfahrung, die uns das, was der Sinn vermittelt, allererst zugänglich und begreifbar macht. Das Auge gibt uns ein „Bild“ von etwas, das elektromagnetische Strahlung im „sichtbaren“ Bereich, also zwischen 380 nm und 780 nm Wellenlänge, reflektiert. Dies ist nur ein winziger Ausschnitt aus dem gesamten Spektrum elektromagnetischer Strahlung, wie ein Schaubild (Wikipedia) verdeutlicht. Für akustische Sinneswahrnehmung gilt dasselbe, auch da steht unseren Sinnen nur ein kleiner Ausschnitt zur Verfügung, den wir als Töne und Klang wahrnehmen. Ein bestimmter Wellenbereich wird von unserem Tastsinn als Wärme empfunden. Auch dies ist eine Interpretation, denn das Gefühl von Wärme ist keine physikalische Eigenschaft. Wärme ist „thermische Energie, die in der ungeordneten Bewegung der Atome oder Moleküle eines Stoffes gespeichert ist.“ Gegenständlichkeit ist eine bestimmte Anordnung oder Struktur eines atomaren oder molekularen Verbandes, dessen Energie- und Masseeigenschaften von unseren Sinnen (Auge, Tastsinn) in ganz bestimmter Weise wahrgenommen und durch das Gehirn interpretiert werden können. Physikalisch gibt es allenfalls „Körper“, das heißt molekulare Strukturen mit bestimmten Eigenschaften. Auch hier gilt wiederum, dass wir mit unseren Sinnen nur einen Ausschnitt vorhandener Körper wahrnehmen können, die von Größe und Ausdehnung her unseren lebensweltlichen Anforderungen entsprechen. Was zu klein oder zu groß, zu langsam oder zu schnell, zu nah oder zu fern ist oder wofür wir überhaupt keinen Sinn haben, das nehmen wir nicht wahr, zumindest nicht ohne Hilfsmittel. Was wir auf keinerlei Art wahrnehmen können, ist für unsere „naives“ Realitätsempfinden nicht vorhanden. Für Radarimpulse oder Radioaktivität haben wir kein Sensorium, darum nehmen wir diese Strahlung und damit diese mögliche Gefahr unmittelbar nicht wahr. Das Zeitempfinden schließlich ist ebenfalls durch unseren Organismus bestimmt, indem unser Leben im Rhythmus des Herzschlages entlang des Rhythmus‘ von Tag und Nacht verläuft. Zeit „an sich“, also physikalisch, ist nur als Veränderung im Raum relativ zu anderen Systemen bestimmbar. Sie ist allerdings „gerichtet“, d.h.  unumkehrbar aufgrund des Zweiten Hauptsatzes der Wärmelehre (Entropie).

Molekülbewegung (Wikipedia)

Molekülbewegung (Wikipedia)

Über das „Gesetz“ der steten Zunahme der Entropie ließe sich genüsslich philosophieren, insbesondere was Entropie genau bedeutet. „Unordnung“ ist nur eine sehr ungenaue Interpretation, „Zunahme von Information“ (von Weizsäcker) schon eine sehr viel genauere. Hier sei nur fest gehalten, dass grob gesprochen die Welt der Physik (als Basiswissenschaft unseres naturwissenschaftlichen Weltbildes) von der Welt, wie wir sie wahrnehmen, erfahren und interpretieren, grundverschieden ist. Alles, was wir als inner- und alltagsweltliche Gegebenheiten kennen, kommt dort „nur“ als abstrakte Beschreibung von Massen und Energien, von Kräften und Wechselwirkungen, von Feldern und Konstanten vor. Beide Welten passen schon „irgendwie“ zusammen, aber sind ihrer Art nach doch völlig verschieden: In den Gesetzen der Physik findet sich nämlich überhaupt keine unsrer Empfindungen und mentalen Metaphern, Modelle, Bilder wieder.

Was ist nun wirklich: die Welt der Physik oder die Welt unserer Alltagserfahrung? Oder ist auch die Welt der Physik „nur“ ein Modell, ein sehr viel abstrakteres, genaueres, aber eben auch nur ein eben mathematisches Modell unseres Geistes, um all das („Welt“) zu erfassen und zu bestimmen („Erkenntnis“) und in seiner Funktionsweise („Gesetze“) zu erklären, was uns zunächst unsere Sinne naiv-real als zuhanden und darum vorhanden vermitteln? Zumindest machen diese Überlegungen deutlich, dass die Auffassung der alten Skeptiker bis hin zu den Geist-Theorien der Neuplatoniker (Welt als Emanation unseres Nous / Geistes) gar nicht so weit von dem entfernt sind, was auch heute zugespitzt formuliert wird wie oben zitiert: Dass sich die „reale“ Welt als reines Phänomen, als fiktives Modell, als mentale Repräsentanz des Bewusstseins eliminativ auflöst oder zumindest infrage gestellt sieht. „Darum soll es auch erst mal genug sein mit der Tunnel-Erkenntnistheorie“, beschließt Metzinger seinen Abschnitt. Wohl wahr, es ist verwirrend, aber eben auch spannend und nachdenkenswert. Die allzu forschen Realisten und physikalischen Materialisten sollten sich jedenfalls nicht allzu sicher wähnen. Der Hauptgegner des Skeptizismus von ehedem war der von ihnen so benannte und bekämpfte Dogmatismus. Das könnte zu denken geben.