Kategorien
Ethik Philosophie

Das Geheimnis der Systeme

[Philosophie; Ethik]

Claus Pias hat in der FAZ einen bemerkenswerten Artikel über Erkenntnis und Handeln im Zeitalter digitaler Echtzeit-Systeme geschrieben und darin nach dem „Funktionsgeheimnis digitaler Kulturen“ gefragt. Im Unterschied zur Vormoderne beruht es nicht auf Geheimhaltung (des Souveräns / der Regierung), sondern auf „Inkommensurabilität“:

Kybernetische Regierung würde, so viel war klar, nicht nur Staatlichkeit brüchig werden lassen, sondern eine Entgrenzung des Politischen heraufführen, die auf einer extensiven, wellenförmigen Registratur und einem Willen zum Wissen beruhen müsste, der kein Gebiet auslassen und keinen Haltepunkt des Interesses kennen dürfte. Mit dem Siegeszug von Computersimulationen und dem Umbau etlicher Wissenschaften in System-Verhaltenswissenschaften wurde dieses Wissen zunehmend von solchen Systemen selbst produziert. Mit dem Wissen, nicht genau zu wissen, was wir wissen, werden aber die eigenen Handlungsgrundlagen zusehends aporetisch.

Am Beispiel der Klimadebatte verdeutlicht Pias, wie ein „computerbasiertes Welt-Szenario-Projekt … zwischen Wissenschaft und Fiktion“ alternative Handlungsbegründung nahezu unmöglich macht:

Der gängige Reflex, die „Konstruiertheit“ solchen Wissens aufzuweisen, verschlägt wenig, denn er erspart nicht das Handeln angesichts von Szenarien, die sich ihres Konstruktivismus selbst bewusst sind. Und die Falsifizierbarkeit der klassischen Wissenschaftsethik ist nicht praktizierbar, weil der Gegenstand Klima nicht experimentell zugänglich ist und die betroffenen Wissenschaften selbst nicht mehr rekonstruieren können, was in ihrer Software vorgeht. Was also tun?

Auch die „Kybernetik 2. Ordnung“, so ist zu folgern, hilft hier wenig weiter, weil sie das Problem des „Arkanums“ der sich selbst regulierenden Algorithmen allenfalls abbilden, aber nicht erklären kann. Wie also lässt sich jenseits des digitalen  „Funktionsgeheimnisses“ und damit des Abhandenkommens eines transparenten Souveräns (dem nach Pias auch die „gegenwärtige Transparenzekstase“ nicht beikommt) Handlungsbegründung und Handlungsvollmacht wieder gewinnen?

Anders gefragt: Wie ist der Wahrheitsanspruch von Erkenntnis gegenüber der Allmacht eines systemtheoretischen Konstruktivismus (der auch als sog. „Poststrukturalismus“ nicht besser wird) zurück zu gewinnen und wie lässt sich Ethik als Theorie begründeter und überzeugender Handlungsmaximen freier Personen angesichts der Allmacht der „kybernetischen Epistemologie der Echtzeit“ und ihrer prädiktiven Szenarien begründen? Können Handlungsfreiheit und Verantwortlichkeit handelnder Subjekte überhaupt gewahrt bleiben, wenn alle möglichen Alternativen bereits durchgerechnet, bewertet und als aus der Zukunft in die Gegenwart transplantierte „Tatsachen“ vorweg genommen sind? Ist es tatsächlich so, dass traditionelles Wissen aus vergangenem „Erfahrungsraum“ und im „Erwartungshorizont“ der Zukunft nunmehr in einer neuen Form digitaler (All-) Gegenwart „zusammenschnurrt“ und dem Denken nur distanzierte „Neugier“ übrig bleibt?

Mir scheint allerdings, dass der aporetische Ausgang selber den Implikationen eines konstruktivistischen oder neuerdings systemtheoretischen Theorieansatzes (Erbe der Kybernetik) geschuldet ist. Es ist darum gut, einen Blick auf die intelligente Kritik von Paul Boghossian zu werfen: Angst vor der Wahrheit. Ein Plädoyer gegen Relativismus und Konstruktivismus (2013 als Suhrkamp TB mit einem Nachwort von Markus Gabriel). Boghossian führt seine Auseinandersetzung vor allem mit dem jüngsten angelsächischen epistemologischen Relativismus und Sozial-Konstruktivismus (→ Richard Rorty). Sein Fazit ist ernüchternd.

Die konstruktivistische Kernthese, die uns in diesem Buch beschäftigt hat, besagt, dass Wissen von Gesellschaften in einer Weise konstruiert wird, die ihre kontingenten Bedürfnisse und Interessen widerspiegelt. Wir haben drei verschiedene Ideen herauspräpariert, auf die diese Überzeugung in interessanter Weise hinauslaufen könnte, und wir haben genau geprüft, was jeweils für sie spricht.
Einerseits scheint es schwerwiegende Einwände gegen jede von uns untersuchte Version des Erkenntniskonstruktivismus zu geben. Ein Wahrheitskonstruktivismus ist inkohärent. Ein Berechtigungskonstruktivismus ist wenig besser. Und es scheint entscheidende Einwände gegen die Idee zu geben, dass wir Meinungen nicht allein mittels epistemischer Gründe erklären können. …

Die Schwierigkeit liegt darin, zu verstehen, warum diese Verallgemeinerungen sozialer Konstruktion so verlockend sind. Eine Quelle ihrer Anziehungskraft ist offenkundig: Sie geben uns die Macht, jeden Erkenntnisanspruch einfach zurückzuweisen, wenn wir die Werte, auf denen er beruht, nicht zufällig teilen, da wir von vornherein wissen, dass jeder Erkenntnisgegenstand seinen Status nur unseren kontingenten sozialen Werten verdankt. Aber damit wird die wirkliche Frage nur vertagt. Warum diese Angst vor der Wahrheit? (S. 133)

Es ist also letztlich ein ideologiekritisches, insbesondere politisches Argument, das Boghossian zugleich heranzieht: Wem nützt ein solcher Konstruktivismus, inwiefern wird er für einen bestimmten Meinungskampf (im US-Falle: liberale Korrektheit contra Kreationisten) instrumentalisiert?

Vergleichbares wäre erst noch für diejenigen Formen der Systemtheorie und Kybernetik 2 zu leisten, die in diesen Theoriemodellen die geeigneten epistemischen wie pragmatischen Universalinstrumente für das digitale Zeitalter erkennen. Claus Pias‘ Überlegungen über die „Zeit, die aus der Kälte kam“, könnten dazu ein erster Schritt sein. Umso wichtiger ist aber darüber hinaus die Frage nach dem Nutzen (cui bono) des „digitalen Funktionsgeheimnisses“ und den manifesten Interessen (von Google bis zur NSA), die das modern-digitale „Arkanum“ bewusst befördern und über seine „Inkommensurabilität“ wachen. Die entscheidenden Algorithmen gehören zum wichtigsten Kapital der digitalen Welt. Darum ist die Verfügungsmacht darüber eben auch – eine Machtfrage. Darauf hinzuweisen wird zu Recht Evgeny Morozov nicht müde. Das heißt, die Frage nach der Bedeutung und den Auswirkungen moderner Systemtheorien inklusive Prädiktion, reflexive Selbststeuerung auf der Metaebene („Kybernetik 2“) und der Konstruktion digitaler Real-Szenarien (die Möglichkeiten durch Wahrscheinlichkeiten ersetzen) ist nicht nur auf der epistemologischen Ebene zu verhandeln, sondern zugleich auf der ethisch-politischen. Das nur neugierig distanzierte Denken reicht nicht, wenn es um Macht, und sei es um die Deutungsmacht geht.

„Ideologiefreie Sachzwänge“ waren schon zur Zeit der Erfindung dieser Begriffe letztlich gesellschaftliche Streitbegriffe um Deutungsmacht und Erkenntniszweck. Die heutigen Fragen nach der Möglichkeit und Gültigkeit systemimmanenter, dynamisch-regulativer Wissens- und Handlungstheorien darf von der praktischen Frage nach Nutzen und Zweck (z. B. Kapital, Kontrolle) nicht mehr gelöst werden. Nicht erst seit dem Streit um die Kernenergie oder die Klimaveränderung ist es offensichtlich, dass das Denken (und damit Philosophie und Ethik) sich nicht in abstrakten Theorieentwürfen und ansonsten distanziertem Danebenstehen erschöpfen darf, sondern nach wie vor die Aufgabe der Kritik und der Forderung nach Offenlegung digital-technokratischer Machtstrukturen hat. Ohne dies bleibt der Traum von einer digitalen Wissens-Allmende eine blanke Illusion. Oder mit Paul Boghossian: „Warum diese Angst vor der Wahrheit?“

4 Antworten auf „Das Geheimnis der Systeme“

Das für mich Auffälligste im dem Artikel ist das Gewimmel von Kunjunktiven an den entscheidenden Stellen. So wird probehalber eine „Allmacht“ von arkanen Algorithmen hypostasiert, die allerdings ein Konstrukt ist. Vom automatisierten Regierungshandeln in Echtzeit ist realiter nirgends etwas zu sehen, nur von einem zunehmenden Druck auf das „Staatsmanagement“, sich mit Kennzahlen zu füttern und an Kennzahlen auszurichten. Die letztgültigen Sachargumente kommen dabei heute nicht von den Algorithmen, sondern von den Wissenschaften (ziemlich unabhängig von deren Methodik) sowie von den „Professionals“ (Juristen, Unternehmensberater, Fachleute aller Art).
Wenn man sich an einer „Kritik der politischen Technologie“ versuchen will, stößt man auf zwei miteinander konkurrierende Leitideen (die sich mühelos in entsprechende Schreckbilder umformulieren lassen). Leitbild 1 ist die Utopie der massiv partizipativen Demokratie („die oben sollen tun, was das Volk wünscht“), Leitbild 2 die Utopie der sachfesten, quasi oder tatsächlich algorithmisch rationalisierten Staatsentscheidungen. Für beide Entiwcklungsrichtungen wäre Technologie der „Enabler“, die Ergebnisse in der äußersten Zuspüitzung diametral entgegengesetzt.
Diese unterschiedlichen Leitbilder führen heute schon zu Kämpfen und politisch „schwierigen“ Situationen., kann man in D z.B. in der „Energiewende“ sehen. Die Regierung gerät dabei zwischen die Stühle und muss zunehmend diplomatischer „Politik vermitteln“ und moderieren.
Aktuell hat man den Eindruck, dass nichts weniger politische oder gar geschichliche Entscheidungen beeinflusst als die perhorreszierten allmächtigen, im Finstern waltenden Algorithmen. Die sind eher Mägde für Interessen und Ängste und scheinen nur selten vernunftsteigernde Wirkung zu haben. Insofern würde ich Ihrem Fazit zustimmen.

Dass „die Algorithmen“ noch nicht unmittelbar Regierungshandeln bestimmen, ist klar. Aber die Tendenz, auf die Pias aufmerksam macht, geht doch in die Richtung, sich mehr und mehr Entscheidungen durch „Szenarien“ anhand von Computermodellen vorgeben zu lassen. Das gilt am ehesten bereits im Sicherheitsbereich. Im Agieren der großen Internet-Konzerne dürfte es die Regel sein. Frage also: Wer kontrolliert die Kontrolleure, wenn letztere rational optimierte bzw. sich selbst optimierende Maschinen sind?

„Dass “die Algorithmen” noch nicht unmittelbar Regierungshandeln bestimmen, ist klar.“

Ja, ist das klar? Das kommt wohl darauf an, was man unter Algorithmen versteht. Wenn man darunter etwas wie ein „Rezept“ versteht, dann ist Regierungshandeln natürlich volle Elle durch Algorithmen bestimmt. Was z.B. ist das Bruttosozialprodukt anderes als ein durch eine Algorithmus generierte Zahl? Und da istzen auf keine Wissenschaftler, die das BSP an den Fingern abzählen oder dieses von „nachvollziehbaren“ Zetteln ablesen. Natürlich ist das Handeln von Regierungen und Organisationen krassestens durch Algorithmen bestimmt.

„… Wie also lässt sich jenseits des digitalen ”Funktionsgeheimnisses” und damit des Abhandenkommens eines transparenten Souveräns (dem nach Pias auch die “gegenwärtige Transparenzekstase” nicht beikommt) Handlungsbegründung und Handlungsvollmacht wieder gewinnen?“

So schwer scheint mir das nicht.

1. Sich gewissenhaft umgucken, so gut es geht.
2. Sich seines eigenen Verstandes bedienen und lernen.
3. Verantwortung dafür übernehmen.
4. Wieder bei 1. anfangen.

Kommentare sind geschlossen.