Paradigmenwechsel in den Naturwissenschaften
1. Mit der Newtonschen Mechanik und ihrer konsequenten Umsetzung im „Laplaceschen Dämon“ wurde der Determinismus der Naturgesetze als naturwissenschaftliches Universalprinzip etabliert:
Wir müssen also den gegenwärtigen Zustand des Universums als die Wirkung seines früheren und als die Ursache des folgenden Zustands ansehen. Eine Intelligenz, die für einen gegebenen Zeitpunkt alle in der Natur wirkenden Kräfte sowie die gegenseitige Lage der sie zusammensetzenden Elemente kennen würde und außerdem umfassend genug wäre, um diese gegebenen Größen der Analysis zugänglich zu machen, würde in derselben Formel die Bewegungen der größten Körper des Universums wie die des leichtesten Atoms umfassen; nichts würde für sie ungewiß sein, und die Zukunft wie die Vergangenheit würden ihr offen vor Augen liegen.
Pierre Simon Laplace, Theorie analytique des probabilites – Über die Wahrscheinlichkeit, 1814
2. „Zufall“ konnte es als Erklärungsversuch eigentlich nicht mehr geben, und wenn doch, bedurfte es der Prüfung und Rechtfertigung, ob und um welche Art Zufall es sich da handeln konnte. Unproblematisch war der „epistemische Zufall“, sofern er als eine Form des (Noch-) Nichtwissens eingeordnet werden konnte. „Echter“, systemischer oder substantieller Zufall stand im Widerspruch zum allgemein gültigen Determinismus; das hatte dieser mit der göttlichen Vorsehung gemein.
3. Der Zufall schlich sich in der Wissenschaft wieder in Form von Wahrscheinlichkeiten ein. Boltzmann kann dafür als Kronzeuge gelten, als er die mechanistisch schwer verständliche Entropie nach dem Zweiten Hauptsatz der Thermodynamik durch den Probabilismus erklärte: Energetische Systeme streben stets den wahrscheinlichsten Zustand an.
Auch diese Hypothese, welche man als die mechanische Wärmetheorie bezeichnet, ist eine fest auf Tatsachen begründete Ansicht. Maß und Zahl verdankt sie dem vom Robert Mayer zuerst klar ausgesprochenen Prinzipe der Erhaltung der Energie [Erster Hauptsatz]. Allein diesem allgemeinen Prinzipe hat die mechanische Wärmetheorie ein zweites an die Seite gesetzt, welches das erste in einer wenig befriedigenden Weise beschränkt, den sogenannten zweiten Hauptsatz der mechanischen Wärmetbeorie; dieser wird etwa folgendermaßen ausgedrückt: Arbeit und sichtbare lebendige Kraft können bedingungslos ineinander übergehen und sich bedingungslos in Wärme verwandeln, umgekehrt ist die Rückverwandlung der Wärme in Arbeit oder sichtbare lebendige Kraft entweder gar nicht oder doch nur teilweise möglich.
Wenn nun in einem gegebenen Systeme von Körpern ein gegebenes Energiequantum enthalten ist, so wird sich diese Energie nicht willkürlich bald in der einen, bald der andern Weise transformieren, sondern sie wird immer aus unwahrscheinlichen in wahrscheinlichere Formen übergehen; wenn ihre Verteilung unter den Körpern anfangs den Wahrscheinlichkeitsgesetzen nicht entsprach, so wird dies immer mehr und mehr angestrebt werden.
Jeder Energieverteilung kommt daher eine quantitative bestimmbare Wahrscheinlichkeit zu. Da diese in den für die Praxis wichtigsten Fällen identisch ist mit der von Clausius als Entropie bezeichneten Größe, so wollen wir ihr hier ebenfalls diesen Namen geben.
Da ein gegebenes System von Körpern von selbst niemals in einen absolut gleich wahrscheinlichen Zustand übergehen kann, sondern immer nur in einen wahrscheinlicheren, so ist es auch nicht möglich, ein Körpersystem zu konstruieren, welches, nachdem es verschiedene Zustände durchlaufen hat, periodisch wieder zum ursprünglichen Zustand zurückkehrt: ein perpetuum mobile.
Von dem, was ich sagte, entspricht vielleicht vieles nicht der Wahrheit, aber alles meiner Überzeugung.
Ludwig Boltzmann, Der zweite Hauptsatz der mechanischen Wärmetheorie, 1905
4. Vom ausgehenden 18. bis ins 20. Jahrhundert hinein war die „klassische Physik“ vorherrschend mit den Bereichen Mechanik, Optik und Elektrodynamik. Die Thermodynamik wurde zu Problemfall, wie die offene Frage bezeugt: Wie kann ein auf der Mikroebene möglicherweise nichtdeterministisches System (Gastheorie) sich auf der beobachtbaren Makroebene durchweg deterministisch verhalten? Boltzmanns Verknüpfung von Probabilismus und Determinismus zeigt an, dass man die Thermodynamik nicht mehr bedenkenlos der „klassischen Physik“ mit ihrem deterministischen Dogma zurechnen kann. Für die Elektrodynamik hatte dann um die Jahrhundertwende zum 20. Jahrhundert Plancks Wirkungsquantum und die Spezielle (1905) sowie die Allgemeine (1915) Relativitätstheorie Einsteins weitreichende Folgen: Der neue Bereich der Quantenphysik mit Feldern und diskreten Einheiten störten die Kontinuumsbedingungen der klassischen Physik, das Ende ihrer unbeschränkten Gültigkeit war darum eingeleitet. Raum und Zeit sind keine ‚fixen‘ Entitäten (Newton), sondern unterliegen als vereinheitlichte „Raumzeit“ dem gravitativen Feld. Nach Heisenbergs Unschärferelation (1927) sind Ort und Impuls eines Körpers nicht zugleich beliebig genau bestimmbar.
Der konzeptionelle Aufbau dieser Theorie [der Quantenmechanik] unterscheidet sich tiefgreifend von dem der klassischen Physik. Die Aussagen der Quantenmechanik sind Aussagen über Ergebnisse von Messungen. Diese sind in den meisten Fällen selbst bei genauest möglicher Kenntnis des Zustands des beobachteten Systems nur Wahrscheinlichkeitsaussagen. Bei wiederholten Messungen an einem Ensemble von gleichartigen Systemen im gleichen Zustand sagt die Quantenmechanik eine mehr oder minder breite Häufigkeitsverteilung der Messwerte vorher. Dieses Verhalten steht im Gegensatz zu den in der klassischen Physik durchweg üblichen genauen Vorhersagen einzelner Messwerte. Es kann auf der Grundlage des Welle-Teilchen-Dualismus beschrieben werden. Hat aber ein System bei einer Messung einen bestimmten Messwert gezeigt, so muss bei einer unmittelbar anschließenden Wiederholung der Messung derselbe Wert erscheinen. Das heißt, die erste Messung hat den Zustand so verändert, dass er nun zu einer solchen Wahrscheinlichkeitsverteilung führt, dass alle anderen Messwerte die Wahrscheinlichkeit Null haben. (Wikipedia)
Die Grundlagen der klassischen Mechanik / Physik waren damit außer Kraft gesetzt.
5. Kuhn hat die Beobachtung eingebracht, dass eine Epoche naturwissenschaftlicher Forschung durch das in ihr geltende Paradigma gekennzeichnet ist; dieses Paradigma bestimmt die „Normalwissenschaft“.
[Ein Paradigma funktioniert], indem es dem Wissenschaftler von den Entitäten Kenntnis gibt, welche die Natur enthält oder nicht enthält, und von der Art und Weise, in der sich diese Entitäten verhalten. Durch diese Informationen entsteht ein Plan, dessen Einzelheiten durch reife wissenschaftliche Forschung erklärt werden. Und da die Natur viel zu komplex und vielfältig ist, um auf gut Glück erforscht zu werden, ist dieser Plan genauso wichtig für die kontinuierliche Weiterentwicklung der Wissenschaft wie Beobachtung und Experiment.
Die Operationen und Messungen, die ein Wissenschaftler im Labor durchführt, sind nicht „das Gegebene“ der Erfahrung, sondern vielmehr „das mühsam Erhobene“. Sie sind nicht das, was der Wissenschaftler sieht – zumindest nicht, bevor seine Forschung weit fortgeschritten und seine Aufmerksamkeit fokussiert ist. Vielmehr sind sie konkrete Hinweise auf den Inhalt elementarerer Wahrnehmungen, und als solche werden sie für die genaue Untersuchung der normalen Forschung nur deshalb ausgewählt, weil sie die Möglichkeit zur fruchtbaren Ausarbeitung eines akzeptierten Paradigmas versprechen. Viel deutlicher als die unmittelbare Erfahrung, aus der sie zum Teil stammen, sind Operationen und Messungen paradigmatisch bestimmt. Die Wissenschaft befasst sich nicht mit allen möglichen Labormanipulationen. Stattdessen wählt sie diejenigen aus, die für die Gegenüberstellung eines Paradigmas mit der unmittelbaren Erfahrung, die dieses Paradigma teilweise bestimmt hat, relevant sind. Infolgedessen führen Wissenschaftler mit unterschiedlichen Paradigmen unterschiedliche konkrete Labormanipulationen durch.
Thomas S. Kuhn Die Struktur wissenschaftlicher Revolutionen, 1962, deutsch 1973
Erst wenn über einen längeren Zeitraum hinweg an zentralen Stellen Probleme aufgetreten sind oder überraschende Entdeckungen gemacht worden sind, beginnt die Phase der außerordentlichen Wissenschaft. In ihr wird auch wieder über die Grundlagen selbst diskutiert. Eine solche Krise kann zu einem Paradigmenwechsel führen, bei dem das Paradigma der Disziplin verworfen und durch ein anderes ersetzt wird.
Von Kuhn angeführte Beispiele für wissenschaftliche Revolutionen sind unter anderem die Ablösung der Phlogistontheorie durch Lavoisiers Sauerstoffchemie, Einsteins Relativitätstheorie, die die klassische Newtonsche Physik ablöste, und in besonderer Ausführlichkeit die Kopernikanische Wende vom geozentrischen hin zum heliozentrischen Weltbild. Der Wissenszuwachs ist nun im Gegensatz zur Normalwissenschaft nicht kumulativ, da wichtige Teile der alten Theorie aufgegeben werden. Der Inhalt der nachrevolutionären Theorie ist vorher nicht abzusehen.
Mit wissenschaftlichen Revolutionen verändern sich nach Kuhn nicht nur die Theorien, sondern auch das allgemeine Weltbild und die wissenschaftliche Praxis. Dies führte dazu, dass Kuhn in Structure wiederholt davon spricht, dass es so ist, als würde sich nicht die Interpretation des Menschen, sondern die Welt selbst ändern. (Wikipedia)
Realistischerweise gilt aber für den Paradigmenwechsel auch ein Generationenproblem. So stellt Kuhn fest:
Darwin schrieb in einer besonders scharfsichtigen Passage am Ende von The Origin of Species: Obgleich ich von der Richtigkeit der … in diesem Werke mitgeteilten Ansichten durchaus überzeugt bin, erwarte ich keineswegs auch gleich die Zustimmung solcher Naturforscher, deren Geist von Tatsachen erfüllt ist, die sie jahrzehntelang von einem entgegengesetzten Standpunkt aus ansahen …
Aber ich sehe mit großem Vertrauen in die Zukunft. Junge, aufstrebende Naturforscher werden unparteiisch die beiden Seiten der Frage prüfen können.
Planck bemerkte beim Rückblick auf seine wissenschaftliche Laufbahn voll Bedauern: „Eine neue wissenschaftliche Wahrheit pflegt sich nicht in der Weise durchzusetzen, daß ihre Gegner überzeugt werden und sich als belehrt erklären, sondern vielmehr dadurch daß die Gegner allmählich aussterben und daß die heranwachsende Generation von vornherein mit der Wahrheit vertraut gemacht ist.
6. Diese Aussagen und Beobachtungen scheinen genau auf den Wechsel vom Weltbild der „klassischen Physik“ zum heutigen Paradigma der relativistischen, probabilistischen, quantenmechanischen Welt zu passen. Im Unterschied zu den von Kuhn genannten Beispielen (Ptolemäus → Kopernikus u.a.) ist das Verhältnis von Determinismus und Zufall / Probabilismus keine Antithese, sondern die Beschreibung komplementärer Denkmodelle und mathematischer Beschreibungen. So wie die Newtonsche „klassische“ Mechanik als ein Grenzfall der Relativitätstheorie für kleine Geschwindigkeiten relativ zur Lichtgeschwindigkeit Gültigkeit behält, so gelten in der Physik und allen anderen Naturwissenschaften im makroskopischen Bereich der Mechanik, Elektrodynamik, Thermodynamik usw. die klassischen Gesetze und Regeln weiterhin – „näherungsweise’, wie Quantenphysiker sagen. Die berühmte quantenphysikalische Verschränkung (entanglement) zum Beispiel ist wegen der Nicht- Isolierbarkeit makroskopischer Phänomene dort nicht nachweisbar (Kollaps der Wellenfunktion).
6a. Exkurs: Die De-Broglie-Bohm- Theorie stellt zwar den von manchen als erfolgreich beschriebenen Versuch dar, die Phänomene der Quantenmechanik deterministisch zu beschreiben, muss dabei aber an „verborgenen Variablen“ (hidden parameters) festhalten, die in das Messverfahren eingehen. Man könnte hier schon einwenden, dass verborgene Parameter Zufall voraussetzen und damit im Widerspruch zum behaupteten Determinismus stehen.
Verborgen werden die Parameter genannt, da sie in der Standardinterpretation der Quantenmechanik nicht auftauchen und folglich auch kein Messverfahren innerhalb dieser Standardinterpretation abgeleitet werden kann. Falls sie existieren, wären sie also in der Standardinterpretation verborgen. Das heißt nicht, dass verborgene Variablen prinzipiell nicht gemessen werden können. So kann nicht prinzipiell ausgeschlossen werden, dass aus einer deterministischen Theorie mit verborgenen Parametern ein Messverfahren abgeleitet werden kann. Andererseits gibt es deterministische Theorien (wie die De-Broglie-Bohm-Theorie), von denen gezeigt werden kann, dass sie exakt die gleichen empirischen Voraussagen machen wie die nichtrelativistische Standardquantenmechanik, so dass deren verborgene Parameter prinzipiell nicht messbar sind. … Die De-Broglie-Bohm-Theorie ist allerdings auch eine nichtrelativistische Theorie, eine befriedigende Erweiterung für den relativistischen Fall steht noch aus . (Wikipedia)
So stellt sich die De-Broglie-Bohm – Theorie als mathematische Variante der Standard-Interpretation der Quantenmechanik dar, ohne am Problem der Phänomene selber und ihrem komplementären Charakter etwas zu ändern.
7. Dies schöne Bild der Komplementarität im Verhältnis von Mikro- und Makrobereich bekommt aber große Risse, sofern quantenphysikalische Teleportation auch in makroskopischen Dimensionen experimentell nachweisbar und bestätigt ist: Experimental quantum teleportation, in Nature 1997. Weitere Experimente in großem Maßstab sind von Anton Zeilinger, Wien, und Nicolas Gisin, Genf bekannt geworden. Neue Experimente dazu listet Wikipedia aus China und Neuseeland auf. Darüber hinaus muss auch die Kommunikation mit Satelliten, erst recht mit Mond- oder Mars-Sonden, relativistische Effekte (zum Beispiel Zeit-Dilatation) berücksichtigen. Nicht zuletzt finden Quantencomputer, wenn auch noch experimentell, Zugang in die Alltagswelt (Quanten-Kryptografie). Dies alles sind Beispiele dafür, dass probabilistische oder besser: nicht-lokale Systeme und Funktionen mitten in der ansonsten deterministischen (= entsprechend bekannten Naturgesetzen funktionierenden) Welt, stattfinden (siehe Lokalität / Nicht-Lokalität). Was vielleicht logisch nicht zusammen passt, Kausalität und Zufall, ist im Alltag der heutigen Physik nicht mehr wegzudenken. Vielleicht ist die Denkfigur der Komplementarität dafür brauchbar, wenngleich umfassender gedacht. Die Welt ist so, wie sie sich „uns“ zeigt, und die Antworten, die Naturwissenschaftler erhalten, hängen von der Art der Fragen ab, die sie der „Natur“ durch Beobachtung und Experiment stellen. Das war schon immer so. Die für die „Normalwissenschaft“ so entscheidenden Paradigmen aber, die uns Kuhn ans Herz gelegt hat, haben ihre exklusive Funktion weithin verloren: Unterschiedliche Paradigmen koexistieren, – und nicht nur in der Physik!
8. Das gilt heute insbesondere für die Biologie. In seinem Buch „Glücksfall Mensch. Ist Evolution vorhersagbar?“ 2018 (Improbable Destinies. Fate, Chance, and the Future of Evolution, 2017) beschreibt der Evolutionsbiologe Jonathan B. Losos seine eigene langjährige Forschungspraxis auf dem Hintergrund der Auseinandersetzung zwischen Stephen Jay Goud und Conway Morris.
… „Zufall Mensch: Das Wunder des Lebens als Spiel der Natur“ , wohl Stephen Jay Goulds bestes Werk. Ich verschlang das Buch und fand die Argumentation überzeugend. Er schrieb, die Wege der Evolution seien verschlungen und nicht vorhersagbar; würde man den Film des Lebens noch einmal ablaufen lassen, käme man zu einem völlig anderen Ergebnis. Goulds Idee, die Uhr zurückzustellen und den evolutionären Film des Lebens noch einmal ablaufen zu lassen, ist (zumindest in der Natur) unmöglich realisierbar. Allerdings könnte man die Wiederholbarkeit der Evolution auch testen, indem man den gleichen Film an unterschiedlichen Orten ablaufen lässt. (Losos S. 12)
Diese Sichtweise hat weitreichende Auswirkungen auf unser Verständnis der Vielfalt des Lebens. Wenn die Evolution von Kontingenz bestimmt wird, dann kann es keine Vorhersagbarkeit geben, keinen Determinismus nach Conway Morris. Das Endergebnis ist SO stark von Zufällen beeinflusst, dass man unmöglich am Anfang vorhersagen kann, was am Ende geschieht. Wenn man noch einmal von vorn beginnt, könnte man zu einem völlig anderen Ergebnis gelangen. Gould kam zu dem entscheidenden Schluss: „Wenn Sie das Band [des Lebens] millionenmal … ablaufen lassen, bezweifle ich, dass sich nochmals so etwas wie ein Homo sapiens entwickeln würde.“ (33)
In den letzten 25 Jahren hatte es diese Sichtweise schwer, denn in dieser Zeit kristallisierte sich ein intellektueller Kontrapunkt zu Goulds Beharren auf der Unvorhersagbarkeit und Nicht-Wiederholbarkeit von Evolution heraus. Diese neue Sicht betont die Allgegenwärtigkeit von adaptiver konvergenter Evolution. (12/13)
Mal angenommen, Conway Morris läge mit seinem Szenario richtig. Die Säugetiere hätten neue Arten gebildet und ökologische Nischen besetzt, die lange Zeit Dinosaurier eingenommen hatten, sie wären größer und vielfältiger geworden. Vielleicht hätte diese evolutionäre Diversifizierung dank der Eiszeit zu einem ebenso großen und facettenreichen Zeit- alter der Säugetiere geführt wie das vom Asteroiden ausgelöste. Aber wäre es dasselbe Zeitalter der Säugetiere gewesen? Hätte es Elefanten, Nashörner, Tiger und Erdferkel gegeben? Oder hätte diese alternative Welt völlig andere Tierarten hervorgebracht ⁃ uns völlig unbekannte Arten, die die Ressourcen der Welt unter sich aufgeteilt und ihre ökologischen Nischen besetzt hätten, aber ganz anders als die Wesen, die uns heute umgeben? Und: Gabe es heute Menschen, die Babys bekommen, die dann oben auf Pixars Brontosaurier sitzen könnten?
Conway Morris beantwortet diese Frage mit einem überzeugten „Ja“. Er und andere Wissenschaftler in seinem Lager halten Evolution für deterministisch, vorhersagbar, glauben, dass sie jedes Mal denselben Bahnen folgt. Dies liege daran, dass es nur eine begrenzte Anzahl an Möglichkeiten auf der Erde gebe, um zu überleben. Für jedes Problem, vor das die Umwelt ein Lebewesen stellt, gebe es eine einzige, optimale Lösung. Dies führe dazu, dass die natürliche Selektion immer zu den gleichen evolutionären Ergebnissen führe, jedes Mal.
Als Beweis verweisen diese Wissenschaftler auf die konvergente Evolution, das Phänomen, dass Arten unabhängig voneinander ähnliche Merkmale entwickeln. Wenn es nur eine begrenzte Anzahl von Anpassungsmöglichkeiten an bestimmte Umweltbedingungen gibt, dann würde man erwarten, dass Arten, die in ähnlichen Umgebungen leben, die konvergierend gleichen Anpassungen entwickeln, und genau das geschieht auch. (20/21)
9. Losos zeichnet in seinem Buch die langen Wege nach, die evolutionäre Feldforschung und experimentelle Evolutionsbiologie in den letzten Jahrzehnten genommen hat und kommt zu folgendem Schluss:
Aber nun ist die Quintessenz dieser Studien – so faszinierend sie sind – doch nicht so klar. Zeigen die elf Populationen, die im [experimentellen] Gleichschritt marschieren, dass die Evolution normalerweise wiederholbar ist? Oder zeigt Ara-3 [Studie], dass Gould recht hatte, dass die Evolution unvorhersehbar ist? Die Antwort lautet: beides.
Losos zitiert den experimentellen Evolutionsbiologen Rich Lenski:
„Vor diesem Hintergrund des Parallelismus oder der Wiederholbarkeit erkennen wir immer deutlicher, je länger das LTEE [Long Term Evolution Experiment] läuft, dass jede Population wirklich ihrem eigenen Weg folgt“, sagte er, „und beide Kräfte – das Zufällige und das Vorhersagbare sozusagen – bewirken zusammen das, was wir Geschichte nennen.“ (280)
Genau dieser letzte Satz ist es, der die Komplementarität von Determinismus und Zufall in der Naturwissenschaft aufzeigt, hier am Beispiel der Evolutionsbiologie: Beide Kräfte – das Zufällige und das Vorhersagbare – bewirken zusammen das, was wir Geschichte nennen.
Reinhart Gruhn, November 2024
Anhang – aus Jonathan Losos, Glücksfall Mensch
278 Evolution unter dem Mikroskop
Die Situation ist viel komplexer, als Lenski 1988 prophezeit hätte – er kam eindeutig aus dem Lager derer, die davon ausgingen, dass der Zufall die entscheidende Rolle spielte, und erwartete, dass Ergebnisse wie Cit+ die Regel sein würden. Doch das Gegenteil ist der Fall: In der Regel triumphiert die Notwendigkeit. Experimentelle Populationen, die dem gleichen natürlichen Selektionsdruck ausgesetzt sind, passen sich gewöhnlich auf die gleiche Weise an und verbessern ihre Fitness in ähnlichem Maße.
Trotz dieser Ähnlichkeiten enthüllt ein näherer Blick, dass die evolutionären Wege nicht identisch sind. Oft sind die Anpassungen zwar ähnlich, zeigen aber Varianten. Schrumpelige Streuer aus verschiedenen Populationen unterscheiden sich in kleinen Details der Form und Struktur. Auch bei Hefeschneeflocken können Größe und Gestalt variieren, obwohl alle den Zweck haben, die Geschwindigkeit zu erhöhen, mit der die Hefeorganismen zu Boden sinken.
Auf der genetischen Ebene gibt es ebenfalls Unterschiede. Die phänotypischen Ähnlichkeiten in verschiedenen Populationen sind gewöhnlich auf Mutationen in den gleichen Genen zurückzuführen. Aber nicht immer – manchmal führen auch Mutationen in unterschiedlichen Genen zu ähnlichen phänotypischen Ergebnissen. Zum Beispiel zeigten neuere Forschungsergebnisse aus Paul Raineys Labor, dass es 16 verschiedene gene- tische Pfade gibt, die zur Entstehung des Phänotyps des schrumpeligen Streuers führen können.? Und selbst wenn die Mutationen populationsübergreifend in den gleichen Genen auftreten, bewirken sie selten genau die gleichen Veränderungen. Wie wir im elften Kapitel sehen werden, kann diese genetische Unbestimmtheit, die phänotypischer Konvergenz zugrunde liegt, wichtige Auswirkungen auf die weitere Entwicklung von Organismen haben. Trotzdem zeigen solche Studien gewöhnlich vor allem das Ausmaß an paralleler Evolution auf. Die Notwendigkeit siegt über den Zufall. Normalerweise.
Extrem unterschiedliche evolutionäre Reaktionen sind in diesen Experimenten zwar selten, doch die Cit+- Geschichte ist nicht das einzige
279 Durchbruch in einer Flasche
Beispiel. In einer weiteren E.-coli- Studie stellte eine andere Forschungsgruppe fest, dass die Hälfte ihrer E-coli- Populationen sich in zwei Typen aufteilte, von denen der eine Azetat effizienter verwertete als der andere 10 Eine ähnliche Divergenz trat auch in einer der LTEE- Populationen auf. Ein weiteres Beispiel lieferte ein Experiment, in dem einige Viruspopulationen eine ganz neue Art entwickelten, ihre E.-coli- Beute anzugreifen. Diese erstaunlichen Beispiele zeigen, dass wiederholte evolutionär Neustarts unter identischen Bedingungen durchaus zu unterschiedlichen Ergebnissen führen können. Das passiert zwar nicht oft, aber es kommt vor. Das Geniale an Evolutionsexperimenten mit Mikroben ist, wie viel Evolution man in einem – zumindest nach menschlichen Maßstäben – kurzen Zeitraum beobachten kann. Ein Sechzigtausend-Generationen-Experiment mit Fruchtfliegen würde tausend Jahre dauern, und eines mit Mäusen noch zehnmal länger.
Trotzdem sind diese Experimente vielleicht nicht langfristig genug, 60 000 Generationen sind ein geologischer Wimpernschlag. Spezies bestehen über viele Millionen Jahre fort. Möglicher weise sind diese Experimente, obwohl sie viel länger und informativer sind als alle vor ihnen, immer noch nicht lang genug – Rich Lenski räumt diese Möglichkeit ein. Was könnten wir herausfinden, wenn Lenskis akademische Nachfolger das LTEE noch jahrzehntelang fortführen? Je länger das Experiment läuft, desto größer ist natürlich die Chance, dass die seltene und unwahrscheinliche, aber nützliche Kombination von Mutationen auftritt, die zu mehr Cit+- Fällen führt. Vielleicht werden in dreihundert Jahren, in der Generation 600 000, alle zwölf Populationen des LTEE Cit+ geworden sein. Was in einem kürzeren Zeitraum unvorhersehbar scheint, könnte in einem längeren Zeitraum unvermeidlich sein.
Im Jahr 2002, bevor die Population Ara-3 ihren eigenen Weg ging und Citrat Zu verwerten begann, sah es SO aus, als würde das LTEE die Vorhersehbarkeit der Evolution bestätigen und Goulds gepriesene Kontingenztheorie widerlegen. Aber nun ist die Quintessenz dieser Studien – so faszinierend sie sind – doch nicht so klar. Zeigen die elf Populationen, die im Cit– Gleichschritt marschieren, dass die Evolution normalerweise wieder- [280]
holbar ist? Oder zeigt Ara-3, dass Gould recht hatte, dass die Evolution unvorhersehbar ist? Die Antwort lautet: beides. In einem Interview mit Lenski, das veröffentlicht wurde, als ich gerade dieses Buch abschloss, kam er auch darauf zu sprechen, was er früher, vor rund drei Jahrzehnten, dachte. Zunächst wies er auf die vielen parallelen Veränderungen hin, die im LTEE Zwölf aufgetreten sind, dann ging er auf die Unterschiede ein, nicht nur auf Cit+, sondern auch auf mehrere andere Veränderungen, die nur in einer oder einigen der Populationen stattgefunden haben. „Vor diesem Hintergrund des Parallelismus oder der Wiederholbarkeit erkennen wir immer deutlicher, je länger das LTEE läuft, dass jede Population wirklich ihrem eigenen Weg folgt“, sagte er, „und beide Kräfte – das Zufällige und das Vorhersagbare sozusagen – bewirken zusammen das, was wir Geschichte nennen.“
(Text als PDF downloaden)
Als Ergänzung biete ich einen Überblick über zwei philosophische Positionen zum Thema Determinismus und Freiheit, von Peter Bieri und Peter Rohs. Dazu die neuropsychologischen und anthropologischen Forschungsergebnisse von António Damásio und Michael Tomasello – PDF zum Download .
.art