Indeterminismus
Indeterminismus ist die Auffassung, dass nicht alle Ereignisse durch Vorbedingungen eindeutig festgelegt sind, es also bestimmte Ereignisse gibt, die nicht eindeutig durch Ursachen determiniert, sondern indeterminiert (unbestimmt) sind. Der Indeterminismus wird klassisch als Gegensatz zum Determinismus angesehen.
Objektiver Zufall
Grundlage des Indeterminismus bildet die Existenz des objektiven Zufalls. Objektiver Zufall bezeichnet Zufallsereignisse, die (im Gegensatz zum subjektiven Zufall) nicht reduzierbar sind, also nicht von (verborgenen) Ursachen abhängen, sondern fundamental unbestimmt und rational nicht erklärbar sind.[1][2] Die mathematischen Grundlagen dieser Irreduzibilität wurden von John von Neumann gelegt.[3]
Der österreichische Wissenschaftler Philipp Frank schlug schon im Jahre 1932 folgende Erklärung vor:[4]
„Ein Zufall schlechthin, also gewissermaßen ein absoluter Zufall wäre dann ein Ereignis, das in bezug auf alle Kausalgesetze ein Zufall ist, das also nirgends als Glied einer Kette auftritt.“
Das Problem besteht allerdings darin, zu entscheiden, ob für ein Ereignis die Ursache lediglich unbekannt ist, oder ob es objektiv ohne Ursache eintrat.
Viele Ereignisse der Quantenmechanik gelten insbesondere nach der Kopenhagener Deutung als fundamental unbestimmt und unreduzierbar, also objektiv zufällig und nicht auf verborgene Variablen zurückführbar. Andere Deutungen der Quantenmechanik (De-Broglie-Bohm-Theorie, Ensemble-Interpretation, Viele-Welten-Interpretation) lassen dagegen (nichtlokale) verborgene Variablen zu und beinhalten keinen objektiven Zufall. Ob Quantenereignisse irreduzibel sind oder nicht, ist eine der grundlegenden Fragen der Quantenphysik, über die auch schon Bohr und Einstein stritten (Bohr-Einstein-Debatte) – und ist nach wie vor ungeklärt.[5][6]
Nach der modernen Wahrscheinlichkeitstheorie setzt der Begriff der objektiven Zufälligkeit aber nicht zwingend die Annahme eines „metaphysischen Indeterminismus“ voraus, sondern „ist durch das erklärbar, was in der Physik 'deterministische Instabilität' genannt wird“. Singularitäten bzw. instabile Punkte in den Berechnungsmodellen auch innerhalb der deterministischen, klassischen Mechanik bewirken, dass beliebig kleine Unterschiede im Anfangszustand nach hinreichend langer Zeit zu maximal großen Abweichungen der Ergebnisse führen. Das Ergebnis wird von „unmessbar kleinen Fluktuationen bestimmt und ist daher unmöglich vorhersagbar“. Zusammen mit prinzipiellen Grenzen exakter Messbarkeit impliziert dies „die Existenz objektiv indeterminierter Prozesse auch im Größenbereich der Makrophysik“.[7]
Zufallszahlenfolgen werden unterschieden in berechenbare Zufallszahlen (Pseudozufallszahlen) und „echte“, also objektiv zufällige Zufallsfolgen, für die kein Algorithmus existieren kann, der die Zahlenfolge exakt wiedergeben könnte. Aus theoretischen Überlegungen kann – unter begründeten Annahmen – gezeigt werden, dass Quantenereignisse echte Zufallsfolgen produzieren.[8][9] Einige physikalische Prozesse wie das Atmosphärenrauschen, CCD-Sensorrauschen, metastabile Zeitgeber oder Spannungsschwankungen an einer Z-Diode gelten als hinreichend echt zufällig, wie auch das Würfeln oder die Ziehung von Lottozahlen, in der Hinsicht, dass sie von echtem Zufall nicht unterscheidbar sind.
Mathematisch gestaltet sich die Unterscheidung von Pseudozufallszahlen gegenüber echten Zufallszahlen, also der Beweis echter Zufälligkeit, tatsächlich als schwierig. Niemand kann wirklich ausschließen, dass nicht doch ein Algorithmus existiert, der eine beobachtete Zahlenfolge reproduzieren könnte. Dennoch gibt es stochastische Testverfahren (Shannon-Entropie, Book Stack, Borel Normalität, Random Walk), die die Güte von Zufallszahlenfolgen messen können. Längere Folgen von Pseudozufallszahlen, wie sie von typischen Programmen wie Mathematica generiert werden, sind damit von Quantenzufallszahlenfolgen mit gewisser Treffsicherheit unterscheidbar[10] – was auf die beschränkte Güte der Pseudozufallszahlenfolge hinweist. Die besten synthetischen Zufallszahlengeneratoren sind echten Zufallszahlengeneratoren allerdings ebenbürtig, sie benötigen dafür lediglich zwei unabhängige Quellen „schwacher“ Entropie.[11]
Indeterminismus und Freier Wille
Indeterminismus spielte in der Debatte um den freien Willen des Menschen eine wesentliche Rolle. Dies entsprang der klassischen Vorstellung, nach der Determinismus und Indeterminismus Gegensätze bildeten. Nach Auffassung des Inkompatibilismus ist ein Determinismus, der keine indeterminierten Ereignisse zulässt, nicht mit dem freien Willen des Menschen vereinbar (gemäß Kompatibilismus besteht dieser Widerspruch nicht bzw. sind Determinismus und Indeterminismus nicht unbedingt Gegensätze).
Nach Robert Kane, einer der Hauptvertreter des Libertarismus, bedeute Indeterminismus nicht schon Zufall, sondern sei konsistent mit einer nichtdeterministischen Form von Verursachung, bei der das Ereignis verursacht sei, aber nicht unvermeidlich.[12] Patrick Suppes vertrat eine „probabilistische Theorie der Kausalität“,[13] John Dupré und Nancy Cartwright eine Gesetzesskepsis und prinzipielle Unvollständigkeit von Modellen[14][15] – und sahen Indeterminismus als zentrales Prinzip der Natur.
Mit diesen libertaristischen Standpunkten und dem kompatibilistischen Standpunkt, der unter Einbeziehung prinzipieller Grenzen der Bestimmtheit einen „schwachen“ Determinismus annimmt, verliert sich der zwischen Determinismus und Indeterminismus postulierte Gegensatz: Eine genaue und exakte Prognostizierbarkeit, die man meistens mit dem Determinismus verbindet, ist beim schwachen Determinismus prinzipiell nicht gegeben. Daher ist im (schwachen) Determinismus die Zukunft offen.[16] Elmar Sauter fasst dazu zusammen:
„Ein Hauptargument des Libertarianismus gegen den Determinismus war die fehlende offene Zukunft, und damit gäbe es mit dem Determinismus keine Wahlmöglichkeiten. Es bedurfte einer wissenschaftlichen Erkenntnis, dass man für Erklärungszwecke auch einen (schwachen) Determinismus mit offener Zukunft haben kann. Daher ist dieses Hauptargument hinfällig.“[16]
Indeterminismus versus Nichtdeterminismus
In der Theoretischen Informatik unterscheidet man zwischen deterministischen und nichtdeterministischen Algorithmen. Der Nichtdeterminismus basiert gegenüber dem Indeterminismus nicht auf dem Konzept des Zufalls, sondern einer Art Gleichzeitigkeit (Parallelität): dem Erreichen eines Ziels auf eine nicht-zielgerichtete Weise.
Siehe auch
Weblinks
Einzelnachweise
- Andrei Khrennikov: Probability and Randomness: Quantum versus Classical. World Scientific, 2016, S. 199.
- Anton Zeilinger: Einsteins Schleier: die neue Welt der Quantenphysik. C.H.Beck, 2003, S. 44, 46, 216.
- John von Neumann: Mathematische Grundlagen der Quantenmechanik (1932). Springer-Verlag, 2013 (books.google.de).
- P. Frank: Das Kausalgesetz und seine Grenzen. Springer, 1932 (nightacademy.net).
- Gregor Schiemann: Warum Gott nicht würfelt, Einstein und die Quantenmechanik im Licht neuerer Forschungen. In: R. Breuniger (Hrsg.): Bausteine zur Philosophie. Band 27: Einstein, 2010 (philosophie.uni-wuppertal.de [PDF]).
- John Earman, A Primer on Determinism, Reidel, Springer Science & Business Media, 1986, S. 232 (“Rather these probabilities have to be seen as propensities for the system to undergo a transition from potentialities to actualities, and again we have no coherent account of this transition. In sum, while irreducible stochasticity may be an idea whose time may come, it is far from clear that QM marks its debut.”)
- Gerhard Schurz: Wahrscheinlichkeit. De Gruyter, 2015, S. 58 (books.google.de).
- Cristian S. Calude, Karl Svozil: Quantum randomness and value indefiniteness. Advanced Science Letters, 2008, S. 165–168 (tph.tuwien.ac.at [PDF]).
- Alastair Abbott: Value Indefiniteness, Randomness and Unpredictability in Quantum Foundations. 2015 (tel.archives-ouvertes.fr – Doktorarbeit an der University of Auckland).
- Cristian S. Calude, Michael J. Dinneen, Monica Dumitrescu, Karl Svozil: Experimental Evidence of Quantum Randomness Incomputability. Phys. Rev, 2010, arxiv:1004.1521.
- Eshan Chattopadhyay, David Zuckerman: Explicit Two-Source Extractors and Resilient Functions. Electronic Colloquium on Computational Complexity, 2016.
- Elmar Sauter: Willensfreiheit und deterministisches Chaos. KIT Scientific Publishing, 2013, S. 116 (books.google.de). Oder (PDF).
- Patrick Suppes: A Probabilistic Theory of Causality. North-Holland Publishing Company, 1970.
- John Dupré: The Disorder of Things. Metaphysical Foundations of the Disunity of Science. Harvard University Press, 1993.
- Nancy Cartwright: How the Laws of Physics Lie. Clarendon, 1983.
- Elmar Sauter: Willensfreiheit und deterministisches Chaos. KIT Scientific Publishing, 2013, S. 144.