Kritische Masse, Länge, Temperatur, …
Viele Systeme und Prozesse, ob in der Natur oder in der Gesellschaft, scheinen oft unverändert, bis sie einen kritischen Punkt erreichen, an dem sich ihr Verhalten schlagartig ändert. Denken wir zum Beispiel an Krankheitsausbrüche, die Verbreitung von Informationen in einem Netzwerk oder Batterieausfälle bei Elektroautos. Gehen wir einige Beispiele durch.
Krankheitsausbrüche
Denk an einen Krankheitsausbruch wie COVID-19 im Jahr 2020. Das Ziel aller Länder weltweit war nicht nur, die Infektionen leicht zu reduzieren, sondern die durchschnittliche Anzahl neuer Infektionen pro Fall – bekannt als Reproduktionszahl oder $R_0$ – unter den kritischen Schwellenwert von 1 zu bringen. Wenn $R_0$ kleiner als 1 ist, überträgt jede infizierte Person die Krankheit im Durchschnitt auf weniger als eine andere Person, und der Ausbruch stirbt aus. Übersteigt $R_0$ jedoch 1 auch nur geringfügig, kann die Anzahl der Infektionen schnell wachsen. Das zeigt, wie kleine Änderungen in unserem Verhalten (wie die Reduzierung von Kontakten, das Tragen von Masken oder die Isolation bei Bedarf) einen großen Einfluss auf den Verlauf eines Ausbruchs haben können.
Soziale Netzwerke
Nehmen wir soziale Netzwerke als weiteres Beispiel. Auf Plattformen wie Facebook empfiehlt der Algorithmus oft „Freunde von Freunden“. Das bedeutet, dass die Wahrscheinlichkeit, dass eine Information jemanden außerhalb des unmittelbaren Kreises erreicht, plötzlich von fast null auf fast eins springen kann, sobald ein kritisches Maß an Konnektivität im Netzwerk erreicht ist. Dieses Schwellenverhalten ist entscheidend, um zu verstehen, wie sich Informationen, Trends oder sogar Fehlinformationen schnell über ein Netzwerk verbreiten können.
Batterieexplosionen
Da Elektrofahrzeuge immer häufiger werden, wird die Sicherheit ihrer Batterien immer wichtiger. In einigen Fällen bleibt eine Batterie stabil, während in anderen Fällen der Schaden einen unkontrollierten Prozess auslösen kann, bei dem eine ausfallende Zelle auch ihre Nachbarzellen zum Ausfallen bringt. Dieser Prozess kann schließlich zu einer gefährlichen Explosion führen. Hier wird ein kritischer Punkt erreicht, wenn sich der Schaden schneller ausbreitet, als die Batterie die überschüssige Energie ableiten kann, was zu einem plötzlichen und dramatischen Ausfall führt.
Diese Beispiele zeigen, wie Systeme je nach einem oder mehreren Parametern qualitativ unterschiedliches Verhalten zeigen können. Dieses Verhalten wird als Criticality oder Kritisches Verhalten bezeichnet. In den folgenden Abschnitten werden wir solche Systeme und ihre Abhängigkeiten genauer definieren und klassifizieren. Obwohl die drei obigen Beispiele auf den ersten Blick ähnlich erscheinen mögen, können sie in zwei große Kategorien kritischen Verhaltens eingeteilt werden. Wir werden diese beiden Klassen beschreiben, die entscheidenden Unterschiede zwischen ihnen untersuchen und weitere Beispiele erkunden, um unser Verständnis von kritischem Verhalten und den feinen Unterschieden zwischen seinen verschiedenen Formen zu vertiefen. Nach einigen notwendigen Definitionen und Begriffen habe ich in diesem Beitrag einige interaktive Simulationen eingefügt, um ein intuitives Gefühl für die beschriebenen Phänomene zu bekommen.
Terminologie
Um Phänomene wie die in den obigen Beispielen angemessen zu beschreiben und zu analysieren, benötigen wir einige Begriffe, um die ablaufenden Prozesse zu verstehen. Jedes System kann beschrieben werden mit:
- Einem Ordnungsparameter: einer Größe, die den Zustand oder zumindest eine bestimmte Größe eines von uns untersuchten Systems charakterisiert.
- Einem Kontrollparameter: einem Parameter, der variiert wird, um Änderungen im Verhalten des Systems zu beobachten. Wenn wir ein System modellieren, müssen wir vorsichtig sein, was wir tatsächlich beeinflussen können.
Mathematisch kann die Beziehung wie folgt geschrieben werden:
$$X(t) = f(t; p),$$
wobei $X(t)$ der Ordnungsparameter als Funktion der Zeit ist, $p$ der Kontrollparameter und $f(t;p)$ die Zeitabhängigkeit von $X$ und die Beziehung zwischen Ordnungsparameter und Kontrollparameter beschreibt.
Obwohl der Ordnungsparameter eine Funktion der Zeit und durch den Kontrollparameter parametrisiert ist, ist es konzeptionell einfacher, sich den Ordnungsparameter als Funktion des Kontrollparameters allein vorzustellen, und wir beschreiben oft, was mit dem Ordnungsparameter im Laufe der Zeit geschieht. Daher können wir die explizite Zeitabhängigkeit von $X$ an einigen Stellen weglassen.
In Systemen, die kritisches Verhalten zeigen, existiert ein kritischer Wert des Kontrollparameters, $p_c$, bei dem das System einen qualitativen Wandel durchläuft.
Zwei Klassen von Systemen mit kritischem Verhalten
Wir können zwischen zwei Arten von kritischem Verhalten unterscheiden, basierend auf der Stetigkeit des Ordnungsparameters $X$ am kritischen Punkt $p_c$ im Grenzwert $t \to \infty$. Stell dir vor, wir setzen zuerst $p = p_c$ und beobachten dann das System, wenn $t \to \infty$.
Kipppunktverhalten (diskontinuierlich)
In einem Kipppunkt-Szenario ändert sich der Ordnungsparameter am kritischen Punkt diskontinuierlich, was bedeutet:
$$\lim_{p \to p_c^+} X(p) \neq \lim_{p \to p_c^-} X(p).$$
Ein kanonisches Beispiel für Kipppunktverhalten ist ein System mit exponentiellem Wachstum. Hier ist der Ordnungsparameter die Populationsgröße $N$, und der Kontrollparameter ist der exponentielle Wachstumsfaktor $k$ in:
$$N(t) = N_0 \times k^t.$$
Der kritische Wert ist $k_c = 1$. Von unten kommend,
$$\lim_{k \to 1^-} N(t) \to 0, \text{ as } t \to \infty,$$
während von oben kommend,
$$\lim_{k \to 1^+} N(t) \to \infty, \text{ as } t \to \infty.$$
Dieser abrupte Wechsel, wenn $k$ 1 überschreitet, ist charakteristisch für Kipppunktverhalten. In der Sprache der dynamischen Systeme wird dies ein instabiler oder halb-stabiler Fixpunkt des Systems genannt.
Kontinuierlicher Kritischer Übergang
In einem kontinuierlichen kritischen Übergang ändert sich der Ordnungsparameter am Punkt $p_c$ stetig. Mathematisch:
$$ \lim_{p \to p_c^+} X(p) = \lim_{p \to p_c^-} X(p). $$
Ein klassisches Beispiel ist die Perkolation in großen Netzwerken. Betrachten wir ein (theoretisch unendliches) soziales Netzwerk, in dem jede potenzielle Verbindung (Freundschaft) zwischen zwei Individuen mit einer bestimmten Wahrscheinlichkeit $a$ gebildet wird. Diese Wahrscheinlichkeit $a$ ist unser Kontrollparameter. Wir suchen dann nach dem Auftreten eines großen (übergreifenden) Clusters, d. h. eines Clusters, der im Grenzwert unendlicher Netzwerkgröße einen endlichen Anteil des gesamten Netzwerks umfasst.
Wir definieren den Ordnungsparameter $P( \text{spanning cluster} ;a)$ als den Anteil aller Individuen (Knoten), die zu diesem großen übergreifenden Cluster gehören – falls ein solcher Cluster existiert. In einem unendlichen System:
- Für $a < a_c$ gibt es keinen unendlichen Cluster, also $P(\text{spanning cluster};a) = 0$.
- Für $a > a_c$ entsteht ein übergreifender (unendlicher) Cluster, also $P(\text{spanning cluster};a) > 0$.
Wir können dies kurz ausdrücken:
$$ P(\text{spanning cluster};a) = \begin{cases} 0 & a < a_c, \ \text{ > 0 und wächst stetig von 0, wenn } a \text{ zunimmt} & a > a_c. \end{cases} $$
Am kritischen Wert $a_c$ „schaltet“ sich der Cluster ein, aber er tut dies kontinuierlich, ohne einen plötzlichen Sprung von Null zu einem endlichen Wert. Dieser glatte Beginn der großflächigen Konnektivität ist ein definierendes Merkmal kontinuierlicher kritischer Übergänge:
$$ \lim_{a \to a_c^+} P(\text{spanning cluster};a) = \lim_{a \to a_c^-} P(\text{spanning cluster};a), \text{ as } t \to \infty. $$
Solche Verhaltensweisen werden in der Sprache der dynamischen Systeme als kontinuierliche Verschiebungen von stabilen Fixpunkten beschrieben.
Kritisches Verhalten und Power Laws
Wenn man tiefer in die Mathematik und Physik kritischer Phänomene eintaucht, stößt man oft auf den Begriff Power Law. Power Laws im Allgemeinen können einfach als eine Größe definiert werden, die von einer anderen zur Potenz von einem Wert abhängt, wie z.B.: $y \sim x^2$. Das ist an sich nichts Erstaunliches. Der wichtigste Teil eines jeden Power Laws ist immer, was diese Größen, $x$ und $y$ in diesem Beispiel, darstellen. In kritischen Phänomenen treten Power Laws in zwei verschiedenen Varianten auf. Die erste kann als “konkurrierende Power Laws” bezeichnet werden und kann eine potenzielle Ursache für kritisches Verhalten sein, während die zweite, komplexere, “Power Law-Verteilungen & Skaleninvarianz” ist, die Beschreibungen von Systemen am oder nahe dem kritischen Wert sind.
Konkurrierende Power Laws
Im Falle konkurrierender Power Laws ist es oft so, dass geometrische Eigenschaften eines Modells bewirken, dass die interessierende Größe beispielsweise sowohl von der Oberfläche als auch vom Volumen abhängt. Meistens beinhaltet der Ordnungsparameter ein Verhältnis dieser Abhängigkeiten. Wenn man nun die charakteristische Skala des Modells oder Objekts variiert, wird irgendwann die Volumenabhängigkeit ($\sim x^3$) die Oberflächenabhängigkeit ($\sim x^2$) überholen. Diese Abhängigkeiten sind nicht immer so einfach und beinhalten oft zusätzliche Konstanten. Wenn man jedoch den Kontrollparameter – hier die Skala des Modells – weit genug verschiebt, erreicht man einen Punkt, an dem eine Abhängigkeit die andere überholt. Dies kann wiederum zu kritischem Verhalten führen.
Unten findest du eine interaktive Simulation zweier konkurrierender Power Laws:
$$ y_1 = a_1 \times x^{b_1} \quad\text{und}\quad y_2 = a_2 \times x^{b_2}. $$
Passe die Schieberegler auf der rechten Seite an, um die Parameter zu ändern. Der Graph auf der linken Seite zeigt die Kurven, die über feste $x$– und $y$–Achsenbereiche geplottet sind. Zusätzlich stellt eine gestrichelte violette Linie das Verhältnis $y_1 / y_2$ dar. Du kannst zwischen einer normalen (linearen) Skala und einer Log-Log-Skala wechseln.
Power Law-Verteilungen & Skaleninvarianz
Die zweite Variante von Power Laws in kritischen Phänomenen tritt nur am oder nahe dem kritischen Wert des Kontrollparameters, $p_c$, auf. In einigen Fällen folgt ein Ordnungsparameter einer Wahrscheinlichkeitsverteilung mit einem Power Law-Schwanz – das heißt, die Wahrscheinlichkeit, einen Ausreißer zu erhalten, der größer als ein gegebener Wert ist, nimmt als Power Law ab. Zur Verdeutlichung ist die kumulative Wahrscheinlichkeitsverteilung einer Zufallsvariablen $X$, die unser Ordnungsparameter ist, definiert als
$$G(x) := P(X \leq x) = \int_{-\infty}^x f(y) dy.$$
Die hier interessierende Funktion ist die komplementäre kumulative Verteilung:
$$P(X > x) = 1 - G(x) \sim x^{-\alpha}.$$
Hier ist eine kleine interaktive Visualisierung einer Power Law-Verteilung mit einer Wahrscheinlichkeitsdichtefunktion von $f(x) = x^{-\alpha}$ und der komplementären kumulativen Verteilungsfunktion $1 - G(x) \approx 1 - x^{-\alpha + 1}$:
Tail Probability = 0%
Zusätzlich kann ein Ordnungsparameter selbst in der Nähe von $p_c$ einem Power Law folgen:
$$X \sim |p - p_c|^{-\alpha}.$$
Dies ist ein Beispiel für Skaleninvarianz am oder nahe dem kritischen Wert. Skaleninvarianz bedeutet, dass das Verhältnis zwischen $X(p)$ und $X(2 \cdot p)$ gleich bleibt, nämlich $2^{\alpha}$, auf jeder Skala.
Beispiele aus der realen Welt
Nach einführenden Beispielen und den grundlegenden Notationsprinzipien, die kritisches Verhalten beschreiben, werden wir weitere Beispiele detaillierter untersuchen.
Thermal Runaway & Nukleare Kettenreaktion
Die ersten Beispiele, die wir uns ansehen, sind in Ergebnis und Entstehung ähnlich. Eines davon haben wir bereits in den einführenden Beispielen kennengelernt, nämlich das Phänomen des Thermal Runaway, wie z.B. in beschädigten Batterien. Das zweite, das auch eine Explosion verursachen kann, aber von viel größerem Ausmaß, ist die Nuklearen Kettenreaktion. Ich habe in meiner Buchreview über The Los Alamos Primer ausführlicher über Nuklearen Kettenreaktionen geschrieben, und jeder, der sich für die theoretischen und historischen Ereignisse der Entdeckung der Nuklearen Kettenreaktion interessiert, sollte sie sich ansehen oder das Buch selbst lesen (Link zum Buch ist unten angegeben).
Sowohl beim Thermal Runaway (z.B. in Batterien) als auch bei Nuklearen Kettenreaktionen können wir uns eine exponentielle Zustandsfunktion vorstellen, die das Wachstum von Schäden (beschädigte Batteriezellen) oder Spaltungsereignissen (gespaltene Atome) beschreibt. Ein einfacher Kontrollparameter ist die Gesamtgeometrie – z.B. die charakteristische Größe $s$ der Batterie oder der Bombe. Der Hauptgrund, warum der Exponent in der Zustandsfunktion kritisch wird, kann durch konkurrierende Power Laws verstanden werden:
$$ N(t; s) = N_0 \times \exp\bigl(f(s) \cdot t \bigr), \quad \text{where} \quad f(s) \sim \frac{a_0 \cdot s^3}{a_1 \cdot s^2}. $$
Hier skalieren die Energiequellen mit dem Volumen ($\sim s^3$), während die Energiesenken (z.B. Wärmeableitung oder Neutronenleckage) mit der Oberfläche ($\sim s^2$) skalieren. Wenn der volumenbasierte Quellterm den oberflächenbasierten Senkenterm übersteigt, wird $f(s)$ positiv und groß genug, um ein unkontrolliertes Wachstum der Zustandsfunktion anzutreiben – was entweder zu einem thermischen Durchgehen in einer Batterie oder zu einer selbsterhaltenden Kettenreaktion in einer Kernwaffe führt. Wenn stattdessen der Senkenterm dominiert, klingt die Energiefreisetzung ab.
Interaktive Simulation eines kritischen Exponenten
Unten siehst du ein vereinfachtes Modell eines Würfels (der eine Batterie darstellt) und einer Kugel (die eine Atombombe darstellt), die basierend auf dem Kontrollparameter $s$ kritisch werden können. Das Modell folgt einem exponentiellen Zustandsmodell, wie oben beschrieben. Beachte den Unterschied basierend auf der Geometrie – der Würfel wird kritisch, wenn die Länge der Seiten $\sqrt3$ mal so lang ist wie der Radius der Kugel. In diesem vereinfachten Modell wird die Kugel bei einem Wert über 10 für den Kontrollparameter kritisch, und der Würfel sollte bei etwa $\approx 17.3 = \sqrt3 \cdot 10$ kritisch werden.
Griffith-Risslänge
Stell dir ein Segel unter Spannung oder einen mit Luft gefüllten Ballon vor. In beiden Fällen können kleine Unvollkommenheiten oder Mikrorisse im Material auftreten. Unter Belastung können diese winzigen Risse plötzlich anfangen zu wachsen, was möglicherweise zum Versagen des Materials führt. Dieses Verhalten ist in vielen beanspruchten Materialien üblich und bietet eine intuitive Möglichkeit, über kritisches Verhalten nachzudenken. Die Funktionsweise hinter diesem Prozess wurde zuerst von A.A. Griffith untersucht und trägt daher den Namen Griffith-Risslänge. Die grundlegende Argumentation folgt dem Buch Structures von J.E. Gordon. (Für alle, die sich für weitere Einblicke in die Baustatik interessieren, empfehle ich dieses Buch. Der Link zum Buch ist unten angegeben).
Die Grundidee ist, dass das Material seine Gesamtenergie senken kann, indem es Spannungen abbaut, wenn sich ein Riss der Länge $L$ bildet. Die freigesetzte Energie ist im Allgemeinen proportional zu $L^2$, während die Kosten für die Schaffung neuer Oberflächen (der Riss selbst) linear mit $L$ zunehmen. Wir können diese Energiebilanz wie folgt schreiben:
$$\Delta E(L) = \alpha L^2 - \beta L.$$
Hier stellt $\alpha$ einen Faktor dar, der mit der Spannung oder Belastung im Material und anderen Materialeigenschaften zusammenhängt, während $\beta$ von der Widerstandsfähigkeit des Materials gegen die Bildung neuer Oberflächen (seiner Zähigkeit) abhängt. Diese Energiebilanz sagt uns, dass, wenn der Riss klein ist, die Energiekosten für die Bildung des Risses (proportional zu $L$) den Nutzen (proportional zu $L^2$) überwiegen. Wenn der Riss jedoch eine bestimmte Länge überschreitet, wird der Energiegewinn durch den Spannungsabbau dominant.
Wir definieren die kritische Risslänge $L_c$, indem wir $\Delta E(L) = 0$ setzen, was ergibt:
$$L_c = \frac{\beta}{\alpha}.$$
Für Risse mit $L < L_c$ ist die Nettoenergie negativ und der Riss bleibt stabil. Wenn $L$ jedoch $L_c$ überschreitet, wird die Nettoenergie positiv und der Riss neigt zum Wachsen.
Um die Wachstumsdynamik zu erfassen, können wir die Änderung der Risslänge mit der Zeit durch die Differentialgleichung modellieren:
$$\frac{dL}{dt} = \lambda \bigl(\alpha L^2 - \beta L\bigr) = \lambda L (\alpha L - \beta),$$
wobei $\lambda$ eine Konstante ist, die die Zeitskala des Prozesses festlegt. Diese Gleichung zeigt, dass, wenn $L < L_c$, dann $(\alpha L - \beta)$ negativ ist und die Risslänge ungefähr konstant bleibt oder heilt. Wenn $L > L_c$, wird $(\alpha L - \beta)$ jedoch positiv und der Riss wächst exponentiell mit der Zeit.
Dieses Beispiel ist besonders interessant, da die Risslänge $L$ eine doppelte Rolle spielt. Sie ist sowohl ein Ordnungsparameter (der den Zustand des Systems beschreibt) als auch ein Kontrollparameter (der bestimmt, ob das System stabil oder instabil ist). Darüber hinaus sind die Parameter $\alpha$ und $\beta$ nicht fest; sie hängen von den spezifischen Materialeigenschaften sowie von der auf das Material ausgeübten Spannung oder Belastung ab. Diese Kopplung von Faktoren macht die Griffith-Risslänge zu einem ungewöhnlichen und aufschlussreichen Beispiel für kritisches Verhalten in physikalischen Systemen.
Interaktive Simulation der Risslänge
Diese interaktive Simulation visualisiert ein Material, das unter Zugspannung zwischen zwei Klemmen gehalten wird. Auf der linken Seite stellt ein anfänglicher Riss (dessen Länge du mit einem Schieberegler anpassen kannst) einen kleinen Fehler im Material dar. Wenn der Riss wächst, wird Zugenergie freigesetzt, die grün hervorgehoben wird. In dieser Simulation nimmt die freigesetzte Energie ungefähr als $\sim L^2$ zu, während der Riss selbst linear wächst, $\sim L$. Die rote Überlagerung zeigt das Ausmaß der auf das Material ausgeübten Zugspannung. Durch Anpassen der Spannung und der Materialzähigkeit (d. h. der Energie, die erforderlich ist, um den Riss zu verlängern) wird eine kritische Risslänge definiert und durch eine gestrichelte Linie markiert. Wenn der Riss diese kritische Länge überschreitet, wird das Material instabil und versagt schnell.
Perkolation
Perkolation bezieht sich intuitiv auf etwas, das ein Medium „durchsickert“ – wie Wasser durch poröses Gestein oder Nachrichten durch ein soziales Netzwerk. Um solche Prozesse zu untersuchen, verwenden wir oft Zufallsgraphenmodelle. Du kannst zum Beispiel ein Gitter (z. B. ein 2D-Gitter) verwenden, in dem sich nur benachbarte Stellen gegenseitig beeinflussen können. Oder du kannst dir einen allgemeinen, vollständig verbundenen Graphen vorstellen, in dem zwei beliebige Knoten direkt miteinander verbunden sein können.
In jedem Szenario werden Kanten oder Knoten zufällig mit der Wahrscheinlichkeit $p$ ein- oder ausgeschlossen. Für die Stellenperkolation auf einem 2D-Gitter stellen wir uns vor, dass wir $n$ Stellen haben, die in einem Gitter angeordnet sind, und jede Stelle bleibt mit der Wahrscheinlichkeit $p$ „besetzt“. Jede besetzte Stelle kann sich nur mit ihren ähnlich besetzten Nachbarn verbinden, während unbesetzte Stellen effektiv entfernt werden. Bei der Kantenperkolation haben wir wieder ein 2D-Gitter mit $n$ Stellen, aber jetzt bleiben alle Stellen an Ort und Stelle, während jede Kante zwischen benachbarten Stellen mit der Wahrscheinlichkeit $p$ eingeschlossen und andernfalls ausgeschlossen wird. Schließlich gibt es im klassischen Erdős-Rényi-Graphen $G(n,p)$ $n$ Knoten, und jede mögliche Kante zwischen zwei verschiedenen Knoten erscheint mit der Wahrscheinlichkeit $p$. Jedes dieser Zufallsgraphenmodelle hat seine eigene interne Struktur und einen bestimmten Schwellenwert $p_c$, bei dem Konnektivität in großem Maßstab entsteht.
Wir können uns dann fragen, was die Kontrollparameter und Ordnungsparameter in diesen Modellen sind. In allen Fällen ist der Hauptkontrollparameter, der die Konnektivität bestimmt, $p$, die Wahrscheinlichkeit, dass ein Knoten oder eine Kante vorhanden ist. Häufige Wahlmöglichkeiten für einen Ordnungsparameter sind der Anteil der Knoten in der größten („riesigen“) verbundenen Komponente, die Wahrscheinlichkeit, einen Pfad offener Stellen oder Kanten zwischen zwei gegenüberliegenden Seiten eines Gitters zu haben, oder sogar die gesamte Verteilung der Clustergrößen, die uns sagt, wie viele Cluster einer bestimmten Größe $s$ sich unter verschiedenen Werten von $p$ bilden.
Jedes Modell zeigt einen Phasenübergang bei einem bestimmten $p_c$, obwohl sich $p_c$ von Modell zu Modell unterscheidet. Für die 2D-Stellenperkolation auf einem quadratischen Gitter ist $p_c \approx 0.5927$. Für die 2D-Kantenperkolation auf einem quadratischen Gitter ist $p_c = 0.5$. Für den Erdős-Rényi-Graphen ist $p_c \sim \frac{\log(n)}{n}$ bei endlicher Größe, und im Grenzwert großer $n$ gibt es einen genaueren Schwellenwert um $\frac{1}{n}$ für das Auftreten einer „riesigen“ Komponente.
Bei diesen kritischen Wahrscheinlichkeiten $p_c$ treten mehrere wichtige Phänomene auf. Genau bei $p = p_c$ (in einem unendlichen System) folgt die Verteilung der Clustergrößen oft einer Power Law, $$P(\text{Clustergröße} = s) \sim s^{-\alpha},$$ mit einem bestimmten Exponenten $\alpha$, der die Skaleninvarianz des kritischen Punktes widerspiegelt. Unterhalb von $p_c$ existiert keine unendliche oder „riesige“ verbundene Komponente, und die Wahrscheinlichkeit eines überspannenden Pfades ist im unendlichen Grenzwert im Wesentlichen Null, während oberhalb von $p_c$ eine solche riesige Komponente erscheint und in vielen Perkolationsmodellen der Anteil der Stellen im riesigen Cluster kontinuierlich von 0 wächst, wenn $p$ über $p_c$ hinaus zunimmt. In einem unendlichen Gitter oder Graphen sagt man üblicherweise, dass die Wahrscheinlichkeit, einen überspannenden (unendlichen) Cluster zu haben, von 0 für $p < p_c$ auf einen positiven Wert für $p > p_c$ springt, obwohl dieser Übergang für endliche Graphen geglättet wird und nur scharf wird, wenn $n$ gegen unendlich geht.
Es ist hilfreich, mehrere wichtige Beobachtungen im Hinterkopf zu behalten, wenn man diese Modelle vergleicht. Erstens hat jedes Modell seine eigene kritische Wahrscheinlichkeit $p_c$, sodass man nicht davon ausgehen kann, dass Stellenperkolation, Kantenperkolation und Erdős-Rényi-Graphen den gleichen Schwellenwert oder die gleichen Exponenten haben. Zweitens, obwohl Power Law Verhalten am kritischen Punkt in all diesen Systemen auftritt, variieren die spezifischen Exponenten mit dem Modell und der Dimension. Darüber hinaus lockern reale Netzwerke oder anspruchsvollere Modelle oft einfache Unabhängigkeitsannahmen. In diesen Fällen kann der Nachweis von Power Laws und anderen Anzeichen von kritischem Verhalten deutlich schwieriger sein.
Auch wenn jedes Perkolations- oder Zufallsgraphenmodell einzigartige geometrische Einschränkungen, unterschiedliche $p_c$-Werte und seine eigene Reihe kritischer Exponenten hat, zeigen sie alle das breitere Phänomen eines Phasenübergangs bei einem bestimmten $p_c$. Jenseits dieses Schwellenwerts werden verbundene Cluster groß genug, um einen wesentlichen Teil des Graphen zu überspannen, und die Clustergrößenverteilung nimmt am kritischen Punkt die Form einer Power Law an.
Interaktive Stellenperkolationssimulation auf einem Gitter
Unten ist ein Stellenperkolationsmodell auf einem $100 \times 100$-Gitter. Jede Zelle ist mit der Wahrscheinlichkeit $p$ besetzt, sodass Wasser hindurchfließen kann. In dieser Simulation bedeutet „besetzt“, dass Wasser fließen kann (weiße Quadrate), was etwas verwirrend sein kann, aber ich wollte den theoretischen Schwellenwert aus der Literatur bei $59,%$ beibehalten, der sonst $1 - 0.59$ oder $41,%$ wäre. Der Schieberegler passt $p$ an, und die Schaltflächen „Start“ und „Zurücksetzen“ starten oder initialisieren die Simulation neu. Wenn die Simulation läuft, zeigen blaue Zellen an, wie Wasser von oben nach unten sickert. Ein Diagramm zeigt den größten Clusteranteil an, der klein bleibt, wenn $p$ deutlich unter dem kritischen Schwellenwert nahe $59,%$ liegt, und dann schnell wächst, wenn $p$ diesen Schwellenwert überschreitet, was den plötzlichen Sprung in der Perkolationswahrscheinlichkeit widerspiegelt.
(Approximate critical threshold $p_c \approx 59$% is set as default.)
Das Ising-Modell im Magnetismus
Das Ising-Modell hat einen physikalischen Hintergrund und eine Motivation. Reale Ferromagnete zeigen die bemerkenswerte Fähigkeit, unterhalb einer bestimmten kritischen Temperatur (der Curie-Temperatur) magnetisiert zu werden. Im frühen 20. Jahrhundert suchten Physiker nach einer vereinfachten, aber aufschlussreichen Möglichkeit, zu modellieren, wie sich lokale „Spin“-Variablen von Atomen oder Molekülen ausrichten können, um eine makroskopische Magnetisierung zu erzeugen. So entstand das Ising-Modell, das ursprünglich von Wilhelm Lenz vorgeschlagen und in 1D von seinem Studenten Ernst Ising (der dem Modell dann seinen Namen gab) gelöst wurde.
In einem ferromagnetischen Kontext repräsentiert jede Stelle auf einem Gitter einen lokalisierten Spin, der „nach oben“ $+1$ oder „nach unten“ $-1$ sein kann. Das Modell erfasst, wie benachbarte Spins dazu neigen, sich auszurichten – was den mikroskopischen Ursprung des Ferromagnetismus nachahmt – ohne sich in die komplizierten Details von Elektronenorbitalen oder Kristallstrukturen zu vertiefen.
Stell dir ein Gitter (in zwei oder mehr Dimensionen) vor, in dem jede Stelle $i$ einen Spin hat, der entweder $+1$ sein kann, was einen nach oben zeigenden Spin darstellt, oder $-1$, was einen nach unten zeigenden Spin darstellt. Wenn zwei benachbarte Spins gleich sind, wird die Energie des Systems gesenkt, und wenn sie unterschiedlich sind, wird die Energie erhöht. Diese Wechselwirkung begünstigt natürlich die Bildung großer Bereiche oder Cluster, in denen Spins in der gleichen Richtung ausgerichtet sind. Bei hohen Temperaturen verursacht die thermische Bewegung zufällige Fluktuationen, die diese Ausrichtung stören, während bei niedrigen Temperaturen die Tendenz zur Ausrichtung der Spins dominant wird.
Das 2D-Ising-Modell ist auf einem quadratischen Gitter der Größe $N = L \times L$ definiert, wobei jede Stelle $i$ einen Spin $s_i \in {+1, -1}$ hat. Die Energie einer Konfiguration ${s}$ wird üblicherweise durch
$$H({s}) = -J \sum_{(i,j)} s_i s_j - h \sum_{i} s_i,$$
angegeben, wobei $J > 0$ die ferromagnetische Kopplungskonstante ist, die parallele Nachbarn begünstigt, $\sum_{(i,j)}$ eine Summe über Nachbarpaare (jedes Paar einmal gezählt) bezeichnet und $h$ ein externes Magnetfeld ist, das in theoretischen Studien häufig auf Null gesetzt wird. In der statistischen Mechanik ist die Wahrscheinlichkeit einer Konfiguration ${s_i}$ im thermischen Gleichgewicht und bei der Temperatur $T$ durch die Boltzmann-Verteilung gegeben:
$$p({s}) = \frac{1}{Z}\exp\bigl(-\beta H({s})\bigr), \qquad \text{wobei} \beta = \frac{1}{k_B T},$$
und $Z = \sum_{{s}} \exp(-\beta H({s}))$ die Partitionsfunktion ist, die über alle $2^N$ Spin-Konfigurationen summiert. In diesem Modell treten mehrere Power Laws und Power Law Verteilungen auf. Die erste bemerkenswerte Größe ist die Magnetisierung pro Stelle,
$$m = \frac{1}{N}\sum_{i=1}^N s_i,$$
die als Ordnungsparameter fungiert. Unterhalb einer kritischen Temperatur $T_c$ bricht das System spontan die Symmetrie, sodass $m \neq 0$, während oberhalb von $T_c$ die Magnetisierung im thermodynamischen Grenzwert Null ist, was einer ungeordneten Phase entspricht. Eine weitere wichtige Größe ist die Spin-Spin-Korrelationsfunktion,
$$G(r) = \langle s_is_{i+r}\rangle -\langle s_i\rangle\langle s_{i+r}\rangle,$$
wobei $r$ den Abstand zwischen zwei Spins misst und die spitzen Klammern Ensemble-Mittelwerte anzeigen. Genau bei $T_c$ zerfällt $G(r)$ als Power Law $G(r)\sim r^{-\eta}$, während es abseits von $T_c$ exponentiell zerfällt. Man kann auch Cluster ausgerichteter Spins analysieren. Bei $T_c$ folgt die Größenverteilung dieser Cluster oft einer Power Law
$$P(\text{Clustergröße} = s) \sim s^{-\alpha}.$$
Das Wesentliche des Ising-Modells ist, dass das thermische Gleichgewicht bei der Temperatur $T$ durch einen Boltzmann-Faktor $e^{-\beta H}$ bestimmt wird. Im Gegensatz zu einer rein zufälligen Zuordnung von Spins korreliert die Ising-Verteilung Spins: Konfigurationen mit großen ausgerichteten Bereichen werden stärker gewichtet als Konfigurationen mit vielen falsch ausgerichteten Bindungen. Wenn sich also $T$ ändert, zeigt das System einen Phasenübergang und kritische Phänomene.
Auf den ersten Blick mag das Ising-Modell dem zuvor besprochenen Perkolationsmodell recht ähnlich erscheinen, aber es gibt wichtige Unterschiede. In einem Perkolationsmodell werden Kanten oder Stellen zufällig mit einer bestimmten Wahrscheinlichkeit $p$ unabhängig voneinander ausgewählt. Zum Beispiel ist bei der Kantenperkolation jede Kante entweder mit der Wahrscheinlichkeit $p$ vorhanden oder nicht vorhanden, während bei der Stellenperkolation jeder Knoten mit der Wahrscheinlichkeit $p$ besetzt ist. Diese Perkolationssysteme zeigen Phasenübergänge und Power Law-Clustergrößenverteilungen bei einer kritischen Wahrscheinlichkeit $p_c$.
Im Gegensatz dazu basiert das Ising-Modell auf einer festen Gittergeometrie, was bedeutet, dass alle nächstgelegenen Nachbarkanten vorhanden sind; wir löschen keine Kanten zufällig. Anstatt einen unabhängigen Bernoulli-Prozess zu verwenden, werden im Ising-Modell ganze Spin-Konfigurationen aus der Boltzmann-Verteilung abgetastet, die durch $p({s}) \sim \exp(-\beta H({s}))$ gegeben ist. Darüber hinaus interagieren im Ising-Modell die Spins: Benachbarte Spins beeinflussen sich gegenseitig durch die Kopplungskonstante $J$, sodass die Wahrscheinlichkeit, ausgerichtete Paare zu finden, nicht unabhängig ist. Dies unterscheidet sich grundlegend von der Perkolation, bei der jede Bindung oder Stelle typischerweise unabhängig bestimmt wird.
Trotz dieser Unterschiede zeigen sowohl die Perkolation als auch das Ising-Modell ähnliche entstehende Eigenschaften am kritischen Punkt – wie große verbundene Cluster und skaleninvariante (Power Law-) Verteilungen – da beide zu verwandten Universalitätsklassen in der statistischen Physik gehören. Die genauen Exponenten unterscheiden sich, aber das qualitative Phänomen ist ein gemeinsames Thema bei kontinuierlichen Phasenübergängen.
Interaktive Ising-Modell-Simulation auf einem Gitter
Unten befindet sich eine interaktive Simulation des 2D-Ising-Modells auf einem $100 \times 100$-Gitter. Alle Werte (Temperatur $T$, Magnetisierung $M$, Hamilton-Operator $H$ usw.) sind dimensionslos, und die Wechselwirkungsstärke $J$ ist auf 1 festgelegt. Die Gitteranzeige zeigt Spins in Grün (Spin $+1$) und Weiß (Spin $-1$). Wir aktualisieren die Spins dynamisch, anstatt den gesamten Konfigurationsraum im Voraus abzutasten, was für große Systeme nicht durchführbar wäre. Daher dauert es einige Sekunden, bis sich die gleitenden Mittelwerte (Magnetisierung, Hamilton-Operator) und die drei Diagramme nach dem Klicken auf „Start“ einpendeln. Das erste Diagramm (log-log) zeigt, wie Spins mit dem Abstand korrelieren, das zweite Diagramm zeigt die Clustergrößenverteilung und das dritte Diagramm vergleicht die simulierte Magnetisierung (grüner Punkt) mit der bekannten theoretischen Kurve (rot), was das kritische Verhalten des Ising-Modells in der Nähe seiner kritischen Temperatur $T_c$ veranschaulicht.
Krankheitsausbrüche – SIR-Modell
Das SIR-Modell ist ein klassischer Rahmen in der Epidemiologie, um die Dynamik von Infektionskrankheiten zu erfassen. In seiner einfachsten Formulierung teilt es die Bevölkerung in drei Gruppen ein: anfällig ($S$), infiziert ($I$) und genesen ($R$). Individuen wechseln von anfällig zu infiziert und dann von infiziert zu genesen. Die Raten, mit denen diese Übergänge stattfinden, bestimmen, wie sich eine Epidemie entwickelt. Mathematisch lautet das Basismodell:
$$ \frac{dS}{dt} = -\beta \frac{SI}{N}, \quad \frac{dI}{dt} = \beta \frac{SI}{N} - \gamma I, \quad \frac{dR}{dt} = \gamma I, $$
wobei $\beta$ die Infektionsrate, $\gamma$ die Genesungsrate und $N = S + I + R$ die Gesamtbevölkerung ist. Wenn $R_0 = \beta/\gamma$, die durchschnittliche Reproduktionsrate, 1 überschreitet, breitet sich die Krankheit schnell aus, was zu einem potenziellen Kipppunkt führt. Beachte, dass diese Gleichungen nichtlinear sind, da sie die Terme $S \cdot I$ in der ersten und zweiten Gleichung enthalten.
Betrachtet man das SIR-Modell durch die Linse kritischer Phänomene, zeigt es zwei Arten von kritischem Verhalten:
-
Kipppunktverhalten
In dieser Sichtweise ist das Verhältnis $\beta/\gamma$ der Hauptkontrollparameter. Der Ordnungsparameter kann die Gesamtzahl der infizierten Personen sein. Wenn $\beta/\gamma$ 1 überschreitet, durchläuft das System einen plötzlichen Sprung von einem kleinen Ausbruch zu einer großflächigen Epidemie. Dies erinnert an einen diskontinuierlichen (Übergang erster Ordnung), bei dem eine kleine Änderung des Kontrollparameters eine große Verschiebung in der Krankheitsdynamik auslöst.
-
Kontinuierliche Übergänge in netzwerkbasierten Modellen
Wenn wir eine Bevölkerung als Netzwerk betrachten, in dem Kanten mögliche Übertragungsereignisse darstellen, werden zusätzliche Faktoren wie soziale Distanzierung, Netzwerkverbindungen und heterogene Kontaktgewichte relevant. In diesen erweiterten SIR-Modellen kann sich der Ausbruch durch Cluster verbundener Individuen ausbreiten. Wenn Kontrollparameter wie Linkdichte oder Infektionswahrscheinlichkeit variieren, können die Größe der infizierten Cluster und die Korrelationslängen in der Nähe des kritischen Punktes Power Laws folgen. Dieses Verhalten ist charakteristisch für kontinuierliche (Übergänge zweiter Ordnung), bei denen es keinen abrupten Kipppunkt gibt, sondern eine allmähliche Änderung der Skala der Clusterbildung.
Durch die Integration beider Perspektiven kann das SIR-Modell Schlüsselfunktionen der epidemischen Ausbreitung erfassen, von schnellen Kipppunkten bis hin zu netzwerkgetriebenen Clustereffekten. Diese duale Sichtweise hilft zu beleuchten, wie sich Krankheiten in verschiedenen Umgebungen und unter verschiedenen Kontrollmaßnahmen ausbreiten können.
Interaktive SIR(S)-Modellsimulation
Unten ist eine Simulation eines SIR(S)-Modells auf einem $100 \times 100$-Gitter. Das zweite S steht für Wiederanfällig, was bedeutet, dass eine genesene Person mit einer bestimmten Wahrscheinlichkeit in den anfälligen Zustand zurückkehren kann. Im Gegensatz zur Mean-Field-Version kann jede infizierte Zelle hier die Infektion nur an ihre 8 Nachbarzellen übertragen. Mit den Schiebereglern auf der rechten Seite kannst du die Infektions-, Genesungs- und Wiederanfälligkeitswahrscheinlichkeiten während der Simulation anpassen. Auf der linken Seite zeigt ein Zeitreihendiagramm die Anteile der anfälligen, infizierten und genesenen Personen bei jedem Zeitschritt an, während auf der rechten Seite ein Histogramm der infizierten Clustergrößen angezeigt wird, das zur Übersichtlichkeit auf $100$ begrenzt ist.
Bemerkungen
Zunächst möchte ich darauf hinweisen, dass ich den Großteil des Themas der dynamischen Systeme unter den Teppich gekehrt habe. Alle interessanten und wichtigen Ideen zu erfassen, würde nicht in ein einziges Buch passen, geschweige denn in einen (zu langen) Blogbeitrag. Das Buch, das diesem Thema wirklich nahekommt und das ich sehr empfehle, ist Nonlinear Dynamics and Chaos von Steven Strogatz (Link unten).
Kritische Phänomene treten oft in dynamischen Systemen auf und haben eine große konzeptionelle Überschneidung mit instabilen und halbstabilen Fixpunkten und ihren Bifurkationen. Alle können als „plötzliche qualitative Änderungen im Verhalten eines Systems“ angesehen werden. Einige Arten von Bifurkationen, wie Sattel-Knoten- oder subkritische Gabelbifurkationen, können einen plötzlichen Sprung aufweisen und passen somit zum Konzept der Kipppunktverhalten. Andere Bifurkationen, wie superkritische Gabelbifurkationen, beinhalten das Auftreten oder die Modifikation von Gleichgewichtslösungen ohne einen diskontinuierlichen Sprung und fallen in die Kategorie der kontinuierlichen Übergänge. Daher kann kritisches Verhalten in erster Linie als eine Teilmenge von Bifurkationsphänomenen gesehen werden, die auf probabilistische Systeme erweitert wurde. Rein dynamische Systemliteratur behandelt Zufälligkeit im Allgemeinen nur in Mean-Field-Ansätzen.
Bezüglich der kontinuierlichen kritischen Übergänge beinhalteten alle meine Beispiele eine gewisse Zufälligkeit, aber das muss nicht der Fall sein. Rein deterministische dynamische Systeme können auch kontinuierliche kritische Übergänge aufweisen, wie die oben genannten Bifurkationen. Darüber hinaus führen viele deterministische Prozesse zu chaotischem oder komplexem Verhalten, das Zufälligkeit widerspiegelt, und diese Phänomene können auch dort auftreten. Da es nicht wirklich eine Rolle spielt, ob die Zufälligkeit intrinsisch ist (wie in der Quantenmechanik) oder von einer deterministischen, aber unvorhersehbaren Quelle stammt (wie in der Strömungsmechanik), veranschaulichen die von mir gegebenen Beispiele immer noch die Hauptideen hinter der kontinuierlichen kritischen Übergänge.
Schließlich habe ich festgestellt, dass Systeme, die kontinuierliche kritische Übergänge durchlaufen, oft einer Power Law am oder nahe dem kritischen Wert folgen, ohne diesen Anspruch formal zu begründen. Für einige Leser mag dies der faszinierendste Aspekt sein. In Wirklichkeit kann die Ableitung von Power Laws in diesen Modellen ziemlich aufwendig sein und ist spezifisch für jeden Fall. Zu den Hauptkonzepten gehören die Renormierungsgruppentheorie, die Mean-Field-Theorie und die fortgeschrittene Wahrscheinlichkeitstheorie (z. B. stochastische Differentialgleichungen). Die Bereitstellung dieser Ableitungen würde den Rahmen dieses Blogbeitrags sprengen, der sich auf die Veranschaulichung grundlegender Merkmale des kritischen Verhalten konzentriert. Wenn du diese Ideen weiter erforschen möchtest, sind die folgenden Wikipedia-Seiten ein guter Ausgangspunkt:
Diese Referenzen erklären detaillierter, warum Skaleninvarianz oft zu Power Law Verhalten in der Nähe kritischer Punkte führt.
Fazit
Die wichtigsten Punkte, die du mitnehmen solltest, sind:
-
Viele interessante und relevante Prozesse in unserer Welt sind nicht qualitativ gleich über ihren gesamten Parameterraum hinweg. Oft zeigen sie drastische Verhaltensänderungen, sobald ein bestimmter Schwellenwert oder eine Kombination von Parametern erreicht ist. Diese Verhaltensänderung ist oft sehr unintuitiv.
-
In kritischen Kipppunktsystemen gibt es eine Diskontinuität am kritischen Parameterwert. In kontinuierlichen Systemen erfolgt die Verhaltensänderung, wie der Name schon sagt, kontinuierlich.
-
Kritische Phänomene können Power Laws aufweisen. Es können jedoch zwei sehr unterschiedliche Varianten auftreten:
- Konkurrierende Power Laws (beobachtet in vielen Kipppunktphänomenen). Dort treibt ein Kontrollparameter verschiedene Power Law Terme an, und sobald die Exponenten einen Term den anderen überholen lassen, erreicht das System einen kritischen Wert.
- Power Laws in kontinuierlichen Übergangsphänomenen, die Verteilungen von Systemvariablen (wie Clustergrößen oder Korrelationsfunktionen) beschreiben. Diese Power Laws signalisieren Skaleninvarianz am Übergang, was bedeutet, dass es keine charakteristische Größe oder Skala im System direkt am kritischen Punkt gibt.