Kapitel 1
Warum ausgerechnet 2,718…?
Es gibt Zahlen, die aus der Mathematik heraus erzwungen werden. Die Zahl \(\pi\) taucht auf, weil Kreise existieren. Die imaginäre Einheit \(i\) taucht auf, weil manche quadratischen Gleichungen keine reellen Lösungen haben. Und dann gibt es \(e\).
\(e = 2{,}71828182845904523536\ldots\)
Keine schöne runde Zahl. Keine offensichtliche geometrische Bedeutung. Und doch begegnet sie jedem, der tief genug in Physik, Biologie, Statistik, Informatik oder Finanzwesen eindringt. Sie erscheint nicht, weil wir sie einladen – sie ist schon da, bevor wir sie suchen.
Dieses Kapitel ist eine Inventur. Bevor wir erklären, warum e überall auftaucht, wollen wir erst einmal festhalten, wo. Hier sind zwölf Orte, an denen e wartet:
Zinseszins: \(\lim_{n\to\infty}\bigl(1+\tfrac{1}{n}\bigr)^n = e\)
Exponentielles Wachstum: Bakterien, Viren, Kapital: \(y = y_0 \cdot e^{kt}\)
Radioaktiver Zerfall: C-14 mit Halbwertszeit 5730 Jahren: \(N(t) = N_0 \cdot e^{-\lambda t}\)
Newton'sches Abkühlgesetz: Kaffee kühlt nach \(T(t) = T_\infty + (T_0 - T_\infty)\cdot e^{-kt}\)
Eigenfunction: \(\tfrac{d}{dx}e^x = e^x\) – einzige Funktion, die ihre eigene Ableitung ist
Primzahlen: Die Dichte der Primzahlen um \(x\) ist \(\approx 1/\ln x\)
Derangements: P(kein Hut passt) \(\to 1/e\)
Sekretärin-Problem: Optimale Strategie: erste \(n/e\) ablehnen
Normalverteilung: Glockenkurve \(\propto e^{-x^2/2}\)
Boltzmann-Faktor: \(p(E) \propto e^{-E/kT}\) – wie Natur Energie verteilt
Kettenlinie: Hängende Kette: \(y = a\cosh(x/a)\), wobei \(\cosh x = \tfrac{e^x+e^{-x}}{2}\)
Shannon-Entropie: \(H = -\sum p_i \ln p_i\) – ln ist der Logarithmus zur Basis e
Zwölf Erscheinungen, zwölf verschiedene Disziplinen. Was haben sie gemeinsam? Das ist die Frage, der wir in den nächsten neun Kapiteln nachgehen. Die Antwort, vorweggenommen: e erscheint immer dann, wenn eine Größe sich proportional zu sich selbst verändert. Die Änderungsrate ist gleich dem Wert selbst. Das ist alles. Und es ist ungeheuer viel.
Beginnen wir am Anfang – mit einer Frage aus dem Jahr 1683, die ein Schweizer Mathematiker über Bankzinsen stellte und die zufällig die wichtigste Zahl der Analysis hervorbrachte.
Kapitel 2
Bernoullis Frage
Jakob Bernoulli war kein romantischer Mathematiker, der in einsamen Momenten auf Naturgesetze stieß. Er war ein pragmatischer Basler, und im Jahr 1683 beschiftigte ihn eine äußerst bodenständige Frage: Wie viel Geld bekommt man, wenn man Zinsen nicht jährlich, sondern immer häufiger zusammenschlägt?
Das Zinseszins-Experiment
Stellen wir uns vor, wir legen 1 Euro zu 100 % Jahreszins an. Jährliche Verzinsung ergibt nach einem Jahr: \(1 \cdot (1 + 1)^1 = 2\) Euro.
Halbbjährliche Verzinsung – zweimal 50 %:
Vierteljährlich – viermal 25 %:
Monatlich:
Täglich:
Stündlich, minütlich, sekündlich – der Wert wächst, aber langsamer. Bernoulli erkannte, dass dieser Prozess gegen eine Grenze strebt. Er konnte sie zwischen 2 und 3 einschließen, wusste aber ihren genauen Wert nicht. Den tauften später andere: Leonhard Euler bezeichnete sie 1731 mit dem Buchstaben \(e\).
Das ist keine Zahl, die jemand erfunden hat. Sie wurde entdeckt – als Grenzwert eines vollkommen natürlichen Prozesses. Und sie ist irrational und sogar transzendent: sie lässt sich nicht als Bruch schreiben, und sie erfüllt keine algebraische Gleichung.
Die Reihendarstellung
Es gibt noch einen anderen Weg zu \(e\). Entwickelt man \((1+x/n)^n\) für großes \(n\) mit dem Binomialsatz, ergibt sich im Grenzübergang die Exponentialreihe:
Schon die ersten fünf Summanden geben \(1 + 1 + 0{,}5 + 0{,}1\overline{6} + 0{,}041\overline{6} = 2{,}708\overline{3}\) – nur 0,4 % vom wahren Wert entfernt. Die Reihe konvergiert atemberaubend schnell, weil die Fakultät im Nenner rasend wächst.
Stetige Verzinsung
Was bedeutet das für die Bank? Wenn man Kapital \(K_0\) zu kontinuierlichem Zinssatz \(r\) anlegt, wächst es nach Zeit \(t\) auf:
Das ist keine Approximation – das ist die exakte Formel für stetige Verzinsung. 1000 Euro zu 5 % kontinuierlichem Jahreszins für 10 Jahre: \(1000 \cdot e^{0{,}05 \cdot 10} = 1000 \cdot e^{0{,}5} \approx 1648{,}72\) Euro.
e entsteht als natürliche Grenze des Zinseszins-Prozesses: Je häufiger man die Zinsen aufschichtet, desto näher kommt man an e – aber nie darüber hinaus.
Kapitel 3
Die einzige Funktion, die sich selbst gleicht
Hier ist eine Frage, die zunächst seltsam klingt: Welche Funktion ist ihre eigene Ableitung?
Das heißt: Wenn man die Steigung von \(f\) an jedem Punkt berechnet, bekommt man wieder \(f\) selbst. Mathematisch: \(f'(x) = f(x)\).
Es gibt genau eine Familie von Antworten: \(f(x) = C \cdot e^x\) für eine beliebige Konstante \(C\). Und das ist kein Zufall – das ist die tiefste Eigenschaft von \(e\).
e^x als Eigenfunction des Differenzierens
Wer den Post über Eigenwerte gelesen hat, kennt das Prinzip: Ein linearer Operator \(L\) hat Eigenfunktionen – Funktionen, die der Operator nicht verändert, sondern nur streckt. Der Operator \(L = d/dx\) (Differenzieren) hat eine einzige Eigenfunktionsfamilie:
Der Eigenwert ist \(\lambda = 1\). Die Funktion \(e^x\) wird durch Differenzieren um den Faktor 1 gestreckt – also gar nicht verändert.
Was ist mit anderen Basen? Nehmen wir \(2^x\). Die Ableitung ist:
Nicht sauber. Man bekommt die Funktion zurück, aber mit einem Korrekturfaktor \(\ln 2\). Bei \(3^x\) ist der Faktor \(\ln 3 \approx 1{,}099\). Bei \(e^x\) ist der Faktor \(\ln e = 1\) – genau 1, nichts übrig. Deshalb ist e die natürliche Basis für Exponentialfunktionen: Sie ist die einzige Basis, bei der Differenzieren keine zusätzlichen Konstanten erzeugt.
Das ist auch der Grund, warum Physiker fast nie \(2^x\) oder \(10^x\) schreiben, wenn sie können: Sie schreiben \(e^{kx}\) mit einer Konstanten \(k\) im Exponenten. Das ist keine Ästhetik – es ist Effizienz.
Was folgt daraus?
Eine Funktion, die ihre eigene Ableitung ist, hat eine wichtige Konsequenz: Ihr Wachstum hängt nur von ihr selbst ab. Die Steigung an jedem Punkt ist gleich dem aktuellen Wert. Je größer die Funktion, desto schneller wächst sie – und zwar genau proportional.
Das ist die Gleichung \(f'(x) = f(x)\). Und in der Sprache der Physik wird daraus: Die Änderungsrate ist proportional zum aktuellen Zustand. Diese Aussage hört sich abstrakt an. Im nächsten Kapitel werden wir sehen, was sie in vier konkreten Disziplinen bedeutet.
Welche anderen Funktionen kennen Sie, die eine besondere Beziehung zur Differenziation haben? Sinus und Kosinus werden unter zweimaliger Differentiation zu sich selbst – mit Vorzeichen. Kein Zufall: \(\sin x = \text{Im}(e^{ix})\). Euler's Formel verbindet alles.
\(e^x\) ist die Eigenfunktion des Differenzierungsoperators mit Eigenwert 1 – die einzige Funktion, die durch Ableiten vollständig unverändert bleibt, ohne Korrekturfaktor.
Kapitel 4
Wachstum, Zerfall und eine einzige Gleichung
Hier ist die wichtigste Differenzialgleichung der angewandten Wissenschaften:
Auf Deutsch: Die Änderungsrate von \(y\) ist proportional zu \(y\) selbst. Die einzige Lösung ist:
Je nach Vorzeichen von \(k\) beschreibt dieselbe Gleichung völlig verschiedene Phänomene. Vier Beispiele aus vier Disziplinen:
Bakterienwachstum (\(k > 0\))
Eine E. coli-Bakterie teilt sich unter Idealbedingungen alle 20 Minuten. Zu Beginn: 1 Bakterium. Nach 20 Minuten: 2. Nach 40 Minuten: 4. Nach einer Stunde: 8. Nach 24 Stunden wäre das theoretisch \(2^{72} \approx 4{,}7 \times 10^{21}\) Bakterien – mehr als die Anzahl der Sterne in der beobachtbaren Galaxie.
Der Wachstumskoeffizient ist \(k = \ln 2 / T_\text{Verdopplung} = \ln 2 / 20\,\text{min} \approx 0{,}0347\,\text{min}^{-1}\). Und da erscheint \(\ln\) (der Logarithmus zur Basis e!) als natürlicher Begleiter von e.
Radioaktiver Zerfall (\(k < 0\)): Kohlenstoff-14
C-14 ist ein radioaktives Kohlenstoffisotop, das in der Atmosphäre durch kosmische Strahlung gebildet wird. Lebende Organismen nehmen es auf; nach dem Tod hört die Aufnahme auf und das C-14 zerfällt. Die Halbwertszeit beträgt 5730 Jahre.
Ein altes Holzstück enthält noch 73 % des ursprünglichen C-14. Wie alt ist es? Wir lösen: \(0{,}73 = e^{-\lambda t}\), also \(t = -\ln(0{,}73)/\lambda \approx 2640\) Jahre. Das ist Radiokarbon-Datierung – ein Messverfahren, das vollständig auf \(e\) beruht.
Newton'sches Abkühlgesetz (\(k < 0\)): Kaffee
Ein Kaffee mit 90 °C steht in einem 20 °C warmen Zimmer. Das Newton'sche Abkühlgesetz besagt: Die Abkühlrate ist proportional zur Temperaturdifferenz zwischen Kaffee und Umgebung.
Mit \(T_0 = 90\,{}^\circ\text{C}\), \(T_\infty = 20\,{}^\circ\text{C}\), \(k \approx 0{,}1\,\text{min}^{-1}\) (typisch für eine Keramiktasse) ist der Kaffee nach 10 Minuten auf \(20 + 70 \cdot e^{-1} \approx 20 + 25{,}7 = 45{,}7\,{}^\circ\text{C}\) abgekühlt. Ziemlich genau.
Kondensatorentladung (\(k < 0\)): Elektronik
Ein geladener Kondensator (Kapazität \(C\), Anfangsspannung \(V_0\)) entlädt sich über einen Widerstand \(R\). Der Strom ist proportional zur Spannung. Die Spannung fällt nach:
Das Produkt \(RC\) heißt Zeitkonstante \(\tau\). Nach einer Zeitkonstante ist die Spannung auf \(V_0/e \approx 36{,}8\,\%\) gesunken. Jeder Elektroniker kennt diese Zahl auswendig.
Vier völlig verschiedene Systeme – Biologie, Physik, Thermodynamik, Elektrotechnik – eine einzige Gleichung. Das ist kein Zufall. Es ist die mathematische Konsequenz einer einzigen Annahme: Die Änderungsrate ist proportional zum aktuellen Zustand.
\(dy/dt = ky\) – eine einzige Gleichung, vier Disziplinen, eine Lösung: immer \(y(t) = y_0 \cdot e^{kt}\). e ist die universelle Antwort auf proportionale Änderung.
Kapitel 5
e in den Primzahlen
Jetzt wird es philosophisch unbequem. Primzahlen scheinen das Chaos selbst zu verkörpern: 2, 3, 5, 7, 11, 13, 17, 19, 23, 29 – kein Muster, keine Regel, die die nächste Primzahl vorhersagt. Und doch steckt in ihrer globalen Verteilung eine erstaunliche Regelmäßigkeit – und e spielt darin die Hauptrolle.
Gauß und die Primzahldichte
Carl Friedrich Gauß war 15 oder 16 Jahre alt (die Quellen streiten sich), als er eine Primzahltafel studierte und bemerkte: Je größer die Zahlen werden, desto dünner werden die Primzahlen gestreut. Und die Dichte folgt einem Muster.
Sei \(\pi(x)\) die Anzahl der Primzahlen, die kleiner oder gleich \(x\) sind. Gauß beobachtete empirisch:
Das ist der Primzahlsatz, der 1896 von Hadamard und de la Vallée Poussin bewiesen wurde. Das \(\ln\) hier ist der natürliche Logarithmus – Basis e.
Konkret: Um die Zahl 1.000.000 herum ist ungefähr jede \(\ln(1.000.000) = 6 \ln 10 \approx 13{,}8\)-te Zahl eine Primzahl. Die tatsächliche Anzahl der Primzahlen bis eine Million ist 78.498; die Formel liefert \(10^6 / \ln(10^6) \approx 72.382\) – eine Abweichung von unter 8 %.
Warum erscheint e?
Das ist die tiefere Frage. Primzahlen sind vollkommen diskret, vollkommen deterministisch – und dennoch verhält sich ihre Verteilung, als wäre sie ein kontinuierlicher, exponentiell verdünnender Prozess. Der Logarithmus ist das Inverse der Exponentialfunktion. Dass er in der Primzahldichte erscheint, deutet darauf hin, dass Primzahlen auf einer logarithmischen Skala gleichmäßig verteilt sind.
Eine prazisere Aussage: Wenn man zufällig eine große Zahl \(n\) wählt, ist die Wahrscheinlichkeit, dass sie eine Primzahl ist, ungefähr \(1/\ln n\). Die Primzahlen werden immer seltener – logarithmisch, also im Rhythmus von e.
Riemann und die Restterme
Gauß wusste, dass seine Formel nur asymptotisch stimmt. Bernhard Riemann zeigte 1859, wie man die Abweichungen präzise beschreibt: mit den Nullstellen der Riemannschen Zeta-Funktion. Die berühmte Riemannsche Vermutung – dass alle nicht-trivialen Nullstellen auf der Linie \(\text{Re}(s) = 1/2\) liegen – ist bis heute unbewiesen und gilt als das wichtigste ungelöste Problem der Mathematik.
Aber das ist eine andere Geschichte. Festzuhalten ist: e erscheint in den Primzahlen nicht, weil Primzahlen "wachsen" oder "zerfallen". Es erscheint, weil die logarithmische Skala die natürliche Skala für multiplikative Strukturen ist. Und die natürliche Basis des Logarithmus ist e.
Die Dichte der Primzahlen um \(x\) ist \(\approx 1/\ln x\) – e erscheint nicht in den Primzahlen selbst, sondern in ihrer statistischen Verteilung, weil Primzahlen auf logarithmischer Skala gleichmäßig gestreut sind.
Kapitel 6
e im Zufall
e taucht auch in Situationen auf, die auf den ersten Blick gar nichts mit Wachstum oder Logarithmen zu tun haben: in der reinen Kombinatorik und in der Wahrscheinlichkeitstheorie. Drei klassische Probleme, alle mit e als Antwort.
6a: Das Hutproblem – Derangements
Stellen Sie sich vor: \(n\) Personen geben ihre Hüte an einer Garderobe ab. Der Garderobenmann hat die Etiketten verloren und gibt die Hüte zufällig zurück. Was ist die Wahrscheinlichkeit, dass niemand seinen eigenen Hut bekommt?
Eine Permutation, bei der kein Element an seiner ursprünglichen Position steht, heißt Derangement. Die Anzahl der Derangements von \(n\) Elementen ist:
Die Wahrscheinlichkeit, dass eine zufällige Permutation ein Derangement ist, beträgt:
Für \(n = 2\): Genau 50 %. Für \(n = 3\): \(2/6 = 33{,}3\,\%\). Für \(n = 10\): schon 36{,}79 % – quasi ununterscheidbar von \(1/e\). Ab \(n \geq 5\) stabilisiert sich die Wahrscheinlichkeit auf \(1/e\), egal wie viele Personen mitspielen.
Das ist verblüffend: Die Wahrscheinlichkeit des totalen Durcheinanders ist universell und hängt von e ab. (Streng genommen ist das kein Zufall, sondern eine Konsequenz der Exponentialreihe: \(e^{-1} = \sum_{k=0}^\infty (-1)^k/k!\).)
6b: Das Sekretärin-Problem – die optimale Strategie
Sie müssen aus \(n\) Bewerberinnen die Beste auswählen. Sie interviewen sie eine nach der anderen in zufälliger Reihenfolge. Nach jedem Interview müssen Sie sofort entscheiden: nehmen oder nicht. Spätere Kandidatinnen können Sie nicht mehr zurückrufen. Wie maximieren Sie die Chance, die Beste zu finden?
Die optimale Strategie: Lehnen Sie die ersten \(r\) Kandidatinnen grundsätzlich ab (Lernphase), und nehmen Sie dann die nächste, die besser als alle bisherigen ist. Welches \(r\) maximiert die Erfolgswahrscheinlichkeit?
Die Antwort: \(r^* \approx n/e\). Also lehnen Sie die erste \(1/e \approx 37\,\%\) der Kandidatinnen ab, und dann nehmen Sie die nächste Überlegene. Die Erfolgswahrscheinlichkeit dieser Strategie konvergiert gegen – erraten – \(1/e \approx 37\,\%\).
Das ist zunächst ernüchternd: Selbst die optimale Strategie findet die Beste nur in 37 % der Fälle. Aber es gibt keine bessere. Und sowohl die optimale Ablehnungsquote als auch die maximale Erfolgswahrscheinlichkeit sind \(1/e\) – dieselbe Zahl, aus demselben Grenzwert.
6c: Die Glockenkurve
Die Normalverteilung – Gauß'sche Glockenkurve – ist die am häufigsten auftretende Verteilung in der Natur. Ihre Dichte ist:
Der entscheidende Term: \(e^{-x^2/2}\). Die Glockenkurve ist eine Exponentialfunktion zur Basis e, angewandt auf das negative Quadrat. Je weiter ein Wert vom Mittelwert entfernt ist, desto exponentiell unwahrscheinlicher. Das ist kein Gestaltungsentscheid – der zentrale Grenzwertsatz garantiert, dass Summen vieler unabhängiger Zufallsvariablen immer gegen die Normalverteilung konvergieren.
e erscheint in der Wahrscheinlichkeitsrechnung durch die Exponentialreihe: Die Wahrscheinlichkeit des totalen Chaos (Derangements), die optimale Ablehnungsquote (Sekretärin-Problem) und die Glockenkurve konvergieren alle gegen Ausdrücke mit \(e^{-1}\).
Kapitel 7
e in der Physik
Die Physik ist voll von e. Das liegt nicht daran, dass Physiker Exponentialfunktionen schön finden – es liegt daran, dass die Natur Proportionalität liebt. Zwei besonders schöne Beispiele: die Verteilung von Energie in thermischen Systemen und die hängende Kette.
Der Boltzmann-Faktor: Wie Natur Energie verteilt
In einem System im thermischen Gleichgewicht bei Temperatur \(T\) gilt: Die Wahrscheinlichkeit, einen Zustand mit Energie \(E\) besetzt zu finden, ist proportional zu:
Das ist der Boltzmann-Faktor, benannt nach Ludwig Boltzmann. \(k_B \approx 1{,}38 \times 10^{-23}\,\text{J/K}\) ist die Boltzmann-Konstante.
Was sagt er? Je höher die Energie eines Zustands, desto exponentiell unwahrscheinlicher ist er bei gegebener Temperatur. Zustände mit sehr hoher Energie sind exponentiell selten. Das gilt für Gasmoleküle, Elektronen in Festkörpern, chemische Reaktionen (Übergangszustände) und kosmische Strahlung.
Warum e? Weil die Entropie additiv ist (sie wächst proportional) und die Wahrscheinlichkeit multiplikativ (unabhängige Systeme multiplizieren ihre Wahrscheinlichkeiten). Die einzige Funktion, die additives in multiplikatives umwandelt, ist die Exponentialfunktion – zur Basis e.
Das ist kein Zufall. Das ist der tiefste Grund, warum e in der Physik omnipräsent ist.
Die Kettenlinie: Gaudís Modelle
Was ist die Form einer an zwei Punkten aufgehängten schweren Kette? Man könnte vermuten: eine Parabel. Galileo Galilei dachte das. Aber er lag falsch.
Leibniz, Huygens und Johann Bernoulli (Jakobs Bruder) lösten das Problem 1691: Die Form ist eine Kettenlinie (lateinisch: catenaria), beschrieben durch:
Hier steckt e gleich doppelt drin: \(\cosh\) ist der hyperbolische Kosinus, definiert als Mittelwert von \(e^x\) und \(e^{-x}\).
Der katalanische Architekt Antoni Gaudí kannte dieses Ergebnis und nutzte es brillant: Er baute hängende Kettenmodelle aus Gewichten und Schnüren für die Sagrada Família und spiegelte sie dann auf den Kopf. Eine umgekehrte Kettenlinie steht unter reiner Druckkraft – kein Biegen, kein Brechen. Das Gateway Arch in St. Louis (1965) hat ebenfalls die Form einer (leicht modifizierten) Kettenlinie.
Der Boltzmann-Faktor \(e^{-E/kT}\) entsteht, weil Wahrscheinlichkeit multiplikativ und Entropie additiv ist – e ist die einzige Brücke. Die Kettenlinie \(\cosh(x/a)\) ist buchstäblich aus e^x zusammengesetzt.
Kapitel 8
e in der Information
Claude Shannon definierte 1948, wie man Information misst. Er nannte es Entropie, in Anlehnung an den thermodynamischen Begriff – kein Zufall, denn die Mathematik ist dieselbe:
Wenn man den natürlichen Logarithmus (Basis e) verwendet statt \(\log_2\), misst man Entropie in "Nats" statt Bits. In der Theorie ist das gleichwertig; in der Praxis – insbesondere im maschinellen Lernen – bevorzugt man Nats.
Cross-Entropy in der KI
Große Sprachmodelle wie GPT oder Claude werden mit einem Verlustmaß trainiert, das man Cross-Entropy-Loss nennt:
Hier ist \(p\) die wahre Verteilung (z.B. das nächste richtige Wort) und \(q\) die vom Modell vorhergesagte Verteilung. Das Modell lernt, indem es \(\mathcal{L}\) minimiert – und dieses \(\mathcal{L}\) steckt voller \(\ln\), also voller e.
Wenn Sie also in einem LLM (wie dem, das diesen Text mitformatiert haben mag) einen Gedanken formulieren, dann läuft tief im Modell Millionen Mal pro Training-Schritt eine Berechnung, bei der e im Nenner steht. Euler hätte das gefällt.
Wer den Post über Emergenz in Sprachmodellen gelesen hat, findet dort die Verbindung zwischen Cross-Entropy und dem Entstehen komplexer Sprachfähigkeiten.
Warum natürlicher Logarithmus?
Man könnte Entropie auch mit \(\log_2\) messen. Aber dann wäre überall ein Faktor \(\ln 2 \approx 0{,}693\) im Weg. Der natürliche Logarithmus ist die "richtige" Basis, weil er die Ableitung \(\frac{d}{dx} \ln x = 1/x\) ohne Vorfaktoren liefert – und damit alle Optimierungen übersichtlich bleiben.
Shannon-Entropie \(H = -\sum p_i \ln p_i\) und der Cross-Entropy-Loss moderner KI sind beide in Nats (Basis e) formuliert, weil der natürliche Logarithmus keine Korrekturfaktoren erzeugt.
Kapitel 9
Stirlings Formel
Hier ist eine Überraschung: e erscheint auch in Fakultäten. Die Fakultät \(n!\) (sprich: "n Fakultät") ist das Produkt aller natürlichen Zahlen von 1 bis n. Sie wächst unglaublich schnell: \(10! = 3.628.800\), \(20! \approx 2{,}43 \times 10^{18}\), \(100! \approx 9{,}33 \times 10^{157}\).
James Stirling entwickelte 1730 eine erstaunliche Approximation:
Schauen Sie sich das an: Drei der wichtigsten Konstanten der Mathematik tauchen auf – \(e\), \(\pi\) und \(\sqrt{2\pi}\). Woher kommt \(e\)? Aus dem \((n/e)^n\)-Term. Woher kommt \(\pi\)? Aus der Gauß'schen Glockenkurve (genauer: aus dem Wallis-Produkt bzw. dem Gauss-Integral \(\int_{-\infty}^\infty e^{-x^2}\,dx = \sqrt{\pi}\)).
Wie gut ist die Approximation?
Für \(n = 10\): Stirling liefert \(\sqrt{20\pi} \cdot (10/e)^{10} \approx 3.598.696\), wohingegen \(10! = 3.628.800\). Abweichung: unter 1 %. Für \(n = 100\) ist die relative Abweichung weniger als 0{,}08 %. Für \(n \to \infty\) ist sie asymptotisch null.
Warum e in Fakultäten?
Intuitiv: \(n! = \prod_{k=1}^{n} k\). Wenn man das Logarithmiert, wird ein Produkt zur Summe: \(\ln(n!) = \sum_{k=1}^n \ln k\). Diese Summe kann man durch ein Integral approximieren: \(\int_1^n \ln x\,dx = n\ln n - n + 1 \approx n\ln n - n\). Exponenziert ergibt das \(n^n \cdot e^{-n}\) – und damit steckt e in \(n!\).
Die Stirling-Formel ist in der Kombinatorik unverzichtbar. Immer wenn man fragt: "Wie viele Möglichkeiten gibt es, \(n\) Dinge anzuordnen?" – also in der Entropieberechnung, in der statistischen Mechanik, in der Informationstheorie – braucht man Fakultäten, und damit Stirling, und damit e.
\(n! \approx \sqrt{2\pi n}\cdot(n/e)^n\) – Stirlings Formel zeigt, dass e (und \(\pi\)!) tief in der Struktur von Fakultäten stecken, weil Logarithmieren Produkte in Summen umwandelt, die sich durch \(e^{-n}\) ausdrücken lassen.
Kapitel 10
Warum e und nicht 2 oder 3 oder \(\pi\)?
Wir haben e jetzt in zwölf Kontexten gesehen. Aber eine Frage blieb bisher unbeantwortet: Warum e und nicht eine andere Zahl? Was macht e so besonders, dass die Natur sie immer wieder bevorzugt?
Jede Exponentialfunktion ist e hoch etwas
Das erste Argument ist rein algebraisch. Jede Exponentialfunktion mit beliebiger Basis lässt sich durch e ausdrücken:
Beispiele: \(2^x = e^{x \ln 2}\), \(10^x = e^{x \ln 10}\), \(\pi^x = e^{x \ln \pi}\). Das bedeutet: e liegt immer im Kern jeder Exponentialfunktion. Man kann es verstecken, aber nicht loswerden.
Deshalb ist jede Differential-gleichung der Form \(y' = y\) (mit \(a^x\) statt \(e^x\)) letztlich eine Gleichung über e – nur mit einem Skalierungsfaktor im Exponenten. e ist nicht eine Basis unter vielen; sie ist die natürliche Basis, von der alle anderen Basen abhängen.
Die tiefste Antwort: Proportionaliät und Stetigkeit
Stellen Sie sich eine Funktion \(f\) vor, die folgende Eigenschaft hat: Ihr Wert zu zwei Zeitpunkten addiert sich logarithmisch, aber multipliziert sich exponentiell. Das heißt:
Diese Funktionalgleichung hat – unter minimalen Stetigkeitsannahmen – genau eine Klasse von Lösungen: \(f(x) = e^{cx}\) für eine Konstante \(c\). Jede stetige Funktion, die additive Eingaben in multiplikative Ausgaben verwandelt, ist eine Exponentialfunktion zur Basis e.
Das ist der tiefste Grund. e erscheint nicht, weil Mathematiker es gerne mögen. Es erscheint, weil die Multiplikativität von Wachstum, Wahrscheinlichkeit und Energie zwingend eine bestimmte Basis erzwingt – und diese Basis ist e.
Euler's Identität: Der Abschlussakkord
Wenn wir die Exponentialreihe auf imaginäre Argumente anwenden, erhalten wir Euler's Formel:
Das ist keine Magie, sondern eine direkte Konsequenz der Exponentialreihe. Für \(\theta = \pi\) folgt die berühmteste Formel der Mathematik:
Fünf fundamentale Konstanten – \(e\), \(i\), \(\pi\), \(1\), \(0\) – in einer einzigen Gleichung. Keine der fünf wurde für diesen Zweck erfunden; sie folgten alle aus verschiedenen Richtungen und trafen sich hier.
Im Post über das Glasperlenspiel haben wir \(e^{i\theta}\) als Drehung in der komplexen Zahlenebene interpretiert – ein rotierender Zeiger, der Kosinus und Sinus als Projektionen erzeugt. Das ist keine Metapher, sondern buchstäblich das, was \(e^{i\theta}\) bedeutet.
Euler's Identität ist kein isoliertes Kuriosum. Sie zeigt, dass e die Verbindung zwischen Wachstum (reelle Exponentialfunktion), Schwingung (Sinus/Kosinus) und Rotation (komplexe Zahlen) ist. Alle drei Phänomene – so verschieden sie wirken – sind Aspekte derselben Funktion.
e ist die Universalbasis, weil sie als einzige stetige Lösung der Funktionalgleichung \(f(x+y) = f(x)\cdot f(y)\) fungiert – und Euler's Identität zeigt, dass Wachstum, Schwingung und Rotation nur drei Gesichter derselben Exponentialfunktion sind.
Epilog
Die Zahl, die überall wartet
Wir haben e jetzt durch zehn Kapitel verfolgt. In den Zinsen des Bankiers Bernoulli. In der Ableitung, die sich selbst zurückgibt. Im Zerfall des C-14 und im Abkühlen des Kaffees. In der unheimlichen Dünne der Primzahlen um große Zahlen herum. Im chaotischen Durcheinander der Hüte und in der kühlen Strategie des Sekretärinnproblems. In der hängenden Kette, die Gaudí umkehrte, und im Boltzmann-Faktor, der festlegt, wie Natur Energie verteilt. In Shannon's Entropie und im Verlust, den KI-Modelle täglich minimieren. Und in Stirlings Formel, die zeigt, dass selbst Fakultäten nicht ohne e auskommen.
Was ist e? Es ist keine Kreiszahl wie \(\pi\), entstanden aus einer geometrischen Anschauung. Es ist keine logische Notwendigkeit wie \(i\), entstanden aus einer Gleichung ohne Lösung. e entstand aus einer pragmatischen Frage über Zinseszins – und entpuppte sich als das Fundament unter den meisten veränderlichen Prozessen, die wir kennen.
Der rote Faden durch alle Kapitel war eine einzige Gleichung:
Die Änderungsrate ist proportional zum Zustand. Das ist keine obskure Differenzialgleichung – das ist die mathematische Formulierung von Proportionalität selbst. Und e ist die Antwort. Nicht weil Mathematiker sie gewählt haben, sondern weil sie die einzig konsistente Lösung ist.
Es gibt etwas leicht Verrückendes an dieser Erkenntnis. Die Zahl, die Bakterien verdoppelt, die Uran zerfällt, die Kaffee kühlt, die Primzahlen verteilt, die Hüte durcheinander bringt, die hängende Ketten beschreibt und die KI trainiert – sie ist dieselbe. 2,71828…
Vielleicht ist das, was Leibniz mit seiner ars combinatoria meinte und Hesse im Glasperlenspiel träumte: dass hinter den verschiedenen Sprachen der Disziplinen dieselben Muster warten. Nicht als Metapher, sondern buchstäblich. e ist einer dieser Muster – klar, präzise, unerbittlich.
Sie lauert in jedem Zinseszins-Vertrag. In jedem radioaktiven Präparat. In jeder Primzahltabelle. In jedem neuronalen Netz. Sie wartet. Sie war schon da, bevor wir sie suchten.
Häufige Fragen
Was ist Eulers Zahl e genau?
e = 2,71828182845904… ist eine irrationale und sogar transzendente Zahl. Sie ist der Grenzwert von \((1+1/n)^n\) für \(n \to \infty\) und gleichzeitig die Summe der Reihe \(\sum_{n=0}^\infty 1/n!\). Leonhard Euler prägte den Buchstaben e um 1731, obwohl die Zahl selbst von Jakob Bernoulli 1683 implizit entdeckt wurde.
Warum erscheint e in so vielen verschiedenen Gebieten?
e erscheint immer dann, wenn eine Größe sich proportional zu ihrem aktuellen Wert verändert: \(dy/dt = ky\). Das gilt für Bakterienwachstum, radioaktiven Zerfall, Abkühlung, Zinseszins und Kondensatorentladung. Zusätzlich erscheint e in der Wahrscheinlichkeitsrechnung durch die Exponentialreihe und in der Informationstheorie durch den natürlichen Logarithmus.
Was bedeutet es, dass e^x seine eigene Ableitung ist?
\(d/dx\, e^x = e^x\) bedeutet, dass die Steigung von \(e^x\) an jedem Punkt gleich dem Funktionswert selbst ist. Das macht \(e^x\) zur Eigenfunktion des Differenzierungsoperators mit Eigenwert 1 – die einzige Funktion mit dieser Eigenschaft (bis auf Skalierung). Jede andere Basis \(a^x\) erzeugt beim Ableiten einen Korrekturfaktor \(\ln a\).
Was hat e mit Primzahlen zu tun?
Der Primzahlsatz besagt, dass die Anzahl der Primzahlen bis \(x\) asymptotisch gleich \(x/\ln x\) ist. Der natürliche Logarithmus (Basis e) erscheint, weil Primzahlen auf logarithmischer Skala gleichmäßig verteilt sind. Die Wahrscheinlichkeit, dass eine zufällig gewählte Zahl um \(n\) eine Primzahl ist, beträgt ungefähr \(1/\ln n\).
Was ist Euler's Identität und warum gilt sie als schönste Formel der Mathematik?
\(e^{i\pi} + 1 = 0\) verbindet die fünf fundamentalsten Konstanten der Mathematik: e (natürliche Basis), i (imaginäre Einheit), \(\pi\) (Kreiszahl), 1 (multiplikatives Einselement) und 0 (additives Einselement). Sie folgt direkt aus der Exponentialreihe: \(e^{ix} = \cos x + i\sin x\), eingesetzt für \(x = \pi\). Alle fünf Konstanten wurden unabhängig voneinander entdeckt und treffen sich in dieser einen Gleichung.