Spektralzerlegung (Mathematik)
Die Spektralzerlegung oder spektrale Zerlegung ist in der linearen Algebra die Zerlegung einer quadratischen Matrix in eine Normalform, bei der die Matrix durch ihre Eigenwerte und Eigenvektoren dargestellt wird. Das gelingt genau dann, wenn die Matrix diagonalisierbar ist.[1]:60[2] Grundlage für die Spektralzerlegung ist der Spektralsatz, unter dessen Bedingungen die Schur-Zerlegung die gegebene Matrix in eine Diagonalmatrix transformiert. Die Spektralzerlegung ist die Darstellung der Rücktransformation als Summe von Dyaden.
Gelegentlich wird
- das Auffinden der Eigenwerte und Eigenvektoren einer Matrix oder
- die Darstellung mit unitärer Matrix und ihrer adjungierten
Spektralzerlegung von genannt. Die Diagonalmatrix mit den Eigenwerten einer -Matrix
ist die sogenannte Spektralmatrix, die das Spektrum der Matrix enthält.[3]:252
Der Wert der dyadischen Zerlegung besteht vor allem in der strikten Trennung von Geometrie (dem Vektorgerüst) und dem Eigenwertspektrum.[3]:275 Die Spektralzerlegung eines Matrizenpaares ist in der Modalanalyse von zentraler Bedeutung.
Definition
Die Zerlegung einer quadratischen -Matrix über der Grundmenge in der Form
- M = λ1 P1 + … + λn Pn
ist die Spektralzerlegung von M, wenn gilt:[1]:60
- Die λi sind die paarweise verschiedenen Eigenwerte von M.
- Die Pi sind n×n-Matrizen mit den Eigenschaften
- Pi Pj = O für i ≠ j und Pi Pj = Pi für i = j, wo O die n×n-Nullmatrix ist, und
- P1 + … + Pn = E, wo E die n×n-Einheitsmatrix ist.
- Es gibt Polynome fj mit fj(M) = Pj.
Eine solche Zerlegung existiert genau dann, wenn M eine diagonalisierbare Matrix ist. Die Matrizen Pj werden Eigendyaden oder Stützdyaden genannt.[3]:274
Die Spektralzerlegung eines n×n-Matrizenpaares K;M, M regulär, lautet[3]:274
- K = λ1 D1 + … + λn Dn = Σj λj Dj
- M = D1 + … + Dn = Σj Dj
mit den Merkmalen:
- Die λi sind die Eigenwerte des Matrizenpaares K;M, sie erfüllen det(K - λiM) = 0.
- Die n×n-Matrizen Di genügen den Bedingungen
- Di M-1 Dj = O für i ≠ j und
- Di M-1 Dj = Di für i = j.
Kriterien für Diagonalisierbarkeit
Eine quadratische n-dimensionale Matrix A heißt unitär diagonalisierbar oder diagonalähnlich, wenn
- sie eine normale Matrix ist, deren Eigenwerte Elemente ihrer Grundmenge sind, oder
- es eine Diagonalmatrix D gibt, zu der sie ähnlich ist, d. h. dass es eine reguläre Matrix S gibt, sodass S-1 AS eine Diagonalmatrix ist,[4]:344 oder
- sie n linear unabhängige Eigenvektoren besitzt,[4]:344 oder
- die algebraische und geometrische Vielfachheit für jeden Eigenwert von A übereinstimmen.[4]:344
Allgemein gilt:
- Auf der Grundmenge der komplexen Zahlen ist jede normale Matrix und jede hermitesche Matrix diagonalisierbar.
- Jede reelle symmetrische Matrix ist diagonalisierbar.[4]:345
- Eine normale Dreiecksmatrix ist eine Diagonalmatrix.
Ein reelles n×n-Matrizenpaar ist diagonalähnlich, wenn[3]:270ff
- es n verschiedene Eigenwerte besitzt oder
- es n linear unabhängige Links- und Rechtseigenvektoren besitzt oder
- für jeden der verschiedenen Eigenwerte der Rangabfall (Defekt) gleich der algebraischen Vielfachheit ist.
Diagonalähnliche Matrix
Wegen ihrer Bedeutung in der Praxis[3]:285, beschränkt sich die Darstellung auf reelle symmetrische Matrizen, die immer spektral zerlegt werden können. Des Weiteren wird der n-dimensionale Raum ℝn benutzt, in dem sich Summen, angezeigt durch Σj, immer über j = 1,…,n erstrecken.
Eigenwertproblem
Ausgangspunkt ist das Eigenwertproblem einer Matrix M
- Mû = λû, û ≠ ô
mit nicht-trivialen, vom Nullvektor ô verschiedenen Lösungen û. Der Skalar λ ist Eigenwert der Matrix M, wenn es wenigstens einen solchen Vektor û gibt.[4]:338 Die Vektoren û, die der Bedingung ersprechen, sind die zu λ gehörenden Eigenvektoren der Matrix M. Mit û ist auch jedes Vielfache von û Eigenvektor, weswegen sie oft, aber nicht notwendigerweise, auf Länge eins normiert werden. Mit der Einheitsmatrix E kann das Eigenwertproblem
- ( M - λE )û = ô, û ≠ ô
geschrieben werden. Damit nicht-triviale Lösungen des Eigenwertproblems existieren, muss die Matrix in den Klammern singulär sein:
- p(λ) := det( M - λE ) = 0
Die Nullstellen des charakteristischen Polynoms p(λ) sind die Eigenwerte, deren Gesamtheit das Spektrum und dessen betraglich größtes Element den Spektralradius der Matrix M bilden.
Diagonalisierbarkeit einer reellen symmetrischen Matrix
Der Spektralsatz besagt, dass M genau dann diagonalisiert werden kann, wenn
- sie eine normale Matrix ist, sie also mit ihrer transponierten kommutiert (M⊤M = MM⊤), und
- alle Eigenwerte zur Grundmenge gehören, hier reell sind.
Reelle symmetrische Matrizen sind normal (wegen M = M⊤ ist M⊤M = MM = MM⊤) und besitzen ausschließlich reelle Eigenwerte.[4]:345 Denn mit einem komplexen Eigenvektor û und seinem konjugiert komplex transponierten û⋆ ist zunächst
- û⋆ Mû = û⋆ λû = λû⋆ û = λ|û|2
mit dem Betragsquadrat |û|2 ∈ ℝ, > 0. Bei einer Zahl, aufgefasst als 1×1-Matrix, richtet die Transposition nichts aus, weshalb
- û⋆ Mû = (û⋆ Mû)⊤ = û⊤ Mû⋆⊤ = û⋆Mû = û⋆ Mû = û⋆ λû = λû⋆ û = λ|û|2
Der Überstrich bezeichnet den konjugiert komplexen Wert. Es ist also λ|û|2 = λ|û|2, λ reell und erwiesen, dass jede reelle symmetrische Matrix diagonalisierbar ist.
Ferner gilt:
- bei jedem Eigenwert entspricht die geometrische Vielfachheit seiner algebraischen[4]:345,
- es gibt eine Vektorraumbasis des ℝn, die aus den Eigenvektoren von M besteht[4]:343 und
- es gibt eine orthogonale Matrix Q, sodass Q⊤ MQ Diagonalgestalt besitzt.
Orthogonalität der Eigenvektoren
Die zu verschiedenen Eigenwerten gehörenden Eigenvektoren sind orthogonal zueinander, denn bei zwei Eigenwert-Eigenvektor-Paaren Mû = λû und Mŵ = ηŵ ist bei symmetrischer Matrix M
- ŵ⊤ Mû = λŵ⊤ û = (ŵ⊤ Mû)⊤ = û⊤ Mŵ = ηû⊤ ŵ = ηŵ⊤ û
was bei λ ≠ η die Orthogonalität û⊤ ŵ = ŵ⊤ û = 0 erzwingt.
Bei gleichen Eigenwerten gilt das nicht, sondern vielmehr, weil die geometrische Vielfachheit der algebraischen entspricht, dass die zu einem k-fachen Eigenwert λ gehörenden Eigenvektoren einen k-dimensionalen Unterraum bilden, den Eigenraum von λ. Bei einem doppelten Eigenwert erschaffen alle zu ihm gehörenden Eigenvektoren beispielsweise eine zweidimensionale (Hyper-) Ebene. Für die spektrale Zerlegung ist jede Orthonormalbasis des Eigenraums gleich geeignet.
Jedenfalls gibt es n paarweise orthogonale Eigenvektoren û1,…,n; diese werden auf Länge eins normiert und bilden so eine Orthonormalbasis des ℝn. Die Basisvektoren werden mit der Standardbasis ê1,…,n spaltenweise in eine Matrix Q einsortiert:
- Q = Σi ûi êi⊤
Für Q gilt dann nach Konstruktion
- Q⊤ Q = E, d. h. Q ist eine orthogonale Matrix und
- MQ = QΛ oder Λ = Q⊤ MQ, wo Λ die diagonale #Spektralmatrix ist.
Spektralzerlegung der Matrix
Bei einer reellen symmetrischen Matrix M gibt es eine orthogonale Matrix Q, sodass Λ = Q⊤MQ Diagonalgestalt besitzt.[4]:345 Die #Spektralmatrix lässt sich mit der Standardbasis ê1,…,n als Summe ausdrücken:
- Λ := diag(λ1, λ2,…, λn) = Σj λj êj êj⊤
Die Rücktransformation M = QΛQ⊤ schreibt sich mit den Spaltenvektoren ûi der Matrix Q und den Eigendyaden
- Pj = ûj ûj⊤
als Summe
- M = QΛQ⊤ = (Σi ûi êi⊤)(Σj λj êj êj⊤)(Σk êk ûk⊤) = Σj λj ûj ûj⊤ =: Σj λj Pj.
Das ist die spektrale Zerlegung der Matrix M.
Die Eigendyaden Pj genügen den Bedingungen in der #Definition:
- Pi Pj = ûi ûi⊤ ûj ûj⊤ = (ûi⊤ ûj)ûi ûj⊤ = O, wenn i ≠ j,
- Pi Pj = (ûi⊤ ûj) ûi ûj⊤ = ûi ûi⊤ = Pi, wenn j = i.
- Σi Pi = Σi ûi ûi⊤ = Σi,j ûi (êi⊤ êj)ûj⊤ = Σi,j ûi êi⊤ êj ûj⊤ = (Σi ûi êi⊤)(Σj êj ûj⊤) = QQ⊤ = E
mit der Nullmatrix O und der Einheitsmatrix E.
Anwendungen der Spektralzerlegung
Inverse einer Matrix
Mit der spektralen Zerlegung einer reellen Matrix M kann die inverse Matrix M-1 sofort angegeben werden, sofern sie existiert. Das ist genau dann der Fall, wenn die Determinante, die das Produkt der Eigenwerte λi der Matrix ist, nicht null ist, also kein Eigenwert gleich null ist. Die Inverse hat die reziproken Eigenwerte λi-1 und die gleichen Eigenvektoren wie die Matrix selbst. Mit der spektralen Zerlegung M = Σj λj Pj schreibt sich die Inverse als
- M-1 = λ1-1 P1 + … + λn-1 Pn.
Funktionswert einer Matrix
Für eine skalarwertige Funktion f(x) ∈ ℝ eines skalaren Arguments x ∈ ℝ kann der Funktionswert f(M) einer diagonalisierbaren Matrix M mit Hilfe ihrer Spektralzerlegung M = Σj λj Pj definiert werden:
- f(M) := Σj f(λj) Pj
Ist f eine mehrdeutige Funktion, wie die Wurzel, mit k alternativen Werten, dann steht f(M) mehrdeutig für kn alternative Matrizen. Die nullte Potenz der Matrix ergibt sich beispielsweise aus f(x) = x0 zur Einheitsmatrix E:
- f(M) = Σj λj0 Pj = Σj Pj = M0 = E
Bei einer Potenzreihe einer Matrix ist die spektrale Zerlegung nützlich. Soll
- p(M) := a0 E + a1 M1 +…+ aN MN
mit konstanten Koeffizienten a0,…, aN ∈ ℝ berechnet werden, kann das mit dem Polynom
- f(x) := a0 x0 + a1 x1 +…+ aN xN
und obiger Definition des Funktionswerts einer diagonalisierbaren Matrix vermöge
- p(M) = f(M) = Σj f(λj) Pj
abgekürzt werden. Die Berechnung von N k-ten Potenzen der n×n-Matrix M ist somit zurückgeführt auf eine Spektralzerlegung und die Berechnung von N k-ten Potenzen von n Skalaren.
Modalanalyse
Die mechanische Beschreibung eines ungedämpften schwingfähigen Systems, z. B. eines Masse-Feder-Systems, führt auf eine Schwingungsgleichung der Form
- Mẍ + Kx = F
Darin ist M die positiv definite Massenmatrix, K die Steifigkeitsmatrix, beide symmetrisch und reell, x der Verschiebungsvektor und ẍ der Beschleunigungsvektor, der die zweite Zeitableitung von x ist, angezeigt durch die Überpunkte. Die rechte Seite repräsentiert die Anregung des Systems, auf die es mitunter katastrophal reagiert, wenn bei einer bestimmten Frequenz, der Resonanzfrequenz, dauerhaft
- Mẍ + Kx = ô
der Nullvektor ô ist. In der Nähe der Resonanzfrequenzen, die entsprechend von großem Interesse sind, wird die Schwingung von einer Eigenschwingungsform dominiert, wo in guter Näherung x = sin(ωt)û mit konstantem û, der Eigenfrequenz ω und der Zeit t ist. Mit dem Eigenwert λ = ω2 entsteht das verallgemeinerte Eigenwertproblem
- ( K - λM )û = ô, û ≠ ô
des Matrizenpaares K;M.[3]:246ff
Diagonalähnliches Matrizenpaar
Wegen ihrer Bedeutung in der Praxis[3]:285, beschränkt sich die Darstellung auf reelle Matrizen. Des Weiteren wird der n-dimensionale Raum ℝn benutzt, weswegen sich Summen, angezeigt durch Σj, immer über j = 1,…,n erstrecken.
Verallgemeinertes Eigenwertproblem
Ausgangspunkt des verallgemeinerten Eigenwertproblems des Matrizenpaares K;M[3]:246ff ist
- ( K - λM )û = ô, û ≠ ô
mit nicht-trivialen, vom Nullvektor ô verschiedenen Lösungen û. Der Skalar λ ist Eigenwert des Matrizenpaares K;M, wenn es wenigstens einen solchen Vektor û gibt. Die Vektoren û, die die Bedingung erfüllen, sind die zu λ gehörenden Rechtseigenvektoren. Die Linkseigenvektoren ŷ genügen
- ŷ⊤ ( K - λ M ) = ô⊤, ŷ ≠ ô
Damit nicht-triviale Lösungen des Eigenwertproblems existieren, muss die Matrix in den Klammern singulär sein:
- p(λ) := det( K - λM ) = 0
Die Nullstellen des charakteristischen Polynoms p(λ) sind die Eigenwerte des Matrizenpaares K;M.
Wenn die Leitmatrix M singulär ist, dann gibt es weniger als n Eigenwerte, unter Umständen auch gar keinen. Beim Skalarpaar ist K = aM und λ = a n-facher Eigenwert.[3]:251 Hier wird von regulärer Leitmatrix M ausgegangen.
Orthogonalität der Links- und Rechtseigenvektoren
Mit den Links- und Rechtseigenvektoren ŷ bzw. û lässt sich das Eigenwertproblem auch so schreiben:[3]:251
- ŷ⊤ K = λ ŷ⊤ M, Kû = λ Mû
Zu verschiedenen Eigenwerten gehörende Links- und Rechtseigenvektoren sind bezüglich K und M orthogonal zueinander[3]:253. Denn wird das Eigenwertproblem zu zwei Eigenwert-Eigenvektor-Paaren
- ŷ⊤ K = λ ŷ⊤ M, Kû = λ Mû und ẑ⊤ K = η ẑ⊤ M, Kŵ = η Mŵ
von links und rechts mit den gegnerischen Links- bzw. Rechtseigenvektoren multipliziert, entsteht
- ŷ⊤ Kŵ = λ ŷ⊤ Mŵ = η ŷ⊤ Mŵ und ẑ⊤ Kû = λ ẑ⊤ Mû = η ẑ⊤ Mû
Bei λ ≠ η sind alle Terme notwendig null, mit der Konsequenz
- ŷ⊤ Kŵ = ŷ⊤ Mŵ = ẑ⊤ Kû = ẑ⊤ Mû = 0
und damit auch
- ẑ⊤ ( K - λ M )û = ŷ⊤ ( K - η M )ŵ = 0, wenn λ ≠ η
Zudem gilt:[3]:265
- Ist ein Eigenwert λ komplex, dann ist auch sein konjugiert komplexer Wert λ Eigenwert, und dieser hat die zu den Eigenvektoren von λ konjugiert komplexen Eigenvektoren.
- Der reale und der imaginäre Anteil eines Eigenvektors sind voneinander linear unabhängig (nicht parallel).
Diagonalisierung des Matrizenpaares
Wenn M eine reguläre Matrix ist, werden die Eigenwerte mit der Standardbasis ê1,…,n zur #Spektralmatrix
- Λ = Σj λj êj êj⊤ = diag(λ1, λ2,…,λn)
zusammengefasst. Sind zudem alle n Eigenwerte verschieden, dann gibt es zu jedem von ihnen einen Links- und einen Rechtseigenvektor. Die Linkseigenvektoren werden zeilenweise und die Rechtseigenvektoren spaltenweise in reguläre[3]:269 Modalmatrizen
- Y = Σj êj ŷj⊤ bzw. U = Σj ûj êj⊤
eingelagert. Wegen der paarweisen Orthogonalität der Links- und Rechtseigenvektoren bezüglich K und M liefern die Produkte
- L = YKU = diag( ŷj⊤ Kûj )
- N = YMU = diag( ŷj⊤ Mûj )
Diagonalmatrizen. Weil Y, M und U regulär sind, ist es auch N, und dann können die Linkseigenvektoren so skaliert werden, dass N zu einer Einheitsmatrix wird. Das leistet z. B. N selbst:[3]:269
- WKU = Λ, WMU = E mit W = N-1 Y
Das Matrizenpaar K;M ist somit diagonalähnlich.
Bei mehrfachen Eigenwerten sind L und N keine strikten Diagonalmatrizen mehr, sondern Blockdiagonalmatrizen, wo sich jeder Block auf einen Eigenwert bezieht und die Dimension seines Eigenraumes die Blockgröße bestimmt. Die zu verschiedenen Eigenwerten gehörenden Außenblöcke in L und N sind wegen der Orthogonalität der Links- und Rechtseigenvektoren bezüglich K und M Nullmatrizen.
In der Praxis interessieren zumeist allein die Rechtseigenvektoren[3]:271 und dann kann, wenn die algebraische und geometrische Vielfachheit bei jedem Eigenwert übereinstimmen, wie folgt fortgefahren werden. Die zu einem Eigenwert λ gehörenden σ Linkseigenvektoren werden zu einem σ×n-Eigenstreifen Yλ zusammengefasst und mit dem zugehörigen σ×σ-Block Nλ der Matrix N normiert: Wλ := Nλ-1 Yλ. Diese Eigenstreifen werden zur Linksmodalmatrix
- W = Σj êj ŵj⊤
zusammengestellt, mit der die Transformation auf das strikte Diagonalpaar
- WKU = Λ und WMU = E
gelingt,[3]:272 siehe auch das #Beispiel. Für die normierten Linkseigenvektoren ŵi⊤ in den Zeilen der Linksmodalmatrix W bedeutet das:
- ŵi⊤ Kûi = λi und ŵi⊤ Mûi = 1, i = 1,…,n
und die #Orthogonalität der Links- und Rechtseigenvektoren bezüglich K und M besteht auch hier:
- ŵi⊤ Kûj = ŵi⊤ Mûj = 0 falls i ≠ j.
Spektralzerlegung des Matrizenpaars
Die Identität WMU = E besagt auch, dass MU die inverse Matrix von W und WM die Inverse von U ist, und, weil eine Matrix und ihre Inverse kommutieren, ist auch MUW = UWM = E, mit der Konsequenz:[3]:273ff
- MUW = M(Σj ûj êj⊤) (Σi êi ŵi⊤) = Σj Mûj ŵj⊤ = E
Mit den Eigendyaden
- Dj := Mûj ŵj⊤ M
entsteht die Spektralzerlegung der Leitmatrix
- M = Σj Dj
Multiplikation der Gleichung WKU = Λ von links mit MU und von rechts mit WM liefert die Spektralzerlegung von K:
- K = MUΛWM = M(Σi ûi êi⊤) (Σj λj êj êj⊤) (Σk êk ŵk⊤) M = Σj λj Mûj ŵj⊤ M = Σj λj Dj
Die Eigendyaden erfüllen die Orthogonalitätsbedingungen[3]:274
sowie die Gegenstücke
- ŵk⊤ Dk = ŵk⊤ M, Dk ûk = M ûk, Dk M-1 Dk = Dk für k = 1,…,n.
Beispiel
Vorgelegt sind die Matrizen[3]:253
- und
Die charakteristische Gleichung
- p(λ) := det( K - λM ) = 90 + 42λ - 2λ2 - 2λ3 = (3 + λ)2(5 - λ)
hat die doppelte Nullstelle λ1 = -3 und die einfache λ2 = 5. Die Eigenvektoren zum ersten Eigenwert sind nicht-triviale Lösungen von ŷ⊤ Aû = 0 mit
Ihre Bestimmung erfolgt mit dem Generalschema einer Äquivalenztransformation. Dazu werden Einheitsmatrizen EL, ER und die Matrix A in einer Hypermatrix angeordnet
EL | A |
O | ER |
wo O die Nullmatrix ist und im Folgenden nicht mehr aufgeführt wird. Nacheinander werden in den Matrizen EL und A simultan Zeilen
- mit einer Zahl multipliziert,
- mit einer anderen Zeile vertauscht oder
- mit einer Zahl multipliziert zu einer anderen Zeile addiert.
Entsprechend darf mit den Spalten der Matrizen A und ER verfahren werden. Daraus wird
L | D |
R |
mit der Eigenschaft LAR = D. Die Linkseigenvektoren von A zum Eigenwert null gehören zu Nullzeilen von D und stehen links daneben zeilenweise in L und R enthält die Rechtseigenvektoren spaltenweise, und die gehören zu aus Nullen bestehende Spalten von D, siehe Äquivalenztransformation#Eigenspalten und Eigenzeilen einer singulären Matrix.
Hier entsteht aus |
|
, dem Zwischenschritt |
|
das Endergebnis
1 | 0 | 0 | 1 | 0 | 0 | D |
-3 | 1 | 0 | 0 | 0 | 0 | |
-5 | 0 | 1 | 0 | 0 | 0 | |
L | 1 | -2 | 3 | |||
R | 0 | 1 | 0 | |||
0 | 0 | 1 |
Die gelb unterlegten Nullzeilen in D weisen auf die Linkseigenvektoren
- ŷ1 = (-3 1 0 )⊤, ŷ2 = (-5 0 1)⊤
in den Zeilen von L und die zugehörigen ebenfalls gelb unterlegten Rechtseigenvektoren finden sich unter den Nullspalten von D spaltenweise in R:
- û1 = (-2 1 0 )⊤, û2 = (3 0 1)⊤
Den Links- und Rechtseigenvektor zum Eigenwert 5 bekommt man aus
dem Startpunkt |
|
und dem Endergebnis |
|
Die Eigenvektoren finden sich in der gelb unterlegten dritten Zeile und sechsten Spalte der Hypermatrix:
- ŷ3 = (-3 -6 1)⊤ und û3 = (-1 -2 1)⊤.
Damit hat man die Modalmatrizen
Das Produkt
ist eine Blockdiagonalmatrix. Hier bedeutet die Invertierung von N keinen wesentlichen Mehraufwand gegenüber der getrennten Invertierung jedes ihrer Diagonalblöcke und die Normierung der Linkseigenvektoren kann in einem Schritt erfolgen:
Mit dieser Linksmodalmatrix werden M und K diagonalisiert:
- WKU = Λ = diag(λ1,λ1,λ2) und WMU = E
Die Eigendyaden sind ausgeschrieben
und geben die spektralen Zerlegungen
Literatur
- Guido Walz (Hrsg.): Lexikon der Mathematik. 2. Auflage. Band 5 (Sed bis Zyl). Springer Spektrum Verlag, Mannheim 2017, ISBN 978-3-662-53505-9, doi:10.1007/978-3-662-53506-6.
- Spektralzerlegung einer Matrix. In: Lexikon der Mathematik. Spektrum Akademischer Verlag, Heidelberg 2017 (spektrum.de).
- R. Zurmühl, S. Falk: Matrizen und ihre Anwendungen 1. Grundlagen, Für Ingenieure, Physiker und Angewandte Mathematiker. Springer, Berlin u. a. 1997, ISBN 3-540-61436-2.
- G. Bärwolf: Höhere Mathematik für Naturwissenschaftler und Ingenieure. 3. Auflage. Springer Spektrum, 2017, ISBN 978-3-662-55021-2, doi:10.1007/978-3-662-55022-9.