Eigenwerte und Eigenvektoren mittels Vektoriteration
Für das Eigenwertproblem
Ax = λ x
werden iterativ Eigenwerte λ und zugehörige Eigenvektoren x der Matrix A berechnet.
Die Iterationsverfahren (auch bekannt als Potenzmethode) gehen zurück auf Richard von Mises und Helmut Wielandt.
Die Verfahren sind nicht geeignet zur Bestimmung komplexer Eigenwerte. Die treten aber z.B. bei symmetrischen Matrizen gar nicht auf.
Mit Hilfe von Gerschgorin-Kreisen wird die Lage der Eigenwerte abgeschätzt um daraus geeignete Spektralverschiebungen zu bestimmen.
Der jeweils gefundene Eigenwert und die Gerschgorin-Kreise zur Eigenwertabschätzung werden in der komplexen Zahlenebene dargestellt.
Will man Eigenwerte bestimmen, die keine extremale Lage haben, so kann man die inverse Vektoriteration mit Spektralverschiebung nutzen.
Macht man eine Spektralverschiebung um -v, so verschieben sich alle Eigenwerte der Matrix derart, dass nun der Eigenwert,
der ursprünglich am dichtesten an +v lag, der absolut kleinste wird und damit über die inverse Vektoriteration gefunden werden kann.
Vektoriteration
Für die Bestimmung des Eigenvektors des betragsgrößten Eigenwertes einer Matrix A kann man folgenden Algorithmus verwenden:
xn = Axn-1 / |Axn-1|
Gestartet wird mit einem Vektor x0, der Zufallszahlen enthält.
Falls das Verfahren konvergiert, konvergiert xn gegen den Eigenvektor zum betragsgrößten Eigenwert.
Der betragsgrößte Eigenwert ist dann bestimmbar mit dem sogenannten Rayleigh-Quotienten:
λmax = xTAx / (xTx)
Man muss also immer nur die Matrix mit der letzten Näherung multiplizieren und danach den Ergebnisvektor normieren.
Ist der Unterschied zwischen 2 Näherungen hinreichend klein, bricht man ab.
Inverse Vektoriteration
Die Eigenvektoren der Inversen A-1 einer Matrix sind die gleichen wie die der Matrix A.
Die Eigenwerte der Inversen A-1 sind die Kehrwerte der Eigenwerte von A.
Bei der Analyse der Eigenwerte von A kann man demnach auch von der Inversen A-1 ausgehen.
Dabei entspricht nun der betragsgrößte Eigenwert von A dem betragskleinsten von A-1
und der betragskleinste Eigenwert von A entspricht dem betragsgrößten von A-1.
Folglich kann man die Vektoriteration auch nutzen um den betragskleinsten Eigenwert und den zugehörigen Eigenvektor einer Matrix zu bestimmen.
Man muss die Iteration nur mit der Inversen der jeweiligen Matrix machen und vom gefundenen Eigenwert den Kehrwert nehmen.
Spektralverschiebung
Wenn eine Matrix A die Eigenwerte λ1, λ2, λ3, ... hat,
dann hat die Matrix A - cI die Eigenwerte λ1-c, λ2-c, λ3-c, ...
Es verschieben sich demnach alle Eigenwerte um die Größe c. Die Eigenvektoren ändern sich bei dieser Spektralverschiebung nicht.
Somit kann man zur Bestimmung eines Eigenwertes, den man in der Nähe von c vermutet,
zunächst eine Matrix mit einer Spektralverschiebung um -c erzeugen und dann mit mittels der inversen Vektoriteration
den betragskleinsten Eigenwert λS dieser Matrix bestimmen.
Der gesuchte Eigenwert der ursprünglichen Matrix ist dann λS+c.
Gerschgorin-Kreise
Gemäß der Eigenwertabschätzung nach Gerschgorin gibt es Kreisscheiben in der komplexen Zahlenebene,
in deren Vereinigungsmenge alle Eigenwerte einer Matrix liegen.
Die Kreismittelpunkte sind die Diagonalelemente der Matrix.
Die Radien der Kreise bestimmen sich aus der Summe der Beträge der zugehörigen übrigen Zeilenelemente.
Alternativ kann man auch die Beträge der zugehörigen übrigen Spaltenelemente aufaddieren.