Bestimmung einzelner Eigenwerte und Eigenvektoren für Matrizen mit der Potenzmethode

Für das Eigenwertproblem

(A - λ E) u = 0

werden iterativ einzelne Eigenwerte λ und zugehörige Eigenvektoren u bestimmt.
Die Verfahren gehen zurück auf Richard von Mises und Helmut Wielandt.
Da rein reell iteriert wird, versagt das Verfahren bei komplexen Eigenwerten.
Mit Hilfe von Gerschgorin-Kreisen wird die Lage der Eigenwerte abgeschätzt um daraus geeignete Spektralverschiebungen zu bestimmen.
Der jeweils gefundene Eigenwert und die Gerschgorin-Kreise zur Eigenwertabschätzung werden in der komplexen Zahlenebene dargestellt.

Will man Eigenwerte bestimmen, die keine extremale Lage haben, so kann man die inverse Vektoriteration mit Spektralverschiebung nutzen.
Macht man eine Spektralverschiebung um -a, so verschieben sich alle Eigenwerte der Matrix derart, dass nun der Eigenwert,
der am dichtesten an +a liegt der absolut kleinste wird und damit über die inverse Vektoriteration gefunden werden kann.

Anzahl der Zeilen symmetrische Matrix
betragskleinster Eigenwert (inverse Vektoriteration)
betragsgrößter Eigenwert (Vektoriteration)
kleinster Eigenwert (Vektoriteration mit Spektralverschiebung)
größter Eigenwert (Vektoriteration mit Spektralverschiebung)
Inverse Vektoriteration mit Spektralverschiebung






Vektoriteration

Für die Bestimmung des Eigenvektors des betragsgrößten Eigenwertes einer Matrix A kann man folgenden Algorithmus verwenden:

xn = Axn-1 / |Axn-1|

Gestartet wird mit einem Vektor x0, der z.B. Zufallszahlen enthält.
Falls das Verfahren konvergiert, konvergiert xn gegen den Eigenvektor zum beragsgrößten Eigenwert.
Der betragsgrößte Eigenwert ist dann bestimmbar mit dem sogenannten Rayleigh-Quotienten:

λmax = xTAx / (xTx)

Man muss also immer nur die Matrix mit der letzten Näherung multiplizieren und danach den Ergebnisvektor normieren.
Ist der Unterschied zwischen 2 Näherungen hinreichend klein bricht man ab.

Inverse Vektoriteration

Die Eigenvektoren der Inversen A-1 einer Matrix sind die gleichen wie die der Matrix A.
Die Eigenwerte der Inversen A-1 sind die Kehrwerte der Eigenwerte von A.
Bei der Analyse der Eigenwerte von A kann man also von der Inversen A-1 ausgehen.
Dabei werden allerdings die betragsgrößten Eigenwerte von A zu den betragskleinsten von A-1
und die betragskleinsten Eigenwerte von A werden zu den betragsgrößten von A-1.
Folglich kann man die Vektoriteration auch nutzen um den betragskleinsten Eigenwert und den zugehörigen Eigenvektor einer Matrix zu bestimmen.
Man muss die Iteration nur mit der Inversen der jeweiligen Matrix machen und vom gefundenen Eigenwert den Kehrwert nehmen.

Spektralverschiebung

Wenn eine Matrix A die Eigenwerte λ1, λ2, λ3, ... hat,
dann hat die Matrix A - cE die Eigenwerte λ1-c, λ2-c, λ3-c, ...
Es verschieben sich demnach alle Eigenwerte um die Größe c.
Die Eigenvektoren ändern sich bei dieser Spektralverschiebung nicht.

Damit hat man die Möglichkeit für einen beliebigen reellen Eigenwert, den man in der Nähe von c vermutet,
zunächst mit einer Spektralverschiebung um -c eine Matrix zu erzeugen, für die der zugehörige Eigenwert dann in der Nähe von 0 liegt
und somit als hoffentlich betragskleinster mit der inverse Vektoriteration gefunden werden kann.

weitere JavaScript-Programme