\(\newcommand {\LATEXunderbrace }[1]{\underbrace {#1}}\)
\(\newcommand {\LATEXoverbrace }[1]{\overbrace {#1}}\)
Lineares Iterationsverfahren: Um ein LGS zu lösen, kann man es mithilfe einer invertierbaren Matrix in der Form
schreiben. Die Rekursion
definiert dann ein lineares Iterationsverfahren, das als Fixpunkt die Lösung des LGS hat. Für eine schnelle Konvergenz sollte die Inverse von möglichst gut
approximieren. Gleichzeitig müssen für ein effizientes Verfahren Produkte mit einfach berechenbar sein.
Näherungsfehler eines linearen Iterationsverfahrens: Für den Fehler der -ten Näherung eines linearen Iterationsverfahrens
mit der Rekursion und dem Fixpunkt gilt
Die Iteration konvergiert für jeden Startwert gegen den Fixpunkt genau dann, wenn der Spektralradius von
(also der Betrag des betragsmäßig größten Eigenwerts) kleiner als ist.
Der Spektralradius ist außerdem auch ein Maß für die Konvergenzrate, also für die im Mittel zu erwartende Fehlerreduktion pro Iterationsschritt. Je kleiner ist, desto schneller konvergiert das
Verfahren.
Für den Spektralradius gilt im Übrigen für jede induzierte Matrixnorm
(man setze einfach einen Eigenvektor zum Spektralradius ein).
Jacobi-Verfahren: Ein elementares lineares Iterationsverfahren für ein LGS ist das Jacobi-Verfahren. Bei
diesem wird die Diagonale von als Approximation von verwendet. Ein Schritt des Jacobi-Verfahrens
hat also die Form
mit und . Ein hinreichendes Kriterium für die Konvergenz des Jacobi-Verfahrens ist, dass die Koeffizientenmatrix diagonal
dominant ist, d. h.
Gauß-Seidel-Verfahren: Das Gauß-Seidel-Verfahren für ein LGS entsteht aus dem Jacobi-Verfahren, indem man den Näherungsvektor elementweise neu bestimmt und
für die Berechnung der -ten Komponente der nächsten Näherung bereits die neuen Daten der ersten Komponenten verwendet.
Dies entspricht einer Auteilung der Matrix in eine Diagonalmatrix , eine linke Dreiecksmatrix und eine rechte Dreiecksmatrix .
Ein Iterationsschritt hat somit die Form
Dabei muss die Iterationsmatrix nicht explizit neu berechnet werden. Für eine -Matrix ist nämlich
Bei der sukzessiven Ausführung der Operationen kann auch gesetzt werden. Die Vektorelemente werden dann automatisch in der gewünschten Weise überschrieben. Wie das Jacobi-Verfahren konvergiert auch das Gauß-Seidel-Verfahren für diagonal dominante Matrizen
. Darüber hinaus konvergiert es auch für symmetrische, positiv definite Matrizen .
Relaxation: Bei einem Iterationsverfahren kann man versuchen, die Konvergenz durch eine sogenannte Relaxation zu beschleunigen. Dazu wird in der Iterationsvorschrift ein
zusätzlicher Parameter eingeführt und das neue Folgenglied auf der durch und verlaufenden Gerade gewählt:
Für erhält man das ursprüngliche Iterationsverfahren.
Für spricht man von Überrelaxation und für von Unterrelaxation.
sukzessive Überrelaxation (SOR): Berechnet man beim Gauß-Seidel-Verfahren die einzelnen Komponenten sukzessive, so
kann man die Relaxation in jedem Teilschritt anwenden. Das so entstehende Verfahren heißt sukzessive Überrelaxation oder SOR (successive over-relaxation). Die Iterationsvorschrift hat die Form
wobei die Aufteilung der Matrix in den linken, diagonalen und rechten Anteil ist.
Führt man zwei SOR-Schritte durch, wobei beim ersten Schritt die Komponenten in der Reihenfolge und beim zweiten Schritt in der umgekehrten Reihenfolge berechnet werden, so erhält
man das SSOR-Verfahren (symmetric SOR). Dabei ist nur die Behandlung der Reihenfolge der Unbekannten symmetrisch, die Iterationsmatrix jedoch im Allgemeinen nicht. Auch die Konvergenzrate wird
i. A. nicht besser. Die Symmetrisierung wird in erster Linie bei der Vorkonditionierung des Konjugierte-Gradienten-Verfahrens verwendet.