Diskussion:Gauß-Seidel-Verfahren

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 2 Jahren von 2A02:810A:BC0:C00:B85D:A707:F0E2:DE7E in Abschnitt Fehlerteufel?
Zur Navigation springen Zur Suche springen

Konvergenz

[Quelltext bearbeiten]

Warum hängt die Konvergenzgeschwindigkeit von der Nummerierung der Unbekannten ab? Das ist wohl unnötig. Die allgemeine Aussage zur strikten Diagonaldominanz stimmt, allerdings ist die erklärende Aussage dazu schwammig und gehört zum Jacobi-Verfahren. ist hinreichend, aber nicht notwendig. bzw. wäre richtig. --(nicht signierter Beitrag von 85.216.19.6 (Diskussion) )

1.) Die Nummerierung hat schon einen Einfluss, da durch Umnummerieren die Spalten der Matrix und damit die Diagonale geändert werden. Man könnte also durch Zeilen- und Spaltenvertauchungen eine möglichst große Diagonale anstreben. Funktioniert natürlich nicht bei symmetrischen Matrizen, die dies auch bleiben sollen.
2.) Es gibt sogar einen beiden Verfahren übergeordneten Artikel, wo man sowas ansprechen könnte
Ist im Artikel nun eingebaut.--LutzL 11:48, 10. Apr. 2007 (CEST)Beantworten

Algorithmenskizze die zweite

[Quelltext bearbeiten]
  • Was ist der Sinn der Zeile ?
  • Schlage vor einfach
bis

zu schreiben. --Khong 19:52, 13. Apr. 2008 (CEST)Beantworten

Hi, ursprünglich wurde der Algorithmus ohne die Schritt-Indizierung aufgeschrieben, dann meinte jemand mal, irgendwo das m anbringen zu müssen, und das wurde dann immer weiter verschlimmbessert. Korrekt als Algorithmus wäre
m=0, wiederhole
für bis
nächstes
bis
mit der Bemerkung, dass „neu“ und „alt“ sich auf den Wert der Variablen beziehen, die Variablen im Computerspeicher aber identisch sind.
Der Sinn dieses Algorithmus ist es, die Berechnung ohne zusätzlichen Speicherplatz durchzuführen, deshalb wäre es kontraproduktiv, eine Kopie des alten Vektors zu erzeugen.--LutzL 12:00, 14. Apr. 2008 (CEST)Beantworten

Wie soll denn bei jemals der Fehler kleiner als der Startfehler werden? (nicht signierter Beitrag von 72.85.134.162 (Diskussion) 02:54, 18. Jun. 2010 (CEST)) Beantworten

Weil die Variablen sich ändern und die Matrix als diagonaldominant vorausgesetzt ist, was Konvergenz garantiert? fehler enthält den max-Abstand zwischen den x-Vektoren zwischen zwei Durchläufen. Konvergiert das Verfahren, so wird x stationär und die Schrittweite in fehler geht gegen Null. Man könnte natürlich auch den Fehler in den linearen Gleichungen messen, was aber zusätzliche Schritte im Algorithmus erfordert.--LutzL 13:13, 18. Jun. 2010 (CEST)Beantworten
Haha, wie lange schon hat keiner mehr den Artikel angeschaut? Die Variable wächst monoton mit jeder Iteration, also terminiert der hier dargestellte Algorithmus entweder schon nach der ersten Iteration oder nie. Jedenfalls, wenn wir die Funktion als diejenige Funktion verstehen, welche von 2 reellen Zahlen die größere liefert. 178.26.239.211 21:14, 17. Dez. 2012 (CET)Beantworten

Voraussetzungen

[Quelltext bearbeiten]

Sollte nicht vor dem Algorithmus kurz darauf hingewiesen werden, das A symmetrisch positiv definit bzw. das Zeilen oder Spaltensummenkriterium erfüllen muss damit der Algorithmus für beliebige Startwerte konvergiert? -- 92.228.205.184 12:44, 14. Feb. 2010 (CET)Beantworten

Nein, da beides nur hinreichende Konvergenzkriterien, es gibt ja auch andere Matrizten für die das Verfahren konvergiert. Ganz davon ab ist die Konvergenz unter Gauß-Seidel-Verfahren#Diagonaldominanz_und_Konvergenz beschrieben. --P. Birken 16:54, 14. Feb. 2010 (CET)Beantworten

Beispiele

[Quelltext bearbeiten]

Wie wäre es, wenn jemand der diesen Artikel pflegt die Beispiele aus dem englischsprachigen Artikel übernimmt? Gerade das in Gleichungssystemform erleichtert das Verständnis des ganzen doch erheblich wie ich finde. (nicht signierter Beitrag von 129.13.72.198 (Diskussion) 10:46, 13. Apr. 2011 (CEST)) Beantworten

Gaußsches Eliminationsverfahren ist für Rundungsfehler sehr anfällig?

[Quelltext bearbeiten]

Die Behauptung im ersten Absatz ist einfach falsch: Entwickelt wurde das Verfahren, da das Gaußsche Eliminationsverfahren, ein exakter Löser, für Rundungsfehler sehr anfällig ist. Eine iterative Vorgehensweise hat diesen Nachteil nicht.

Die worst case Fehlerschranken sind zwar wirklich katastrophal und werden für bestimmte Matrizen auch erreicht. Im Normalfall ist die Gausselimination jedoch extrem gutartig und überhaupt nicht anfällig für Rundungsfehler. Es wird im HPC-Bereich auch für wirklich riesige Matrizen eingesetzt.

Gauss hat die Iteration bevorzugt, weil sie wesentlich weniger Arbeit macht - nicht weil sie fehleranfälliger ist.

Was die Iteration vor allem bei Handrechnung auszeichnet ist die Eigenschaft, dass ein Rechenfehler (nicht Rundungsfehler) in nachfolgenden Iterationen automatisch korrigiert wird.

So gehört das in den Artikel! ==Brf 10:39, 24. Jul. 2013 (CEST)

Ja, es waren natuerlich Rechenfehler, nicht Rundungsfehler an der Stelle gemeint. Ich habs korrigiert, danke fuer den Hinweis! --P. Birken (Diskussion) 16:57, 24. Jul. 2013 (CEST)Beantworten

Fehlerteufel?

[Quelltext bearbeiten]

"Das Verfahren konvergiert linear, wenn der Spektralradius der Iterationsmatrix T= −((D+L)^−1)*U kleiner 1 ist." - steht in der aktuellen Version, bzw. auch im "Iterationsschritt" darüber. Aber diese Matrix ist offensichtlich immer Null. Ich weiß nicht, wie die Formel richtig lauten sollte, da es verschiedene Algorithmen hierfür gibt. (nicht signierter Beitrag von 2A02:810A:BC0:C00:B85D:A707:F0E2:DE7E (Diskussion) 22:59, 30. Jul. 2021 (CEST))Beantworten