Numerik: Stabilität vs Error < eindimensional < reell < Analysis < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 13:34 Mi 01.11.2017 | Autor: | Paivren |
Hallo, hier nochmal eine andere numerische Frage.
Es geht um das Verhältnis von numerischer Stabilität gegen numerische Genauigkeit.
Bei der Eulermethode zum Lösen einer DGl
x'(t) + f(x,t)=0
diskretisiert man ja die Ableitung in jedem Schritt, bzw. bricht die Taylorserie nach der ersten Ableitung ab.
Man erhält die Iteration [mm] x_{n+1}=x_{n}-h*f(x_{n},t_{n}) [/mm] mit h als Schritt [mm] t_{i}-t_{i-1} [/mm] und [mm] x_{i}=x(t_{i})
[/mm]
In jedem Schritt macht man dann einen Fehler der Ordnung [mm] h^{2}, [/mm] und nach mehreren Schritten einen globalen Fehler der Ordnung h.
Die Genauigkeit meint also die Abweichung der numerischen Lösung von der exakten Lösung in Abhängigkeit von h.
Als Stabilität bezeichnet man die Eigenschaft, dass Störungen in der Eingangsgröße bei Anwendung des numerischen Verfahrens konstant bleiben oder kleiner werden.
Das verstehe ich so: Angenommen, die exakte Lösung zur Zeit [mm] t_{n} [/mm] sei [mm] u_{n}.
[/mm]
Habe ich einen Anfangswert [mm] x_{0} [/mm] und nach der Eulermethode bei N schritten einen Wert [mm] x_{N}, [/mm] so ist die Abweichung zwischen [mm] x_{N} [/mm] und [mm] u_{N} [/mm] von der Ordnung h, siehe oben.
Habe ich einen gestörten Anfangswert [mm] x_{0}+ [/mm] e, so erreiche ich einen gestörten Endwert [mm] x_{N}+ [/mm] F(e) mit einer Funktion F, die für [mm] n-->\infty [/mm] hoffentlich gegen 0 konvergiert.
Die Abweichung von [mm] x_{N}+F(e) [/mm] von [mm] u_{N} [/mm] ist nun natürlich anders als vorher, aber das ist auch klar, denn [mm] u_{N} [/mm] ist ja auch nicht die exakte Lösung zum gestörten Anfangswert.
Die Abweichung zur exakten Lösung des gestörten Anfangswert müsste also wieder von der Ordnung h sein.
Nun frage ich mich: Angenommen die Störung e ist der lokale Fehler nach einem Iterationsschritt. Ob der Algorithmus stabil ist, hängt maßgeblich von h ab (wobei Euler immer instabil ist). Angenommen, der Algorithmus ist instabil, der Einfluss des Fehlers e wächst für n--> [mm] \infty [/mm] über alle Maßen... Ist das dann kein Widerspruch zu der Aussage, dass die Genauigkeit der Eulermethode von der Ordnung h ist, dass bei doppelt so großem h also nur eine doppelt so große Abweichung zu erwarten ist? Wie kann das sein, wenn schon die Wirkung der ersten Störung divergieren kann?
Oder ist das alles automatisch selbstkonsistent, dass die Wirkung des Fehlers zwar explodieren kann, die Abweichung von der exakten Lösung zu x+e aber trotzdem nur von der errechneten Ordnung ist?
Ich wäre dankbar, wenn jemand meine Gedanken entwirren könnte.
mfG.
Paivren
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 21:52 Mi 01.11.2017 | Autor: | leduart |
Hallo
auch bei exakter Lösung verschwindet ja der Anfangsfehler nicht gegen 0 sondern die Lösungen laufen i.A. auseinander. wie stark hängt von f(x,t) ab.
aber was meinst du mit [mm] n->\infty [/mm] Wert an einer festen Stelle und h gegen 0, oder festes h und t gegen [mm] \infty?
[/mm]
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 23:15 Mi 01.11.2017 | Autor: | Paivren |
Wie meinst du das, die exakten Lösungen gehen auseinander?
Wenn ich die DGL exakt löse und einmal mit gestörten Eingangsgrößen exakt löse, dann driften die beiden exakten Lösungen für große Zeiten t auseinander?
[mm] n-->\infty [/mm] meint unendlich viele Iterationsschritte also praktisch [mm] t-->\infty.
[/mm]
Also n ist die Anzahl der Iterationsschritte.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 00:52 Do 02.11.2017 | Autor: | leduart |
Hallo
einfachstes Beispiel
y'=y , y(0)=1, [mm] y=e^x
[/mm]
y'=y , y(0)=1+|epsilon [mm] y=(1+\epsilon)*e^x [/mm]
Differenz der 2 Funktionen [mm] \epsilon*e^x [/mm] geht gegen [mm] \infty [/mm] für x gegen [mm] \infty, [/mm] egal wie klein [mm] \epsilon.
[/mm]
umgekehrt bei y'=-y da gehen die Differenzen gegen 0
beides passiert auch, wenn du numerisch integrierst.
aber numerische Integration wird ja nur in sehr endlichen Gebieten benutzt.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 19:28 Fr 03.11.2017 | Autor: | Paivren |
Hallo Leudart,
danke, so verstehe ich die Aussage!
Das heißt, dass die numerische Stabilität nicht nur von dem Verfahren, sondern auch von den betrachteten Funktionen abhängt, im Gegensatz zur numerischen Genauigkeit, welche nur vom Verfahren abhängt, richtig?
Aber eine Sache ist mir noch nicht klar. Ich zitiere nochmal einen Abschnitt aus meinem Ursprungstext. Kannst du mir sagen, ob diese Aussage richtig ist?
Angenommen [mm] u_{N} [/mm] sei die exakte Lösung zur Zeit [mm] t_{N}, [/mm] also zur Zeit, die ich mit meinem numerischen Verfahren nach N-maliger Iteration erreiche. Angenommen der numerische Fehler des Verfahrens sei von Ordnung [mm] h=t_{i}-t_{i-1}.
[/mm]
"Habe ich einen gestörten Anfangswert [mm] x_{0}+ [/mm] e, so erreiche ich einen gestörten Endwert [mm] x_{N}+ [/mm] F(e) mit einer Funktion F, die für [mm] N-->\infty [/mm] hoffentlich gegen 0 konvergiert.
Die Abweichung von [mm] x_{N}+F(e) [/mm] von [mm] u_{N} [/mm] ist nun natürlich anders als vorher, aber das ist auch klar, denn [mm] u_{N} [/mm] ist ja auch nicht die exakte Lösung zum gestörten Anfangswert.
Die Abweichung zur exakten Lösung des gestörten Anfangswert müsste also wieder von der Ordnung h sein."
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 11:49 Sa 04.11.2017 | Autor: | leduart |
Hallo
ja die Abweichung des numerischen Wertes vom der exakten Lösung des Problems mit geänderten Anfangswert ist von der Größenordnung
Gruß leduart
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 10:52 Mi 08.11.2017 | Autor: | Paivren |
Hallo Leudart,
ist die Stabilität denn immer selbstkonsistent mit dem numerischen Fehler?
Angenommen ich habe einen numerischen Algorithmus und eine DGL.
Die exakte Lösungsfunktion sei u(t).
Mein Startwert ist [mm] u_{0}=u(0). [/mm] Mein Algorithmus produziert eine Folge [mm] u_{0},x_{1},x_{2}... [/mm] mit [mm] x_{1}=u_{1}+\epsilon [/mm] mit dem lokalen Fehler [mm] \epsilon. [/mm]
Nun kann ich [mm] x_{1} [/mm] ja als gestörten Eingangswert auffassen für die zweite Iteration. Das Verfahren sei Instabil. Dann wächst der Einfluss von [mm] \epsilon [/mm] mit jedem Iterationsschritt und zusätzlich kommt ja immer wieder ein neuer lokaler Fehler hinzu.
Kann es bei starker Instabilität nicht dazu kommen, dass der numerische Fehler am Ende viel stärker gewachsen ist, als nur von der Ordnung h?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 15:48 Do 09.11.2017 | Autor: | leduart |
Hallo
du kannst nicht abwechselnd mit dem Fehler [mm] h^2 [/mm] und dann mit dem Fehler aus der Anfangsbedingung rechnen, der Fehler bei den schritte addiert sich zu h auf mit beliebig hohen Faktor.
Gruß leduart
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 15:30 Sa 11.11.2017 | Autor: | Paivren |
Heißt das, wenn mein Algorithmus mir die Folge [mm] u_{0},x_{1}, x_{2},...x_{N} [/mm] gibt,
dann ist der Fehler [mm] \epsilon, [/mm] gegeben durch [mm] x_{1}=u_{1}+\epsilon [/mm] von der Ordnung [mm] h^{2} [/mm] mit [mm] h=t_{i}-t_{i-1}?
[/mm]
Und nun müsste es zwei Effekte gegeben: Erstens wächst der Einfluss von Fehler [mm] \epsilon [/mm] mit jedem Iterationsschritt an (da Algorithmus instabil), zweitens kommt in jedem Schritt ein neues [mm] \epsilon_{i} [/mm] von der Ordnung [mm] h^{2} [/mm] hinzu, und nach N schritten ergibt sich [mm] x_{N}=u_{N}+\lambda [/mm] mit [mm] \lambda [/mm] von der Ordnung h?
Dann ist ja alles selbstkonsistent.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:28 So 12.11.2017 | Autor: | leduart |
Hallo
so isses
Gruß leduart
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 00:45 Mo 13.11.2017 | Autor: | Paivren |
Alles klar, vielen Dank Leduart :)
Nimms mir nicht übel, wenn ich in der nächsten Zeit nochmal durcheinander komme und hier frage!
Gruß
Paivren
|
|
|
|