Singulärwertzerlegung < Lin. Gleich.-systeme < Numerik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 15:47 Mo 06.12.2004 | Autor: | Bastiane |
Hallo!
Ich soll diesmal die Singulärwertzerlegungn [mm] A=USV^T [/mm] von A bestimmen.
[mm] A=\pmat{1 & 1 \\ \wurzel 2 & 0 \\ 0 & \wurzel 2}
[/mm]
Wenn ich das nun richtig verstanden habe, dann stehen bei S auf der Diagonalen genau die Wurzeln der Eigenwerte von [mm] A^T [/mm] A. Ich habe also berechnet: [mm] A^T A=\pmat{3 & 1 \\ 1 & 3} [/mm]
[mm] CP(A)=8-6\lambda+\lambda^2
[/mm]
[mm] \lambda_1=4, \lambda_2=2
[/mm]
Somit erhalte ich [mm] S=\pmat{\wurzel 4 & 0 \\ 0 & \wurzel 2}
[/mm]
Meine Frage nun: Ist das soweit richtig? In Büchern lese ich, dass man wegen der Kondition lieber mit eine QR-Zerlegung usw. rechnen soll. Aber gilt das auch für diese kleine Beispielmatrix? Wenn nicht, wie erhalte ich jetzt U und V?
Viele Grüße
Bsatiane
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 00:33 Mi 08.12.2004 | Autor: | Bastiane |
Hallo Stefan!
> > [mm]A=\pmat{1 & 1 \\ \wurzel 2 & 0 \\ 0 & \wurzel 2}
[/mm]
> >
>
> > Wenn ich das nun richtig verstanden habe, dann stehen bei
> S
> > auf der Diagonalen genau die Wurzeln der Eigenwerte von
> [mm]A^T[/mm]
> > A.
>
>
>
> > Ich habe also berechnet: [mm]A^T A=\pmat{3 & 1 \\ 1 & 3}[/mm]
>
>
>
>
> > [mm]CP(A)=8-6\lambda+\lambda^2
[/mm]
> > [mm]\lambda_1=4, \lambda_2=2
[/mm]
>
>
>
> > Somit erhalte ich
> > [mm]S=\pmat{\wurzel 4 & 0 \\ 0 & \wurzel 2}
[/mm]
>
> , also: [mm]S= \begin{pmatrix} 2 & 0 \\ 0 & \wurzel{2} \end{pmatrix}[/mm].
>
>
> > Meine Frage nun: Ist das soweit richtig?
>
>
>
So sind mir die Aufgaben ja am liebsten: wenn ich schon was rechnen konnte, und du nur dein oder dahintersetzen musst... (und dann noch ein bisschen weiterhelfen)
> > wie erhalte ich
> > jetzt U und V?
>
> Du bestimmtst zunächst eine Orthonormalbasis [mm]\{v_1,v_2\}[/mm],
> bestehend aus Eigenvektoren von [mm]A^TA[/mm]. Dies ist hier
> einfach, da du zwei verschiedene Eigenwerte hast (die
> beiden Eigenvektoren sind dann automatisch orthogonal).
Also, ich erhalte da:
[mm] V=\pmat{\bruch{1}{\wurzel 2} & \bruch{1}{\wurzel 2} \\ \bruch{1}{\wurzel 2} & -\bruch{1}{\wurzel 2}}
[/mm]
Macht man das immer so? Wenn man weiß, dass die Matrix orthogonal sein soll, dann einfach eine ONB bestimmen und schon hat man die Matrix? (Ich hoffe, du brauchst hier wieder nur dein hinzusetzen...) Aber gibt es denn vielleicht eine kurze Erklärung dafür, warum die beiden Eigenvektoren dann automatisch orthogonal sind?
> Weiterhin gilt:
>
> [mm]u_1 = \frac{1}{2} Av_1[/mm],
> [mm]u_2 = \frac{1}{\sqrt{2}} Av_2[/mm].
>
Also, das hat auch gedauert, bis ich wirklich wusste, warum das gilt... Aber jetzt weiß ich es.
Ich erhalte hier:
[mm] u_1=\vektor{\bruch{1}{\wurzel 2} \\ \bruch{1}{2} \\ \bruch{1}{2}} [/mm] und [mm] u_2=\vektor{0 \\ \bruch{1}{\wurzel 2} \\ -\bruch{1}{\wurzel 2}}
[/mm]
> Nun musst du [mm](u_1,u_2)[/mm] noch zu einer Orthonormalbasis von
> Eigenwerten der Matrix [mm]AA^T[/mm] ergänzen. Wähle dazu einfach
> einen Vektor [mm]\tilde{u_3}[/mm] aus dem Kern von [mm]AA^T[/mm] (durch Lösen
> des homogenen Linearen Gleichungssystems [mm]AA^Tx=0[/mm]) und
> normiere diesen zu einem Vektor [mm]u_3[/mm]. Schreibe dann die drei
> Vektoren [mm]u_1[/mm], [mm]u_2[/mm] und [mm]u_3[/mm] als Spalten in deine Matrix [mm]U[/mm].
Mmh, hier habe ich zuerste einfach mal gemacht, was du gesagt hast. Aber als ich am Ende gucken wollte, ob bei [mm] USV^T [/mm] wirklich wieder A herauskommt, hatte ich das Problem, dass ich das gar nicht multiplizieren kann!? [mm] SV^T [/mm] ging noch, aber das war dann eine [mm] 2\times2-Matrix, [/mm] und U war so ja eine [mm] 3\times3-Matrix!?
[/mm]
Naja, dann habe ich mir nochmal überlegt, wie du auf [mm] u_1 [/mm] und [mm] u_2 [/mm] gekommen bist. Da bin ich dann zu dem Schluss gekommen, dass ich doch U einfach durch Umformen der Gleichung [mm] A=USV^T [/mm] erhalten kann, oder? Das sieht dann so aus:
[mm] A=USV^T
[/mm]
[mm] \gdw
[/mm]
[mm] U=AVS^{-1}
[/mm]
oder habe ich hier etwas falsch gemacht?
Jedenfalls erhalte ich dann für U:
[mm] U=\pmat{\bruch{1}{\wurzel 2} & 0 \\ \bruch{1}{2} & \bruch{1}{\wurzel 2} \\ \bruch{1}{2} & -\bruch{1}{\wurzel 2}}
[/mm]
(Ich hoffe, ich habe mich hier jetzt nicht vertippt...)
Jedenfalls entspricht das auch genau dem, was ich da oben für [mm] u_1 [/mm] und [mm] u_2 [/mm] berechnet habe. Wofür brauche ich hier noch einen dritten Basisvektor?
Ich kann mir ja eigentlich kaum vorstellen, dass du dich bei so einer Aufgabe vertust, aber ich würde sagen, die Aufgabe ist hiermit gelöst, oder? (Sofern ich mich nicht irgendwo verrechnet habe, aber es kommt ja ganz gut hin! )
Also, falls man doch noch den dritten Vektor braucht, müsstest du mir mal erklären, wieso man ihn so bekommt, und vor allem wie ich das dann am Ende multiplizieren soll...
Viele Grüße
Christiane
Ach ja, und danke natürlich!
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 07:32 Mi 08.12.2004 | Autor: | Stefan |
Liebe Christiane!
Es ist alles in Ordnung so, jetzt. Ich habe mir die Aufgabe nur im Kopf überlegt, ohne Stift und Papier, und da kann es schon mal passieren, dass man sich mit den Dimensionen vertut. Ich verbessere meine alte Antwort gleich.
Liebe Grüße
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 01:26 Mi 08.12.2004 | Autor: | Bastiane |
Hallo nochmal!
Ich habe jetzt für Teil b der Aufgabe noch die Pseudoinverse von A berechnet, und zwar auf zwei Weisen. Da hier Rang(A)=2 kann ich doch die Definition [mm] A^{+}=(A^{T} A)^{-1}A^{T} [/mm] nehmen, oder?
Und im Skript habe ich noch gefunden (als ich mich gewundert hatte, warum ich überhaupt die Singulärwertzerlegung bestimmen sollte, wenn ich sie jetzt nicht mal benutze):
[mm] A^{+}=VS^{+} U^{T}
[/mm]
wobei S^+= [mm] (\sigma_1^{-1},...,\sigma_p^{-1},0,...,0)
[/mm]
Na, immerhin kommt bei mir beide Male das Gleiche raus. Wenn du Zeit hast, könntest du es kurz nachrechnen? Oder habe ich vielleicht wieder irgendetwas falsch gemacht?
Ich erhalte jedenfalls:
[mm] A=\pmat{\bruch{1}{4} & \bruch{3}{4\wurzel2} & -\bruch{1}{4\wurzel2} \\ \bruch{1}{4} & -\bruch{1}{4\wurzel2} & \bruch{3}{4\wurzel2}}
[/mm]
Und für das lineare Ausgleichsproblem [mm] ||Ax-b||_2 \to [/mm] min erhalte ich für [mm] x^{*}:
[/mm]
[mm] x^{*} [/mm] = [mm] \vektor{\bruch{1+\wurzel2}{4} \\ \bruch{1+\wurzel2}{4}} \approx \vektor{0,6 \\ 0,6}
[/mm]
Stimmt das?
Viele Grüße
Christiane
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 07:39 Mi 08.12.2004 | Autor: | Stefan |
Liebe Christiane!
> Ich habe jetzt für Teil b der Aufgabe noch die
> Pseudoinverse von A berechnet, und zwar auf zwei Weisen. Da
> hier Rang(A)=2 kann ich doch die Definition [mm]A^{+}=(A^{T} A)^{-1}A^{T}[/mm]
> nehmen, oder?
> Und im Skript habe ich noch gefunden (als ich mich
> gewundert hatte, warum ich überhaupt die
> Singulärwertzerlegung bestimmen sollte, wenn ich sie jetzt
> nicht mal benutze):
> [mm]A^{+}=VS^{+} U^{T}
[/mm]
> wobei S^+=
> [mm](\sigma_1^{-1},...,\sigma_p^{-1},0,...,0)
[/mm]
>
> Na, immerhin kommt bei mir beide Male das Gleiche raus.
> Wenn du Zeit hast, könntest du es kurz nachrechnen? Oder
> habe ich vielleicht wieder irgendetwas falsch gemacht?
> Ich erhalte jedenfalls:
> [mm]A=\pmat{\bruch{1}{4} & \bruch{3}{4\wurzel2} & -\bruch{1}{4\wurzel2} \\ \bruch{1}{4} & -\bruch{1}{4\wurzel2} & \bruch{3}{4\wurzel2}}
[/mm]
> Und für das lineare Ausgleichsproblem [mm]||Ax-b||_2 \to[/mm] min
> erhalte ich für [mm]x^{*}:
[/mm]
> [mm]x^{*}[/mm] = [mm]\vektor{\bruch{1+\wurzel2}{4} \\ \bruch{1+\wurzel2}{4}} \approx \vektor{0,6 \\ 0,6}
[/mm]
>
> Stimmt das?
Keine Ahnung. Wenn du mir sagst. was b ist, kann ich es auch nachrechnen.
Liebe Grüße
Stefan
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 10:53 Mi 08.12.2004 | Autor: | Stefan |
Liebe Christiane!
Stefan
|
|
|
|