Krylov-Raum und Eigenwerte < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 01:11 Do 12.07.2007 | Autor: | Burdy |
Aufgabe | Seien [mm] (\lambda_{i},v_{i}) [/mm] Eigenpaare von A, 1 [mm] \le [/mm] i [mm] \le [/mm] k und [mm] q=c_{1}*v_{1}+...+c_{k}*v_{k}
[/mm]
Zeigen Sie: Wenn alle [mm] \lambda_{j} [/mm] einfache Eigenwerte sind und alle [mm] c_{i}\not=0, [/mm] dann sind die Vektoren des Krylov-Raums [mm] K_k(A,q)=span [/mm] { [mm] q,A*q,..,A^{k-1}*q [/mm] } linear unabhängig.
Wenn s<k [mm] \lambda_{j} [/mm] verschieden sind, dann sind nur s Vektoren von [mm] K_k(A,q) [/mm] linear unabhängig. |
Hallo
Ich soll obige Aussagen beweisen, aber mir fehlt da die richtige Idee.
Die eine Aussage kann man ja im Prinzip jeweils aus der anderen folgern. Wenn für k verschiedene EW k l.u. Vektoren rauskommen, dann für s entsprechend s l.u. Vektoren und umgekehrt.
Nur seh ich da einfach nicht den Zusammenhang, dass, wenn ein Eigenwert mehrfach vorkommt die Vektoren linear abhängig werden.
Die Vektoren des Krylov-Raums sind ja [mm] A^{j}*q=\lambda_{1}^j*c_{1}*v_{1}+...+\lambda_{k}^j*c_{k}*v_{k}, (j\ge0)
[/mm]
Wenn ein (oder mehr) [mm] \lambda_{j} [/mm] da jetzt mehrmals vorkommt, wie entsteht dann eine Linearkombination, so dass k-s Vektoren linear abhängig dargestellt werden können und folglich aus span gestrichen werden können?
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
|
|
|
|
> Seien [mm](\lambda_{i},v_{i})[/mm] Eigenpaare von A, 1 [mm]\le[/mm] i [mm]\le[/mm] k
> und [mm]q=c_{1}*v_{1}+...+c_{k}*v_{k}[/mm]
> Zeigen Sie: Wenn alle [mm]\lambda_{j}[/mm] einfache Eigenwerte sind
> und alle [mm]c_{i}\not=0,[/mm] dann sind die Vektoren des
> Krylov-Raums [mm]K_k(A,q)=span[/mm]Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)
{ [mm]q,A*q,..,A^{k-1}*q[/mm]Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)
} linear
> unabhängig.
> Wenn s<k [mm]\lambda_{j}[/mm] verschieden sind, dann sind nur s
> Vektoren von [mm]K_k(A,q)[/mm] linear unabhängig.
> Die eine Aussage kann man ja im Prinzip jeweils aus der
> anderen folgern. Wenn für k verschiedene EW k l.u. Vektoren
> rauskommen, dann für s entsprechend s l.u. Vektoren und
> umgekehrt.
Hallo,
diese Argument klingt für mich noch nicht besonders schlagkräftig.
Kümmern wir uns zunächst nur um den Fall, daß man nur einfache Eigenwerte [mm] \lambda_i [/mm] vorliegen hat.
Was weiß man denn über die Eigenvektoren zu verschiedenen Eigenwerten? Sie sind ??? Na? Linear unabhängig!
Diese Unabhängigkeit ist der Schlüssel zur Aufgabe.
Sei
[mm] 0=\summe_{i=1}^{k}a_iA^{i-1}q=
[/mm]
Nun setzt Du für q die Linearkombination aus Eigenvektoren [mm] v_i [/mm] ein und verwendest
> [mm] A^{j}*q=\lambda_{1}^j*c_{1}*v_{1}+...+\lambda_{k}^j*c_{k}*v_{k}.
[/mm]
In nächsten Schritt sortierst Du so um, daß Du
[mm] 0=(...)v_1+...+(...)v_k [/mm] dastehen hast.
Nun kannst Du die lineare Unabhängigkeit der [mm] v_i [/mm] ausreizen.
Aus den Gleichungen, die Du nun erhältst, mußt Du Deine Schlüsse ziehen - das machen wir, wenn's soweit ist. (Ich hab's noch nicht aufgeschrieben, aber ich meine, daß man über Nullstellen v. Polynomen nachdenken muß.)
> Nur seh ich da einfach nicht den Zusammenhang, dass, wenn
> ein Eigenwert mehrfach vorkommt die Vektoren linear
> abhängig werden.
Das kann man gewiß besser sehen, wenn der Fall der verschiedenen Eigenwerte behandelt ist. Dann gucken wir, was sich im Falle gleicher EWe ändert.
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:30 Do 12.07.2007 | Autor: | Burdy |
Ich hau grade ein bisschen mit meinem Kopf auf den Tisch, der erste Teil war ja ziemlich offensichtlich.
Wenn ich die Linearkombination ansetze
[mm] 0=\summe_{i=1}^{k}a_{i}*A^{i-1}*q
[/mm]
[mm] =a_{1}*A^0*(c_1*v_1+...+c_k*v_k)+...+a_{k}*A^{k-1}*(c_1*v_1+...+c_k*v_k)
[/mm]
[mm] =(a_1*c_1)*v_1+...+(a_1*c_k)*v_k
[/mm]
[mm] +(a_2*c_1*\lambda_1^1)*v_1+...+(a_2*c_k*\lambda_k^1)*v_k
[/mm]
+...
[mm] +(a_k*c_1*\lambda_1^{k-1})*v_1+...+(a_k*c_k*\lambda_k^{k-1})*v_k
[/mm]
[mm] =(a_1*c_1+a_2*c_1*\lambda_1^1+...+a_k*c_1*\lambda_1^{k-1})*v_1
[/mm]
+...
[mm] +(a_1*c_k+a_2*c_k*\lambda_k^1+...+a_k*c_k*\lambda_k^{k11})*v_k
[/mm]
[mm] =c_1*(a_1*\lambda_1^0+...+a_k*\lambda_1^{k-1})*v_1
[/mm]
+...
[mm] +c_k*(a_1*\lambda_k^0+...+a_k*\lambda_k^{k-1})*v_1
[/mm]
Da die [mm] c_i [/mm] alle [mm] \not=0, [/mm] die [mm] \lambda_i [/mm] verschieden und die [mm] v_i [/mm] linear unabhängig sind müssen die [mm] a_i=0 [/mm] sein, damit die Summe 0 wird.
Wenn jetzt [mm] v_i, v_j [/mm] zum gleichen Eigenwert gehören, wird in der Linearkombination für beide der Ausdruck [mm] a_1*\lambda_i^0+...+a_k*\lambda_i^{k-1} [/mm] gleich. Aber wie kann ich daraus jetzt folgern, das ich [mm] v_i [/mm] durch eine Linearkombination der übrigen Vektoren darstellen kann und sich damit dann die Dim des Krylov-Raums verringert?
|
|
|
|
|
> Ich hau grade ein bisschen mit meinem Kopf auf den Tisch,
Wozu ein Kopf alles nützlich ist!
> der erste Teil war ja ziemlich offensichtlich.
> Wenn ich die Linearkombination ansetze
> [mm]0=
...
> [mm]=c_1*(a_1*\lambda_1^0+...+a_k*\lambda_1^{k-1})*v_1[/mm]
> +...
> [mm]+c_k*(a_1*\lambda_k^0+...+a_k*\lambda_k^{k-1})*v_1[/mm]
> Da die [mm]c_i[/mm] alle [mm]\not=0,
> [/mm] die [mm]\lambda_i[/mm] verschieden und die
> [mm]v_i[/mm] linear unabhängig sind müssen die [mm]a_i=0[/mm] sein, damit die
> Summe 0 wird.
Das kommt mir etwas verkürzt vor.
Da die [mm]\lambda_i[/mm] verschieden und die [mm]v_i[/mm] linear unabhängig sind,
muß gelten
[mm] a_1*\lambda_1^0+...+a_k*\lambda_1^{k-1}=0
[/mm]
[mm] \vdots
[/mm]
[mm] a_1*\lambda_k^0+...+a_k*\lambda_k^{k-1}=0.
[/mm]
Es hat das Polynom [mm] p(x)=a_1*x^0+...+a_k*x^{k-1} [/mm] also k Nullstellen.
Also ist es das Nullpolynom und somit sind die [mm] a_i=0.
[/mm]
Über den zweiten Teil der Aufgabe muß ich nochmal nachdenken. Ich muß mir das auf Papier aufschreiben.
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 19:33 Do 12.07.2007 | Autor: | Burdy |
> Da die [mm]\lambda_i[/mm] verschieden und die [mm]v_i[/mm] linear unabhängig sind, muß gelten
[mm]a_1*\lambda_1^0+...+a_k*\lambda_1^{k-1}=0[/mm]
[mm]\vdots[/mm]
[mm]a_1*\lambda_k^0+...+a_k*\lambda_k^{k-1}=0.[/mm]
> Es hat das Polynom [mm]p(x)=a_1*x^0+...+a_k*x^{k-1}[/mm] also k Nullstellen.
> Also ist es das Nullpolynom und somit sind die [mm]a_i=0.[/mm]
So wie ich das aufgeschrieben habe muss ich zugeben war das keine überzeugende Argumentation. Aber das mit dem Polynom hab ich jetzt nicht ganz verstanden. Ich will ja zeigen, das die k [mm] a_1*\lambda_j^0+...+a_k*\lambda_j^{k-1} [/mm] zusammen nur für [mm] a_i=0 [/mm] Null werden. Kann ich die denn dann einfach alle getrennt betrachen als Nullstellen eines Polynoms? Müsste ich nicht noch berücksichtigen, das sich welche durch Addition/Subtraktion wegheben können?
|
|
|
|
|
> > Da die [mm]\lambda_i[/mm] verschieden und die [mm]v_i[/mm] linear unabhängig
> sind, muß gelten
>
> [mm]a_1*\lambda_1^0+...+a_k*\lambda_1^{k-1}=0[/mm]
> [mm]\vdots[/mm]
> [mm]a_1*\lambda_k^0+...+a_k*\lambda_k^{k-1}=0.[/mm]
>
> > Es hat das Polynom [mm]p(x)=a_1*x^0+...+a_k*x^{k-1}[/mm] also k
> Nullstellen.
> > Also ist es das Nullpolynom und somit sind die [mm]a_i=0.[/mm]
>
> Aber das mit dem Polynom
> hab ich jetzt nicht ganz verstanden.
Hallo,
wenn es Dich später noch interessiert, erkläre ich es Dir gerne.
Ich biete Dir jetzt aber erstmal eine andere Begründung an, von der ich glaube, daß sie mehr "auf Linie" liegt.
Wir haben da oben also das GS aus k Gleichungen mit den Variablen [mm] a_1,..., a_k [/mm] zu lösen.
Aufschreiben können wir es auch so:
[mm] \pmat{ 1 & \lambda_1&\lambda_1^2&...&\lambda_1^{k-1} \\ ...\\ 1 & \lambda_k&\lambda_k^2&...&\lambda_k^{k-1}}*a=0.
[/mm]
Dies ist eine Vandermondematrix, deren Determinante [mm] \not=0 [/mm] ist, da die [mm] \lambda_i [/mm] verschieden sind.
Also hat dieses GS nur die Losung [mm] a_i=0 [/mm] für alle i.
Gruß v. Angela
|
|
|
|
|
Hallo,
nun zu der Sache mit mindestens zwei gleichen Eigenwerten:
1. Wenn zwei Paare [mm] (\lambda, [/mm] v) und [mm] (\lambda, [/mm] w) so sind, daß w ein Vielfaches von v ist, also [mm] w=\alpha [/mm] v, erhältst Du ein lin. GS mit k Variablen, welches aus weniger als k Gleichungen besteht.
2. Wenn zwei Eigenwerte gleich, aber alle Eigenvektoren linear unabhängig sind, hat man wieder wie in Teil 1 k Gleichungen mit k Variablen. Wenn Du Dir nun aber die Vandermondesche Matrix anschaust, siehst Du, daß zwei Zeilen gleich sind.
Nun mußt Du Deine Schlüsse ziehen.
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 10:26 Fr 13.07.2007 | Autor: | Burdy |
Das mit dem Polynom hab ich mir in Ruhe durch den Kopf gehen lassen und mittlerweile versteh ichs. Die Vandermonde-Matrix sagt mir leider weniger, die wurde nur mal kurz in Numerik erwähnt, aber nicht viel über die Eigenschaften ausgesagt.
Wenn man das ganze als LGS aufschreibt erhält man ja in beiden Eigenwert-Fällen (Eigenvektor verschieden/ gleich) für das System weniger l.u. Gleichungen als gesuchte Variablen hat und es ist nicht mehr lösbar. Aber das sagt mir dann ja noch nicht, dass die [mm] a_i [/mm] nicht Null sind, nur das ich sie nicht mit dem LGS bestimmen kann.
Ich kann da jetzt nicht erkennen, wie ich daraus schließen kann das für jeden doppelten Eigenwert die Dimension des aufgespannten Raumes um eins sinkt.
|
|
|
|
|
> Wenn man das ganze als LGS aufschreibt erhält man ja in
> beiden Eigenwert-Fällen (Eigenvektor verschieden/ gleich)
> für das System weniger l.u. Gleichungen als gesuchte
> Variablen hat
Richtig.
> und es ist nicht mehr lösbar.
Völlig verkehrt.
Es ist lösbar, die "Null-Lösung" löst es immer.
Es ist aber nicht eindeutig lösbar, d.h. es gibt noch andere Lösungen als die Null, d.h. in unserem Fall:
andere Lösungen als [mm] a_i=0 [/mm] für alle i.
Und wenn es eine andere Lösung gibt, ist (q,Aq, A^2q, ..., [mm] A^{k-1}q) [/mm] nicht linear unabhängig.
Daß bei s versch. Eigenwerten und (q,Aq, A^2q, ..., [mm] A^{s-1}q) [/mm] linear unabhängig ist, hast Du oben ja schon gezeigt.
Jetzt nimmst Du einen nichtverschiedenen EW dazu und zeigst mithilfe der lin.GS, daß (q,Aq, A^2q, ..., [mm] A^{s}q) [/mm] dann abhängig ist,
was zur Folge hat, daß das ganze Ding (q,Aq, A^2q, ..., [mm] A^{k-1}q) [/mm] abhängig ist.
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 12:15 Fr 13.07.2007 | Autor: | Burdy |
Stimmt natürlich, es ist noch lösbar, nur nicht eindeutig lösbar...
Ich kann dann also, ohne die Lösung zu kennen, schon mal auf Grund dessen sagen, dass es sie gibt.
Ist es dann auch richtig, dass ich dann sagen kann, dass für jede einzelne Gleichung um die das System unterbestimmt eine neue Lösung dazu kommt? Das ich also aus s<k l.u. Gleichungen für k Variablen schließen kann, das es k-s verschiedene l.u. Lösungen für das LGS gibt?
|
|
|
|
|
> Stimmt natürlich, es ist noch lösbar, nur nicht eindeutig
> lösbar...
> Ich kann dann also, ohne die Lösung zu kennen, schon mal
> auf Grund dessen sagen, dass es sie gibt.
Genau. Du weißt, daß das System eine nichttriviale Lösung hat, und hiermit hast Du dann die lineare Unäbhängigkeit gezeigt.
Wieviele nichttriviale Lsg. es gibt, ob die Dimension des Lösungsraumes 1,2,3 oder sonstwas ist, ist für die Fragestellung völlig egal.
Wichtig ist, daß die fraglichen Vektoren, sobald auch nur ein Eigenwert doppelt vorkommt, abhängig sind. Ob der Eigenwert dann dreimal vorkommt oder fünfmal, oder ob ein anderer Eigenwert siebenmal vorhanden ist, spielt hier keine Rolle mehr.
> Ist es dann auch richtig, dass ich dann sagen kann, dass
> für jede einzelne Gleichung um die das System unterbestimmt
> eine neue Lösung dazu kommt?
Anzähl der Variablen minus Rang der ergibt die Dimension des Lösungsraumes.
Aber wie gesagt, für die Aufgabe brauchst Du#s nicht.
Gruß v. Angela
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 23:25 Fr 13.07.2007 | Autor: | Burdy |
Ich hab jetzt die Lösung zusammen und sie sieht ziemlich richtig aus.
Vielen Dank für die Hilfe und das auffüllen meiner Wissenslücken
|
|
|
|