Matrizengleichung < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Geben Sie eine invertierbare Matrix T mit [mm] T^{-1}AT=\pmat{ -1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 } [/mm] und berechnen Sie mit Hilfe von T den oberen linken Eintrag von A^999. |
Hi,
ich weiss nicht wie ich auf das T komme obwohl die Aufgabe so einfach scheint. Weiss nicht wie ich das umformen soll oder sonstiges. Als nächstes frag ich mich was hat das T mit A^999 zu tun und was erwarten die da für einen Trick?
Gruß,
Doc.
|
|
|
|
> Geben Sie eine invertierbare Matrix T mit [mm]T^{-1}AT=\pmat{ -1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 }[/mm]
> und berechnen Sie mit Hilfe von T den oberen linken Eintrag
> von A^999.
> Hi,
>
> ich weiss nicht wie ich auf das T komme obwohl die Aufgabe
> so einfach scheint. Weiss nicht wie ich das umformen soll
> oder sonstiges. Als nächstes frag ich mich was hat das T
> mit A^999 zu tun und was erwarten die da für einen Trick?
Hallo,
hilfreich wäre es, wenn Du uns auch das A verraten würdest...
Vorgehensweise:
A diagonalisieren, also erstmal eine Eigenbasis bestimmen, mit welcher Du dann auch die Zutaten für die Basistransformationsmatrix T hast.
Dann weißt Du [mm] A=TDT^{-1}, [/mm] wobei D die Diagonalmatrix von oben ist.
Überlege Dir, was [mm] A^{999} [/mm] mit D zu tun hat.. [mm] A^{999}= [/mm] ...
Das sollte eigentlich für erste Aktivitäten reichen.
Gruß v. Angela
|
|
|
|
|
Aua, klar also A ist [mm] \pmat{ -1 & 2 & 2 \\ 0 & 0 & 1\\ 0 & -2 & 3}
[/mm]
und ich denke das was du als Eigenbasis meinst ist genau [mm] \pmat{ -1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 }
[/mm]
|
|
|
|
|
Hallo DrNetwork,
> Aua, klar also A ist [mm]\pmat{ -1 & 2 & 2 \\ 0 & 0 & 1\\ 0 & -2 & 3}[/mm]
>
> und ich denke das was du als Eigenbasis meinst ist genau
> [mm]\pmat{ -1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 }[/mm]
Nein, du solltest A mal diagonalisieren(wenn möglich)
Berechne dazu erstmal die Eigenwerte mittels [mm] $\operatorname{det}(A-\lambda\cdot{}\mathbb{E}_3)$, [/mm] wobei [mm] $\mathbb{E}_3$ [/mm] die [mm] $3\times [/mm] 3$-Einheitsmatrix ist.
Dann jeweils Eigenvektoren dazu, die du als Spaltenvektoren in die transponierende Matrix packst ...
Schaue dir das Thema Diagonalisierung nochmal an:
Schlussendlich hast du dann $A$ geschrieben als [mm] $A=TDT^{-1}$ [/mm] mit $T$ invertierbar und $D$ die Diagonalmatrix oben in deinem ersten post (die die Eigenwerte von $A$ auf der Diagonalen hat - soviel als Kontrolltipp ).
Dann ist [mm] $A^{999}=(TDT^{-1})^{999}=TDT^{-1}TDT^{-1}TDT^{-1}\ldots TDT^{-1}$
[/mm]
Du siehst, da heben sich immer die inneren Matrixprodukte [mm] $T^{-1}T$ [/mm] weg, es bleibt ...
(Zeige vllt. mal allg. für [mm] $n\in\IN$, [/mm] dass [mm] $(TDT^{-1})^n$ [/mm] die Form .... hat - das ist eine leichte Induktionsaufgabe)
Also ...
Nun bin ich aber still ...
Gruß
schachuzipus
|
|
|
|
|
> Hallo DrNetwork,
>
> > Aua, klar also A ist [mm]\pmat{ -1 & 2 & 2 \\ 0 & 0 & 1\\ 0 & -2 & 3}[/mm]
>
> >
> > und ich denke das was du als Eigenbasis meinst ist genau
> > [mm]\pmat{ -1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 }[/mm]
>
>
> Nein, du solltest A mal diagonalisieren(wenn möglich)
Nein?
> Berechne dazu erstmal die Eigenwerte mittels
> [mm]\operatorname{det}(A-\lambda\cdot{}\mathbb{E}_3)[/mm], wobei
> [mm]\mathbb{E}_3[/mm] die [mm]3\times 3[/mm]-Einheitsmatrix ist.
Eigenwerte: -1, 1, 2
> Dann jeweils Eigenvektoren dazu, die du als Spaltenvektoren
> in die transponierende Matrix packst ...
[mm] v_1=\vektor{1 \\ 0 \\ 0}
[/mm]
[mm] v_2=\vektor{2 \\ 1 \\ 1}
[/mm]
[mm] v_3=\vektor{2 \\ 1 \\ 2}
[/mm]
|
|
|
|
|
Hallo nochmal,
> > Hallo DrNetwork,
> >
> > > Aua, klar also A ist [mm]\pmat{ -1 & 2 & 2 \\ 0 & 0 & 1\\ 0 & -2 & 3}[/mm]
>
> >
> > >
> > > und ich denke das was du als Eigenbasis meinst ist genau
> > > [mm]\pmat{ -1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 }[/mm]
> >
> >
> > Nein, du solltest A mal diagonalisieren(wenn möglich)
> Nein?
> > Berechne dazu erstmal die Eigenwerte mittels
> > [mm]\operatorname{det}(A-\lambda\cdot{}\mathbb{E}_3)[/mm], wobei
> > [mm]\mathbb{E}_3[/mm] die [mm]3\times 3[/mm]-Einheitsmatrix ist.
> Eigenwerte: -1, 1, 2
>
> > Dann jeweils Eigenvektoren dazu, die du als Spaltenvektoren
> > in die transponierende Matrix packst ...
>
> [mm]v_1=\vektor{1 \\ 0 \\ 0}[/mm]
> [mm]v_2=\vektor{2 \\ 1 \\ 1}[/mm]
>
> [mm]v_3=\vektor{2 \\ 1 \\ 2}[/mm]
Ja, und die stopfst du jetzt als Spalten in deine transformierende Matrix $T$
Also [mm] $T=\pmat{1&2&2\\0&1&1\\0&1&2}$
[/mm]
Nun schnell noch [mm] $T^{-1}$ [/mm] bestimmen und du kannst [mm] $A^{999}=(TDT^{-1})^{999}=\ldots$ [/mm] (siehe Tipp oben) berechnen ...
Gruß
schachuzipus
|
|
|
|
|
Okey den Rest dürfte ich wissen aber wieso ist T aus den Eigenvektoren aufgebaut?
|
|
|
|
|
> Okey den Rest dürfte ich wissen aber wieso ist T aus den
> Eigenvektoren aufgebaut?
Hallo,
es ist doch [mm] D=TAT^{-1}.
[/mm]
D ist die Darstellungsmatrix der durch f(x):=Ax definierten Abbildung bzgl der von Dir bestimmten Eigenbasis, denn die drei Basisvektoren werden ja gerade auf Vielfache von sich abgebildet.
Du bist hier also mitten im Thema "Darstellungsmatrizen von lin. Abbildungen bzgl. verschiedener Basen - ggf. wäre das von Dir nachzuarbeiten.
[mm] T^{-1} [/mm] ist die Matrix, die die Eigenvektoren in den Spalten enthält.
Was passiert?
Wenn ich [mm] D=TAT^{-1} [/mm] mit einem Vektor v, der in Koordinaten bzgl der Eigenbasis ist multipliziere, dann wird dieser zunächst durch [mm] T^{-1} [/mm] in einen Vektor bzgl. der Standardbasis verwandelt.
Durch die Anwendung von A erhält man sein Bild in Standardkoordinaten, welches dann anschließend durch [mm] T=(T^{-1})^{-1} [/mm] wieder in Koordinaten bzgl. der Eigenbasis verwandelt wird.
Wenn Dir klargeworden ist, daß [mm] T^{-1} [/mm] Koordinatenvektoren bzgl der Eigenbasis in solche bzgl der Standardbasis verwandelt, kannst Du die entsprechende Matrix doch mal aufstellen: in ihren Spalten stehen die Basisvektoren der Eigenbasis in Koordinaten bzgl der Standardbasis.
Gruß v. Angela
|
|
|
|
|
Ja, habs mir angeguckt, so ganz sicher bin ich mir noch nicht, nur fällt mir auf das wir zwei Schritte nicht gemacht haben.
Erstens funktioniert das nur bei symmetrischen Matrizen, richtig? Und die Basis aus den Eigenvektoren muss Orthonormal sein. War das alles gegeben?
|
|
|
|
|
Hallo,
> Ja, habs mir angeguckt, so ganz sicher bin ich mir noch
> nicht, nur fällt mir auf das wir zwei Schritte nicht
> gemacht haben.
>
> Erstens funktioniert das nur bei symmetrischen Matrizen,
> richtig?
Nein
> Und die Basis aus den Eigenvektoren muss
> Orthonormal sein.
Nein
> War das alles gegeben?
Checks doch selber ...
Ist A symmetrisch? Nein, trotzdem ist A diagonalisierbar ...
Sind die Eigenvektoren orthogonal (bzgl. des Standardskalarprodukes)? Ebenfalls nein
LG
schachuzipus
|
|
|
|
|
Ja eben. Wieso geht das trotzdem?
Vielen Dank schon ein mal an euch beide!!
|
|
|
|
|
Hallo nochmal,
> Ja eben. Wieso geht das trotzdem?
>
> Vielen Dank schon ein mal an euch beide!!
Na, du solltest dir das mit dem Diagonalisieren doch nochmal genauer ansehen.
Eine quadr. Matrix A ist diagonalisierbar, wenn für jeden Eigenwert von A gilt: algebraische Vielfachheit = geometrische VFH
wobei: alg. VFH = Vielfachheit des EW als NST im charakt. Polynom und geometr. VFH = Dimension des zugeh. Eigenraumes.
Es gilt stets: alg VFH [mm] \ge [/mm] geometr. VFH (und geom. VFH [mm] \ge [/mm] 1)
Konsequenz: Zerfällt das char. Polynom vollständig in verschiedene Linearfaktoren (hast du also n paarweise verschiedene EWe - bei einer nxn Matrix), so ist die Matrix diagonalisierbar
Hier hattest du eine [mm] $3\times [/mm] 3$-Matrix mit 3 verschiedenen EW, dh. jeder EW hat alg. VFH 1, die geometr. VFH ist [mm] \le [/mm] alg VFH und [mm] \ge [/mm] 1, also hier =1
Also alg VFH=geo VFH, daher A diagonalisierbar
Schau's dir nochmal genauer an!
Gute Nacht
schachuzipus
|
|
|
|