nochmal Diagonalisierung < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Ich habe hier folgende matrizen und soll über Diagonalisierbarkeit urteilen:
[mm] A:=\pmat{ 0 & 1 \\ 1 & 0 }
[/mm]
[mm] B:=\pmat{ 1 & -4 \\ 0 & 1 }
[/mm]
[mm] C:=\pmat{ 0 & -4 \\ 0 & 0 }
[/mm]
soo durch eigenraumbestimmung habe ich herausgefunden, dass
A Diagonalisierbar ist mit: [mm] \pmat{ 1/2 & 1/2 \\ -1/2 & 1/2 } *\pmat{ 0 & 1 \\ 1 & 0 }* \pmat{ 1 & -1 \\ 1 & 1 } [/mm] = [mm] \pmat{ 1 & 0 \\ 0 & -1}
[/mm]
B ist nicht diagonalisierbar, weil es nur einen eigenwert mit algebraischer Vielfachheit 2 git, aber die diemsnion des Eigenraues nur 1 ist.
C ist auch nicht Diagonalisierbar, denn auch hier haben wir einen Eigenwert mit algebaischer Vielfachheit 0 und nur einen eindimensionalen Eigenraum.
Nun meine Frage: Gibt es bei so kleinen Matrizen auch eine Möglichkeit, dass vielleicht schon auf den ersten Blcik sehen zu können? Also ich könnte es zum Beispiel dann erkennen, wenn [mm] (A-\lambdaE_n [/mm] ) zwei linear abhängige Spalten oder zeilen hat, weil dann det (A- [mm] \lambda e_n) [/mm] = 0 und das darf natürlich nicht sein, da ich dann kein charakt. polynom bestimmen kann...
Gibt es noch eine anschauliche Möglichkeit um Diagonalisierbarkeit sofort auszuschließen oder sofort zu erkennen?
Lg Sandra
|
|
|
|
> Ich habe hier folgende matrizen und soll über
> Diagonalisierbarkeit urteilen:
>
> [mm]A:=\pmat{ 0 & 1 \\ 1 & 0 }[/mm]
> [mm]B:=\pmat{ 1 & -4 \\ 0 & 1 }[/mm]
>
> [mm]C:=\pmat{ 0 & -4 \\ 0 & 0 }[/mm]
>
> soo durch eigenraumbestimmung habe ich herausgefunden, dass
>
> A Diagonalisierbar ist mit: [mm]\pmat{ 1/2 & 1/2 \\ -1/2 & 1/2 } *\pmat{ 0 & 1 \\ 1 & 0 }* \pmat{ 1 & -1 \\ 1 & 1 }[/mm]
> = [mm]\pmat{ 1 & 0 \\ 0 & -1}[/mm]
>
> B ist nicht diagonalisierbar, weil es nur einen eigenwert
> mit algebraischer Vielfachheit 2 git, aber die diemsnion
> des Eigenraues nur 1 ist.
>
> C ist auch nicht Diagonalisierbar, denn auch hier haben wir
> einen Eigenwert mit algebaischer Vielfachheit 0
Wohl kleiner Tippfehler: sollte 2 sein.
> und nur einen eindimensionalen Eigenraum.
> Nun meine Frage: Gibt es bei so kleinen Matrizen auch eine
> Möglichkeit, dass vielleicht schon auf den ersten Blcik
> sehen zu können?
Habe gerade keine gute Idee.
> Also ich könnte es zum Beispiel dann
> erkennen, wenn [mm](A-\lambdaE_n[/mm] ) zwei linear abhängige
> Spalten oder zeilen hat, weil dann det (A- [mm]\lambda e_n)[/mm] = 0
Wenn [mm] $\lambda$ [/mm] eine Nullstelle des charakteristischen Polynoms von $A$ ist, dann ist es sicher so, dass die Spalten (und daher auch die Zeilen) linear abhängig sind. Im 2-dim Fall ist also der Eigenraum eines Eigenwertes [mm] $\lambda$ [/mm] das orthogonale Komplement eines der beiden Zeilenvektoren (gleich welchen Zeilenvektors).
> und das darf natürlich nicht sein, da ich dann kein
> charakt. polynom bestimmen kann...
Mit dieser Überlegung hast Du mich glatt abgehängt...
>
> Gibt es noch eine anschauliche Möglichkeit um
> Diagonalisierbarkeit sofort auszuschließen oder sofort zu
> erkennen?
Im 2-dim Fall gibt es ja zum Glück auch auf dem allgemeinen Weg nicht gar so viel zu rechnen...
Ich markiere Deine Frage mal als nur teilweise beantwortet: vielleicht hat jemand eine gute Idee zu Deiner eigentlichen Frage.
Gruss,
Christian
|
|
|
|
|
Also wenn ich bei det(A - [mm] \lambda E_n) [/mm] den erhaltenen Eigenwert einsetze, dann ergibt sich natürlich det [mm] (A-\lambda E_n) [/mm] = 0. da der eigenwert Nullstelle des charakt. Polynoms ist.
Aber wenn ich die matrix [mm] A-\lambda E_n [/mm] betrachte , bevor ich ein [mm] \lambda [/mm] ausgerechnet habe, und sie Spalten oder zeilen sind dann linear abhängig, kann ich det [mm] (A-\lambda E_n) [/mm] gar nicht ausrechnen.
|
|
|
|
|
> Also wenn ich bei det(A - [mm]\lambda E_n)[/mm] den erhaltenen
> Eigenwert einsetze, dann ergibt sich natürlich det
> [mm](A-\lambda E_n)[/mm] = 0. da der eigenwert Nullstelle des
> charakt. Polynoms ist.
>
> Aber wenn ich die matrix [mm]A-\lambda E_n[/mm] betrachte , bevor
> ich ein [mm]\lambda[/mm] ausgerechnet habe, und sie Spalten oder
> zeilen sind dann linear abhängig, kann ich det [mm](A-\lambda E_n)[/mm]
> gar nicht ausrechnen.
Natürlich gibt es Fälle, bei denen man die Diagonalisierbarkeit simpler ablesen kann. Wenn die Matrix $A$ schon diagonal ist, nur durch Vertauschen und eventuell zusätzlich einer Streckung der Basisvektoren entsteht oder wenn sie symmetrisch ist.
Aber im 2-dim Fall ist das Ausrechnen der Eigenwerte, ja sogar das Bestimmen der zugehörigen Eigenbasis, kein sooo grosses Problem - und hat den Vorteil, dass man bei einem solchen Vorgehen immer sogleich "loslegen" kann, statt lange zu zögern, ob es nicht vielleicht eine superschlaue Abkürzung gibt.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:20 Mi 29.08.2007 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|