Eigenwerte Beweis < Abbildungen+Matrizen < Lin. Algebra/Vektor < Oberstufe < Schule < Mathe < Vorhilfe
|
Aufgabe | Beweisen Sie: Besitzt die Matrix [mm]A\in\IK^{n\times n}[/mm] die Eigenwerte [mm]\lambda_{1},\lambda_{2},...\lambda_{n}[/mm], dann gilt [mm]\det(A)=\lambda_{1}*\lambda_{2}*...*\lambda_{n}[/mm] |
Hallo!
Ich wollte man fragen, ob ihr meinen Beweis dazu anschauen könntet und eventuelle Verbesserungsmöglichkeiten anmerkt? Vielleicht gibt es auch noch einen ganz anderen Weg, das zu beweisen?
Hat die Matrix A die Eigenwerte [mm]\lambda_{1},\lambda_{2},...\lambda_{n}[/mm], so hat die Diagonalisierte Matrix D von A die Form [mm] \pmat{ \lambda_{1} & 0 & 0 \\ 0 & \ddots & 0 \\ 0 & 0 & \lambda_{n} }. [/mm] Die diagonalisierte Matrix D von A existiert, weil das charakteristische Polynom in Linearfaktoren zerfällt und die aligebraische Vielfachheit stets gleich der geometrischen ist. [Reicht das als Begründung? Kann ich besser begründen warum die Matrix A diagonalisierbar sein muss?] Wegen
[mm]D = S^{-1}AS \gdw A = SDS^{-1}[/mm]
und
[mm]\det(D) = \det(SDS^{-1})[/mm]
(ähnliche Matrizen haben dieselbe Determinante) folgt
[mm] \det(A) [/mm] = [mm] \det(SDS^{-1}) [/mm] = [mm] \det(D) [/mm] = [mm] \lambda_{1}*\lambda_{2}*...*\lambda_{n}.
[/mm]
q.e.d.
Vielen Dank für Eure Hilfe!
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:14 Sa 17.05.2008 | Autor: | pelzig |
> Beweisen Sie: Besitzt die Matrix [mm]A\in\IK^{n\times n}[/mm] die
> Eigenwerte [mm]\lambda_{1},\lambda_{2},...\lambda_{n}[/mm], dann
> gilt [mm]\det(A)=\lambda_{1}*\lambda_{2}*...*\lambda_{n}[/mm]
> Hallo!
> Hat die Matrix A die Eigenwerte
> [mm]\lambda_{1},\lambda_{2},...\lambda_{n}[/mm], so hat die
> Diagonalisierte Matrix D von A die Form [mm]\pmat{ \lambda_{1} & 0 & 0 \\ 0 & \ddots & 0 \\ 0 & 0 & \lambda_{n} }.[/mm]
> Die diagonalisierte Matrix D von A existiert, weil das
> charakteristische Polynom in Linearfaktoren zerfällt und
> die aligebraische Vielfachheit stets gleich der
> geometrischen ist.
Also im Allgemeinen ist die algebraische Vielfachheit natürlich nicht gleich der geometrischen. Das ist dir ja sicherlich klar nur klingt es hier so als würdest du genau das behaupten, also Vorsicht.
> [Reicht das als Begründung? Kann ich
> besser begründen warum die Matrix A diagonalisierbar sein
> muss?]
Tja das kommt halt ganz auf den Korrektor an und was ihr schon benutzen dürft. Ich nehme an du meinst wenn die geometrischen Vielfachheiten alle gleich 1 sind, dann haben auch die größten Jordanblöcke alle die Größe 1, und somit hat die JNF Diagonalgestalt.
Geht sicherlich, aber ich denk es ist einfacher zu sagen wenn es [mm] $n=\dim [/mm] V$ verschiedene Eigenwerte gibt, dann besitzt $V$ eine Basis aus Eigenvektoren (warum?).
> Wegen [mm]D = S^{-1}AS \gdw A = SDS^{-1}[/mm]
> und [mm]\det(D) = \det(SDS^{-1})[/mm]
Warum gilt hier die zweite Zeile?
> (ähnliche Matrizen haben dieselbe Determinante) folgt
>
> [mm]\det(A)[/mm] = [mm]\det(SDS^{-1})[/mm] = [mm]\det(D)[/mm] =
> [mm]\lambda_{1}*\lambda_{2}*...*\lambda_{n}.[/mm] q.e.d.
Jo, sieht gut aus.
Gruß, Robert
|
|
|
|
|
> > Beweisen Sie: Besitzt die Matrix [mm]A\in\IK^{n\times n}[/mm] die
> > Eigenwerte [mm]\lambda_{1},\lambda_{2},...\lambda_{n}[/mm], dann
> > gilt [mm]\det(A)=\lambda_{1}*\lambda_{2}*...*\lambda_{n}[/mm]
> > Hallo!
> > Hat die Matrix A die Eigenwerte
> > [mm]\lambda_{1},\lambda_{2},...\lambda_{n}[/mm], so hat die
> > Diagonalisierte Matrix D von A die Form [mm]\pmat{ \lambda_{1} & 0 & 0 \\ 0 & \ddots & 0 \\ 0 & 0 & \lambda_{n} }.[/mm]
> > Die diagonalisierte Matrix D von A existiert, weil das
> > charakteristische Polynom in Linearfaktoren zerfällt und
> > die aligebraische Vielfachheit stets gleich der
> > geometrischen ist.
> Also im Allgemeinen ist die algebraische Vielfachheit
> natürlich nicht gleich der geometrischen. Das ist dir ja
> sicherlich klar nur klingt es hier so als würdest du genau
> das behaupten, also Vorsicht.
Ja, das war der verzweifelte Versuch das zu begründen. Ich war nicht in der Vorlesung, als die Diagonalisierbarkeit eingeführt wurde und kannte nur die Kriterien, konnte mir darunter aber wenig vorstellen.
> > [Reicht das als Begründung? Kann ich
> > besser begründen warum die Matrix A diagonalisierbar sein
> > muss?]
> Tja das kommt halt ganz auf den Korrektor an und was ihr
> schon benutzen dürft. Ich nehme an du meinst wenn die
> geometrischen Vielfachheiten alle gleich 1 sind, dann haben
> auch die größten Jordanblöcke alle die Größe 1, und somit
> hat die JNF Diagonalgestalt.
Das ist nur eine Übungsaufgabe . Wir hatten aber noch keine JNF.
> Geht sicherlich, aber ich denk es ist einfacher zu sagen
> wenn es [mm]n=\dim V[/mm] verschiedene Eigenwerte gibt, dann besitzt
> [mm]V[/mm] eine Basis aus Eigenvektoren (warum?).
Ich weiß leider nicht, warum es dann eine Basis gibt.
> > Wegen [mm]D = S^{-1}AS \gdw A = SDS^{-1}[/mm]
> > und [mm]\det(D) = \det(SDS^{-1})[/mm]
> Warum gilt hier die zweite
> Zeile?
Die zweite Zeile gilt wegen
[mm]\det(SDS^{-1}) = \det(S)*\det(D)*\det(S^{-1}) = \det(S)*\det(D)*\det(S)^{-1} = \det(S)*\det(S)^{-1}*\det(D) = \det(D) [/mm]
Wir dürfen wie gesagt benutzen, dass die Determinante ähnlicher Matrizen gleich ist. Solch eine Matrix S existiert überhaupt, weil A diagonalisierbar ist.
> > (ähnliche Matrizen haben dieselbe Determinante) folgt
> >
> > [mm]\det(A)[/mm] = [mm]\det(SDS^{-1})[/mm] = [mm]\det(D)[/mm] =
> > [mm]\lambda_{1}*\lambda_{2}*...*\lambda_{n}.[/mm] q.e.d.
> Jo, sieht gut aus.
Vielen Dank für Deine Antwort
> Gruß, Robert
|
|
|
|
|
> Beweisen Sie: Besitzt die Matrix [mm]A\in\IK^{n\times n}[/mm] die
> Eigenwerte [mm]\lambda_{1},\lambda_{2},...\lambda_{n}[/mm], dann
> gilt [mm]\det(A)=\lambda_{1}*\lambda_{2}*...*\lambda_{n}[/mm]
> Hallo!
>
> Ich wollte man fragen, ob ihr meinen Beweis dazu anschauen
> könntet und eventuelle Verbesserungsmöglichkeiten anmerkt?
Hallo,
mein Verbesserungsvorschlag setzt bei der Aufgabenstellung an: Du meinst sicher, daß [mm] \lambda_{1},\lambda_{2},...\lambda_{n} [/mm] n paarweise verschiedene Eigenwerte der Matrix sind.
Für diesen Fall klappt der Weg über die Diagonalmatrizen.
> Die diagonalisierte Matrix D von A existiert, weil das
> charakteristische Polynom in Linearfaktoren zerfällt und
> die aligebraische Vielfachheit stets gleich der
> geometrischen ist. [Reicht das als Begründung?
Wie pelzig schon sagt: kommt drauf an, was dran war. (Gar nichts war dran, oder?)
Vielleicht ist es hier hübscher, damit zu argumentieren, daß zu jedem Eigenwert ein Eigenvektor gehört.
Weil die Eigenvektoren zu verschiedenen Eigenwerten stets linear unabhängig sind, hat man im vorliegenden Fall eine Basis aus Eigenvektoren, bzgl. derer die darstellende Matrix der durch die Matrix A repräsentierte lineare Abbildung Diagonalgestalt hat.
Gruß v. Angela
|
|
|
|
|
> > Beweisen Sie: Besitzt die Matrix [mm]A\in\IK^{n\times n}[/mm] die
> > Eigenwerte [mm]\lambda_{1},\lambda_{2},...\lambda_{n}[/mm], dann
> > gilt [mm]\det(A)=\lambda_{1}*\lambda_{2}*...*\lambda_{n}[/mm]
> > Hallo!
> >
> > Ich wollte man fragen, ob ihr meinen Beweis dazu anschauen
> > könntet und eventuelle Verbesserungsmöglichkeiten anmerkt?
>
> Hallo,
>
> mein Verbesserungsvorschlag setzt bei der Aufgabenstellung
> an: Du meinst sicher, daß
> [mm]\lambda_{1},\lambda_{2},...\lambda_{n}[/mm] n paarweise
> verschiedene Eigenwerte der Matrix sind.
>
> Für diesen Fall klappt der Weg über die Diagonalmatrizen.
Die konkrete Aufgabenstellung (b) lautet so:
[Dateianhang nicht öffentlich]
Wie müsste ich den Beweis den gestalten, wenn die Eigenwerte nicht paarweise verschieden sind? Ich weiß nicht, ob das dann mit Diagonalmatrizen überhaupt noch geht...
> > Die diagonalisierte Matrix D von A existiert, weil das
> > charakteristische Polynom in Linearfaktoren zerfällt und
> > die aligebraische Vielfachheit stets gleich der
> > geometrischen ist. [Reicht das als Begründung?
> Wie pelzig schon sagt: kommt drauf an, was dran war. (Gar
> nichts war dran, oder?)
>
> Vielleicht ist es hier hübscher, damit zu argumentieren,
> daß zu jedem Eigenwert ein Eigenvektor gehört.
> Weil die Eigenvektoren zu verschiedenen Eigenwerten stets
> linear unabhängig sind, hat man im vorliegenden Fall eine
> Basis aus Eigenvektoren, bzgl. derer die darstellende
> Matrix der durch die Matrix A repräsentierte lineare
> Abbildung Diagonalgestalt hat.
Warum sind die Eigenvektoren zu verschiedenen Eigenwerten stets linear unabhängig? Kann man das gleichungstechnisch begründen ?
Tut mir leid, ich war in der Vorlesung zur Einführung der Eigenvektoren nicht da, deswegen weiß ich da etwas wenig über die Theorie.
Danke für deine Antwort
> Gruß v. Angela
>
Dateianhänge: Anhang Nr. 1 (Typ: png) [nicht öffentlich]
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 12:07 So 18.05.2008 | Autor: | pelzig |
> Wie müsste ich den Beweis den gestalten, wenn die
> Eigenwerte nicht paarweise verschieden sind? Ich weiß
> nicht, ob das dann mit Diagonalmatrizen überhaupt noch
> geht...
Wenn die Eigenwerte nicht paarweise verschieden sind macht die Behauptung doch überhaupt keinen Sinn, weil der Ausdruck [mm] $\produkt_{i=1}^n\lambda_i$ [/mm] dann nicht wohldefiniert ist. Also ich meine Wenn du für $n=3$ die Eigenwerte $1,1,2$ hast, kann man mit gleichem Recht auch sagen du hast die Eigenwerte $1,2,2$, aber das Produkt ist verschieden.
> Warum sind die Eigenvektoren zu verschiedenen Eigenwerten
> stets linear unabhängig? Kann man das gleichungstechnisch
> begründen?
Ja kann man, der Beweis ist sehr hübsch und geht mit vollständiger Induktion über die Anzahl der Eigenvektoren. Aber ich will dir jetzt nicht den Spaß verderben das selbst rauszufinden
|
|
|
|
|
> Wenn die Eigenwerte nicht paarweise verschieden sind macht
> die Behauptung doch überhaupt keinen Sinn, weil der
> Ausdruck [mm]\produkt_{i=1}^n\lambda_i[/mm] dann nicht wohldefiniert
> ist. Also ich meine Wenn du für [mm]n=3[/mm] die Eigenwerte [mm]1,1,2[/mm]
> hast, kann man mit gleichem Recht auch sagen du hast die
> Eigenwerte [mm]1,2,2[/mm], aber das Produkt ist verschieden.
Hallo,
es ist ein Unterschied, ob eine 3x3-Matrix die Eigenwerte 1,1,2 oder 1,2,2 hat.
Beide Male hat man ein zerfallendes charakteristisches Polynom, im ersten Fall ist 1 ein doppelter Eigenwert, im zweiten Fall eben 2.
Entsprechend unterscheiden sich dann die Determinanten der Matrix.
Daß das Produkt der Eigenwerte =Det ist, gilt auch, wenn die matrix nicht diagonalisierbar ist.
Das Zerfallen des charakteristischen Polynoms garantiert einem ja, daß die Matrix in JNF zu bringen ist.
Gruß v. Angela
|
|
|
|
|
Status: |
(Korrektur) oberflächlich richtig | Datum: | 18:20 So 18.05.2008 | Autor: | pelzig |
>
> > Wenn die Eigenwerte nicht paarweise verschieden sind macht
> > die Behauptung doch überhaupt keinen Sinn, weil der
> > Ausdruck [mm]\produkt_{i=1}^n\lambda_i[/mm] dann nicht wohldefiniert
> > ist. Also ich meine Wenn du für [mm]n=3[/mm] die Eigenwerte [mm]1,1,2[/mm]
> > hast, kann man mit gleichem Recht auch sagen du hast die
> > Eigenwerte [mm]1,2,2[/mm], aber das Produkt ist verschieden.
>
> Hallo,
>
> es ist ein Unterschied, ob eine 3x3-Matrix die Eigenwerte
> 1,1,2 oder 1,2,2 hat.
Das kommt eben ganz darauf an was man damit meint. Also wenn da steht [mm] "$A\in M(n,\IK)$ [/mm] hat die Eigenwerte [mm] $\lambda_1,...,\lambda_n$", [/mm] dann heißt das nur [mm] $\forall i\in\{1,...,n\}:\lambda_i\text{ ist Eigenwert von }A$. [/mm] Und dann ist eben die Aussage "$1,2,2$ sind Eigenwerte von $A$" äquivalent zu "$1,1,2$ sind Eigenwerte von $A$". Es wird in der Aufgabenstellung nix davon erwähnt, dass das charakteristische Polynom zerfällt. Ich seh ja ein, dass das ein bischen Haarspalterei ist, zumal die Behauptung ja wie du unten sagst auch gilt wenn das char. Polynom zerfällt, aber wenn schon denn schon :-]
Egal, jedenfalls haben wir jetzt alle Recht und sind glücklich...
Gruß, Robert
|
|
|
|
|
> > Wie müsste ich den Beweis den gestalten, wenn die
> > Eigenwerte nicht paarweise verschieden sind? Ich weiß
> > nicht, ob das dann mit Diagonalmatrizen überhaupt noch
> > geht...
> Wenn die Eigenwerte nicht paarweise verschieden sind macht
> die Behauptung doch überhaupt keinen Sinn, weil der
> Ausdruck [mm]\produkt_{i=1}^n\lambda_i[/mm] dann nicht wohldefiniert
> ist. Also ich meine Wenn du für [mm]n=3[/mm] die Eigenwerte [mm]1,1,2[/mm]
> hast, kann man mit gleichem Recht auch sagen du hast die
> Eigenwerte [mm]1,2,2[/mm], aber das Produkt ist verschieden.
>
> > Warum sind die Eigenvektoren zu verschiedenen Eigenwerten
> > stets linear unabhängig? Kann man das gleichungstechnisch
> > begründen?
>
> Ja kann man, der Beweis ist sehr hübsch und geht mit
> vollständiger Induktion über die Anzahl der Eigenvektoren.
> Aber ich will dir jetzt nicht den Spaß verderben das selbst
> rauszufinden
Vielen Dank für die Antwort! Muss aber zugeben, dass ich den Beweis doch lieber im Internet gesucht habe, weil ich wie gesagt noch ein wenig wenig Theoriewissen hatte
|
|
|
|
|
> Wie müsste ich den Beweis den gestalten, wenn die
> Eigenwerte nicht paarweise verschieden sind? Ich weiß
> nicht, ob das dann mit Diagonalmatrizen überhaupt noch
> geht...
Hallo,
wenn die Eigenwerte nicht paarweise verschieden sind, ist die Diagonalisierbarkeit nicht garantiert, Du kannst sie dann für den Beweis nicht verwenden.
Aber: da die Matrix eine nxn-Matrix ist und n Eigenwerte hat, weiß man, daß das charakteristische Polynom zerfällt, woraus folgt, daß die Matrix triangulierbar (trigonalisierbar) ist. Auf der Diagonalen stehen dann ja die Eigenwerte.
Gruß v. Angela
|
|
|
|
|
Vielen Dank, das werde ich verwenden um die Lücke zu füllen
|
|
|
|