matheraum.de
Raum für Mathematik
Offene Informations- und Nachhilfegemeinschaft

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Schulmathe
  Status Primarstufe
  Status Mathe Klassen 5-7
  Status Mathe Klassen 8-10
  Status Oberstufenmathe
    Status Schul-Analysis
    Status Lin. Algebra/Vektor
    Status Stochastik
    Status Abivorbereitung
  Status Mathe-Wettbewerbe
    Status Bundeswettb. Mathe
    Status Deutsche MO
    Status Internationale MO
    Status MO andere Länder
    Status Känguru
  Status Sonstiges

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenUni-Lineare Algebrakommutierende matrizen
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Philosophie • Religion • Kunst • Musik • Sport • Pädagogik
Forum "Uni-Lineare Algebra" - kommutierende matrizen
kommutierende matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

kommutierende matrizen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:48 Do 25.05.2006
Autor: Lee1601

Aufgabe 1
Seien A,B  [mm] \in [/mm] K^nxn mit AB=BA. Zeigen Sie:
(i) Sind A und B diag.bar, so gibt es ein S aus K^nxn, für das S*A*S^-1
und S*B*S^-1 Diagonalmatrizen sind. Zeigen sie dies in 3 Schritten:

(a) Ist v Eigenvektor von A zum Eigenwert  [mm] \lambda, [/mm] so ist Bv=0 oder Bv Eigenvektor von A zum Eigenwert  [mm] \lambda [/mm]

(b) Ist w Eigenvektor von B, so lässt sich w als Summe gemeinsamer Eigenvektoren von A und B darstellen

(c) Es gibt eine Basis von [mm] K^n [/mm] aus gemeinsamen Eigenvektoren von A und B.

(ii) Für K=R gilt exp(A+B)=exp(A)exp(B)

Aufgabe 2
Für eine Matrix A=(aij) mit 1 [mm] \le [/mm] i,j  [mm] \le [/mm] n aus R^nxn definieren wir
spur(A) :=  [mm] \summe_{i=1}^{n}aii. [/mm]
Zeigen sie: Ist A eine Matrix, deren charakteristisches Polynom über R zerfällt, so gilt:
det(exp(A)) = e^spur(A)

Hinweis: benutzen sie die trigonalisierung und die tatsache, dass spur(AB)=spur(BA) für alle A,B aus R^nxn gilt.

Hallo!

Wir haben heute zu 2. den ganzen Tag mit diesem Sch.. Zettel verbracht, es aber nicht geschafft, die oben genannten Aufgabe auch nur teilweise zu lösen. Kamen einfach nicht auf nen Ansatz, der uns in die richtige Richtung geführt hat (obwohl wir die verschiedensten ausprobiert haben).
Mit dem Hinweis bei der 2. Aufgabe können wir gar nix anfangen. Man hat doch nur eine Matrix, wieso sollte man dann den Hinweis benutzen, der 2 Matrizen beinhaltet??

Kann uns vielleicht einer von euch sagen, wie wir vorgehen müssen? (Ein richtiger Ansatz, mit dem wir weiterrechnen können reicht ja schon)

Danke!!

LG

Linda & Corinna

        
Bezug
kommutierende matrizen: Hilfe, wir brauchen euch
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 08:41 Fr 26.05.2006
Autor: Lee1601

Hat echt keiner ne Ahnung, wie man bei den Aufgaben vorgeht?
Wenn doch, wäre es wunderbar, wenn mir einer der Frühaufsteher kurz sagen könnte, wie´s funktioniert. Treffe mich nämlich gleich vor der Zettelabgabe nochmal mit meiner Zettelpartnerin - und wir wären euch unendlich dankbar, wenn wir es mit eurer Hilfe schaffen, die Aufgaben zu lösen (ist doch besser als abschreiben).

GLG und schonmal vielen Dank!

Linda

Bezug
        
Bezug
kommutierende matrizen: Antwort
Status: (Antwort) fertig Status 
Datum: 23:45 Fr 26.05.2006
Autor: felixf

Hallo!

> Seien A,B  [mm]\in[/mm] K^nxn mit AB=BA. Zeigen Sie:
>  (i) Sind A und B diag.bar, so gibt es ein S aus K^nxn, für
> das S*A*S^-1
>  und S*B*S^-1 Diagonalmatrizen sind. Zeigen sie dies in 3
> Schritten:
>  
> (a) Ist v Eigenvektor von A zum Eigenwert  [mm]\lambda,[/mm] so ist
> Bv=0 oder Bv Eigenvektor von A zum Eigenwert  [mm]\lambda[/mm]

Sei $v$ ein Eigenvektor von $A$ zum Eigenwert [mm] $\lambda$. [/mm] Ist $B v [mm] \neq [/mm] 0$, so ist $A (B v) = (A B) v = (B A) v = B (A v) = B [mm] \lambda [/mm] v = [mm] \lambda [/mm] B v$. Wo lag das Problem bei dieser Aufgabe?

> (b) Ist w Eigenvektor von B, so lässt sich w als Summe
> gemeinsamer Eigenvektoren von A und B darstellen

Da hab ich grad keine Lust zu...



> (c) Es gibt eine Basis von [mm]K^n[/mm] aus gemeinsamen
> Eigenvektoren von A und B.

Nimm eine Basis von [mm] $K^n$ [/mm] aus Eigenvektoren von $B$ (warum geht das?). Jeder dieser Vektoren kann als Summe gemeinsamer Eigenvektoren von $A$ und $B$ geschrieben werden. Man nehme jetzt die Menge aller in diesen Summen vorkommenden Vektoren; dies sind alles gemeinsame Eigenvektoren von $A$ und $B$. Diese Vektoren erzeugen [mm] $K^n$ [/mm] (warum?), sind aber nicht notwendigerweise linear unabhaengig. Nach dem Basisauswahlsatz gibt es nun eine Teilmenge, die eine Basis von [mm] $K^n$ [/mm] ist. Diese Basis tuts dann.

> (ii) Für K=R gilt exp(A+B)=exp(A)exp(B)

Wie ist denn [mm] $\exp(A)$ [/mm] definiert? Das ist doch [mm] $\sum_{k=0}^\infty \frac{1}{k!} A^k$. [/mm] So. Jetzt schaut euch doch mal den Beweis fuer [mm] $\exp(a [/mm] + b) = [mm] \exp(a) \exp(b)$ [/mm] fuer reelle Zahlen $a, b [mm] \in \IR$ [/mm] an. Den kann man 1 zu 1 uebernehmen, da $A B = B A$ ist! Also...?

>  Für eine Matrix A=(aij) mit 1 [mm]\le[/mm] i,j  [mm]\le[/mm] n aus R^nxn
> definieren wir
> spur(A) :=  [mm]\summe_{i=1}^{n}aii.[/mm]
> Zeigen sie: Ist A eine Matrix, deren charakteristisches
> Polynom über R zerfällt, so gilt:
>  det(exp(A)) = e^spur(A)
>  
> Hinweis: benutzen sie die trigonalisierung und die
> tatsache, dass spur(AB)=spur(BA) für alle A,B aus R^nxn
> gilt.

Sei $S$ invertierbar so, dass $S A [mm] S^{-1}$ [/mm] trigonalisiert ist (warum geht das?). Dann ist [mm] $\exp(A) [/mm] = [mm] S^{-1} \exp(S [/mm] A [mm] S^{-1}) [/mm] S$. Also von [mm] $\exp(S [/mm] A [mm] S^{-1})$ [/mm] koennt ihr die Diagonale explizit angeben, wenn ihr die Diagonale von $S A [mm] S^{-1}$ [/mm] kennt. Und was hat die Diagonale von $S A [mm] S^{-1}$ [/mm] mit der Spur von $A$ zu tun?

LG Felix


Bezug
                
Bezug
kommutierende matrizen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 14:06 Do 15.06.2006
Autor: neli

Aufgabe
k = [mm] \IR [/mm] , [mm] \IC [/mm]
Für A [mm] \in k^{n \times n} [/mm] gilt:
det(expA) = exp(SpurA) (Tipp: Bringe A auf Dreiecksform!)

SO habe eine ähnliche Aufgabe nur das bei mir leider keinerlei Einschränkungen vorhanden sind.
Wollte mich trotzdem erst einmal an dem Fall versuchen, dass A trigonalisierbar ist, weil ich keien Ahnung habe wie ich  a sonst auf Dreiecksform bringen könnte (auf eine Art die mir weiterhilft theoretisch müsste es ja zu A immer auch eine Matrix S geben so dass SA eine Zeilenstufenmatrix und somit ja auch eine Dreiecksmatrix ist geben)

Habe mir also ein S [mm] \in [/mm] GLn(k) gewählt, so das
[mm] S^{-1}AS [/mm] = D = obere Dreiecksmatrix ist

dann ist ja det(expA) = [mm] det(SexpDS^{-1}) [/mm]
expA ist ähnlich zu expD somit ist dann det(expA) = det(expD)

dann habe ich mir überlegt, dass det(expD) = det( [mm] \summe_{i=1}^{\infty} \bruch{1}{i!} \pmat{ a_{1.1}^{i} & ... & ... & * \\ & a_{2.2}^{i} & * & ...\\ & & ... & * \\ & & & a_{n.n}^{i}} [/mm]
=  [mm] \summe_{k=1}^{n} \summe_{i=1}^{\infty} \bruch{1}{i!}a_{k.k}^{i} [/mm] =  [mm] \summe_{i=1}^{\infty} \bruch{1}{i!} \summe_{k=1}^{n}a_{k.k}^{i}= \summe_{i=1}^{\infty} \bruch{1}{i!}Spur(D^{i}) [/mm] = [mm] \summe_{i=1}^{\infty} \bruch{1}{i!}Spur(A^{i}) [/mm]

aber jetzt habe ich das Problem, dass [mm] Spur(A^{i}) [/mm] doch nicht das gleiche ist wie [mm] (SpurA)^{i} [/mm]
also muss ich mich wohl irgendwo vertan haben sehe aber nicht wo
würde mich freuen wenn mich jemand auf den Fehler aufmerksam machen könnte
zudem wäre ich dankbar, wenn mir jemand einen Tipp geben könnte wie ich das ganze noch allgemein zeigen kann ohne, dass A trigonalisierbar ist


ich habe diese Frage in keinem anderen Forum gestellt

mit Freundlichen Grüßen
Neli

Bezug
                        
Bezug
kommutierende matrizen: Antwort
Status: (Antwort) fertig Status 
Datum: 18:26 Do 15.06.2006
Autor: felixf

Hallo neli!

> k = [mm]\IR[/mm] , [mm]\IC[/mm]
>  Für A [mm]\in k^{n \times n}[/mm] gilt:
>  det(expA) = exp(SpurA) (Tipp: Bringe A auf Dreiecksform!)

Eine andere Moeglichkeit als deine Rechnung da unten ist, folgende Sachen zu zeigen:
Ist $A$ eine Matrix ueber [mm] $\IC$ [/mm] mit dem char. Polynom $(x - [mm] \alpha_1) \cdots [/mm] (x - [mm] \alpha_n)$, [/mm] so sind [mm] $\alpha_1, \dots \alpha_n$ [/mm] die Eigenwerte und es gilt:
- [mm] $\det [/mm] A = [mm] \alpha_1 \cdots \alpha_n$, [/mm]
- $Spur A = [mm] \alpha_1 [/mm] + [mm] \dots [/mm] + [mm] \alpha_n$, [/mm]
- die Eigenwerte von [mm] $\exp(A)$ [/mm] sind [mm] $\exp(\alpha_1), \dots, \exp(\alpha_n)$. [/mm]

(Dazu trigonalisierst du die Matrix; die ersten beiden Aussagen sind dann klar. Und die letze folgt aehnlich wie deine Rechnung weiter unten, da das Produkt zweier oberer Dreiecksmatrizen wieder eine obere Dreiecksmatrix ist und sich die Diagonalelemente einfach multiplizieren.)

Daraus folgt die Aussage direkt fuer $k = [mm] \IC$. [/mm]

Im Fall $k = [mm] \IR$ [/mm] fasst du die Matrix als Matrix ueber [mm] $\IC$ [/mm] aus; da Spur und Determinante sich nicht aendern erhaelst du somit das gleiche Resultat.

> SO habe eine ähnliche Aufgabe nur das bei mir leider
> keinerlei Einschränkungen vorhanden sind.
>  Wollte mich trotzdem erst einmal an dem Fall versuchen,
> dass A trigonalisierbar ist, weil ich keien Ahnung habe wie

Ja, der Fall ist gut. Andernfalls gehe halt wie oben beschrieben nach $k = [mm] \IC$ [/mm] ueber, da ist alles trigonalisierbar :)

> ich  a sonst auf Dreiecksform bringen könnte (auf eine Art
> die mir weiterhilft theoretisch müsste es ja zu A immer
> auch eine Matrix S geben so dass SA eine Zeilenstufenmatrix
> und somit ja auch eine Dreiecksmatrix ist geben)
>  
> Habe mir also ein S [mm]\in[/mm] GLn(k) gewählt, so das
> [mm]S^{-1}AS[/mm] = D = obere Dreiecksmatrix ist
>  
> dann ist ja det(expA) = [mm]det(SexpDS^{-1})[/mm]
> expA ist ähnlich zu expD somit ist dann det(expA) =
> det(expD)
>  
> dann habe ich mir überlegt, dass det(expD) = det(
> [mm]\summe_{i=1}^{\infty} \bruch{1}{i!} \pmat{ a_{1.1}^{i} & ... & ... & * \\ & a_{2.2}^{i} & * & ...\\ & & ... & * \\ & & & a_{n.n}^{i}}[/mm]

Du meinst wohl eher, dass die Summe bei $i = 0$ anfaengt?

>  
> =  [mm]\summe_{k=1}^{n} \summe_{i=1}^{\infty} \bruch{1}{i!}a_{k.k}^{i}[/mm]

Wieso kommt hier die Summe $k=1, [mm] \dots, [/mm] n$ heraus?! Du meinst wohl eher Produkt?

Und was ist [mm] $\sum_{i=0}^\infty \frac{1}{i!} a_{k,k}$? [/mm]

LG Felix


Bezug
        
Bezug
kommutierende matrizen: Antwort
Status: (Antwort) fertig Status 
Datum: 10:35 Sa 27.05.2006
Autor: felixf

Hallo!

> Seien A,B  [mm]\in[/mm] K^nxn mit AB=BA. Zeigen Sie:
>  (i) Sind A und B diag.bar, so gibt es ein S aus K^nxn, für
> das S*A*S^-1
>  und S*B*S^-1 Diagonalmatrizen sind. Zeigen sie dies in 3
> Schritten:
>  
> (a) Ist v Eigenvektor von A zum Eigenwert  [mm]\lambda,[/mm] so ist
> Bv=0 oder Bv Eigenvektor von A zum Eigenwert  [mm]\lambda[/mm]
>  
> (b) Ist w Eigenvektor von B, so lässt sich w als Summe
> gemeinsamer Eigenvektoren von A und B darstellen

Nach Teil (a) gilt [mm]B \cdot Eig(A, \lambda) \subseteq Eig(A, \lambda)[/mm]. Betrachte den Endomorphismus $C := [mm] B|_{Eig(A, \lambda)} [/mm] : Eig(A, [mm] \lambda) \to [/mm] Eig(A, [mm] \lambda)$. [/mm] Sei [mm]f \in K[t][/mm] das Minimalpolynom von $B$ und [mm]g \in K[t][/mm] das Minimalpolynom von $C$.

Nun gilt $f(B) = 0$, also insbesondere auch $f(C) = 0$. Da $g$ das Minimalpolynom von $B$ ist, gilt $g [mm] \mid [/mm] f$. Und da $f$ in paarweise verschiedene Linearfaktoren zerfaellt (warum?), tut auch $g$ das (warum?), womit $C$ Diagonalisierbar ist. Sprich, man kann $Eig(A, [mm] \lambda)$ [/mm] als eine direkte Summe von Eigenraeumen von $C$ schreiben, und somit auch als eine direkte Summe von Eigenraeumen von $B$ (da $C$ ja die Einschraenkung von $B$ ist).

Ok, im Endeffekt ist damit auch schon (c) erledigt :-)

Nun kann man sich natuerlich fragen, wie man das elementarer herausbekommt. Vielleicht bekommt ihr das ja selber hin? Als Hinweis: Das $B [mm] \cdot [/mm] Eig(A, [mm] \lambda) \subseteq [/mm] Eig(A, [mm] \lambda)$ [/mm] ist kann man auch ueber die Darstellungsmatrix von $B$ bzgl. einer Basis von Eigenvektoren von $A$ ausdruecken.

Wenn ihr nicht weiterkommt: Fragen!

LG Felix


Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.schulmatheforum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]