Grmasche Determinante < Determinanten < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 11:34 Do 26.05.2005 | Autor: | Olek |
Guten Morgen.
Folgende Aufgabe verwirrt mich:
Sei V ein reeller Vektorraum der Dimension n mit Skalarprodukt [mm] \left\langle | \right\rangle. [/mm] Die "Gramsche Determinante der Vektoren [mm] v_{1},...,v_{k} [/mm] in V ist die Zahl [mm] \varphi(v_{1},...,v_{k}) [/mm] = [mm] det(\left\langle v_{i} | v_{j} \right\rangle).
[/mm]
Zeigen sie: Die Vektoren [mm] v_{1},...,v_{k} [/mm] sind genau dann lin. unabhängig, wenn [mm] \varphi(v_{1},...,v_{k}) [/mm] >0.
Was mich nun stört, ist die Definition der G. Determinante. Da wird die Determinante eines Skalarproduktes betrachtet. Aber bei einem S. kommt doch immer eine Zahl raus. Wird dann die Determinante einer Zahl betrachtet?? Wie habe ich mir das vorzustellen?
Danke schön für eure Hilfe,
Olek
Ps: In der AUfgabenstellung steht ein anderer grichischer Buchstabe, lasst euch davon nicht verwirren, falls ihr den oben Benutzten sonst nur aus anderen Zusammenhängen kennt.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 12:11 Do 26.05.2005 | Autor: | Paulus |
> Guten Morgen.
> Folgende Aufgabe verwirrt mich:
> Sei V ein reeller Vektorraum der Dimension n mit
> Skalarprodukt [mm]\left\langle | \right\rangle.[/mm] Die "Gramsche
> Determinante der Vektoren [mm]v_{1},...,v_{k}[/mm] in V ist die Zahl
> [mm]\varphi(v_{1},...,v_{k})[/mm] = [mm]det(\left\langle v_{i} | v_{j} \right\rangle).[/mm]
>
> Zeigen sie: Die Vektoren [mm]v_{1},...,v_{k}[/mm] sind genau dann
> lin. unabhängig, wenn [mm]\varphi(v_{1},...,v_{k})[/mm] >0.
>
> Was mich nun stört, ist die Definition der G. Determinante.
> Da wird die Determinante eines Skalarproduktes betrachtet.
> Aber bei einem S. kommt doch immer eine Zahl raus. Wird
> dann die Determinante einer Zahl betrachtet?? Wie habe ich
> mir das vorzustellen?
> Danke schön für eure Hilfe,
> Olek
>
Ich denke, das ist so gemeint, wobei ich jetzt der Einfachheit halber als Skalarprodukt das nehme: [mm] $v_i*v_j$ [/mm] und mich mal auf eine 4x4-Matrix beschränke)
Die Matrix, von der du dann die Determinante zu berechnen hast, sieht so aus:
[mm] $\pmat{v_1*v_1&v_1*v_2&v_1*v_3&v_1*v_4\\v_2*v_1&v_2*v_2&v_2*v_3&v_2*v_4\\v_3*v_1&v_3*v_2&v_3*v_3&v_3*v_4\\v_4*v_1&v_4*v_2&v_4*v_3&v_4*v_4}$
[/mm]
Mit lieben Grüssen
Paul
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 15:40 Do 26.05.2005 | Autor: | Olek |
Jetzt bastele ich schon die ganze Zeit daran herum, aber ich komme einfach nicht darauf, weshalb die Behauptung stimmt. Ich habe mir auch schon Beispiele aufgeschrieben, werde aus denen aber nicht schlau. Gibt es für die Aufgabe einen bestimmten Ansatz?
Schönen Dank,
Olek
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 16:21 Do 26.05.2005 | Autor: | Stefan |
Hallo Olek!
Schreibe dir auf: Was bedeutet es, wenn die Gramsche Matrix die Determinante $0$ besitzt?
Dann lassen sich die Spalten nicht-trivial zur Null kombinieren.
Nehmen nun an, dass die Vektoren linear unabhängig sind. Dann kannst du aus der obigen Linearkombination leicht einen nichttrivialen Vektor aus [mm] $Span(v_1,\ldots,v_k)$ [/mm] konstruieren, der auf allen Vektoren [mm] $v_1,\ldots,v_k$ [/mm] senkrecht steht - im Widerspruch zur Nichtausgeartetheit des Skalarprodukts, eingeschränkt auf [mm] $Span(v_1,\ldots,v_k)$.
[/mm]
Die Umkehrung ist ja völlig klar. Aus
[mm] $\lambda_1v_1+ \ldots \lambda_kv_k=0$
[/mm]
folgt ja sofort
$0= [mm] \langle \lambda_1v_1+ \ldots \lambda_kv_k, v_i \rangle [/mm] = [mm] \lambda [/mm] _1 [mm] \langle v_1,v_i \rangle [/mm] + [mm] \ldots [/mm] + [mm] \lambda_k \langle v_k, v_i \rangle$
[/mm]
für alle [mm] $i=1,2,\ldots,k$ [/mm] und damit die lineare Abhängigkeit der Spalten der Gramschen Matrix, was das Verschwinden der Determinante impliziert.
Viele Grüße
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:34 Do 26.05.2005 | Autor: | Olek |
Und was ist für den Fall, dass die Determinante kleiner als Null ist?
Mir leuchtet noch nicht so ganz deine Lösung in Bezug auf die Aufgabenstellung ein ;)
LG, Olek
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 18:50 Do 26.05.2005 | Autor: | Stefan |
Hallo Olek!
Die Gramsche Matrix ist immer positiv semidefinit, wenn sie aus einer positiv semidefiniten Bilinearform hervorgeht. Daher kann die Determinante nicht negativ werden.
Du musst also zeigen, dass die Spalten der Gramschen Matrix genau dann linear unabhängig sind, wenn die Vektoren [mm] $v_1,v_2,\ldots,v_k$ [/mm] linear unabhängig sind.
Wie das geht, habe ich ja bereits aufgezeigt.
Viele Grüße
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 10:11 Fr 27.05.2005 | Autor: | Olek |
Hallo Stefan,
so weit konnte ich das jetzt nachvollziehen. Heute morgen hab ich endlich geschnallt, warum die Det. = 0 ist für lin. abh. Vektoren.
Jetzt habe ich nur noch mit folgendem Probleme:
"Nehmen nun an, dass die Vektoren linear unabhängig sind. Dann kannst du aus der obigen Linearkombination leicht einen nichttrivialen Vektor aus $ [mm] Span(v_1,\ldots,v_k) [/mm] $ konstruieren, der auf allen Vektoren $ [mm] v_1,\ldots,v_k [/mm] $ senkrecht steht - im Widerspruch zur Nichtausgeartetheit des Skalarprodukts, eingeschränkt auf $ [mm] Span(v_1,\ldots,v_k) [/mm] $."
Wie mache ich das mit dem Konstruieren konkret?
Wielen Dank für deine Geduld,
Olek
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 10:27 Fr 27.05.2005 | Autor: | Stefan |
Hallo Olek!
Wenn die Spalten der Gramschen Matrix linear abhängig sind, dann gibt es Skalare [mm] $\lambda_1,\ldots,\lambda_k$, [/mm] die nicht alle verschwinden, und für die
[mm] $\lambda_1 \langle v_1,v_1 \rangle [/mm] + [mm] \lambda_2 \langle v_1,v_2 \rangle [/mm] + [mm] \ldots [/mm] + [mm] \lambda_k\langle v_1,v_k\rangle=0$
[/mm]
[mm] $\lambda_1 \langle v_2,v_1 \rangle [/mm] + [mm] \lambda_2 \langle v_2,v_2 \rangle [/mm] + [mm] \ldots [/mm] + [mm] \lambda_k\langle v_2,v_k\rangle=0$
[/mm]
[mm] $\vdots$
[/mm]
[mm] $\lambda_1 \langle v_k,v_1 \rangle [/mm] + [mm] \lambda_2 \langle v_k,v_2 \rangle [/mm] + [mm] \ldots [/mm] + [mm] \lambda_k\langle v_k,v_k\rangle=0$.
[/mm]
Wegen der Bilinearität des Skalarprodukts kann man diese Gleichungen kompakt wie folgt schreiben:
(*) [mm] $\langle v_i [/mm] , [mm] \sum\limits_{j=1}^k\lambda_jv_j \rangle [/mm] =0$
für alle [mm] $i=1,\ldots.k$.
[/mm]
Setze nun:
$w:= [mm] \sum\limits_{j=1}^k \lambda_jv_j$.
[/mm]
Unter der Annahme der linearen Unabhängigkeit der Familie [mm] $(v_1,\ldots,v_k)$ [/mm] und da (siehe oben) nicht alle Skalare [mm] $\lambda_j$ [/mm] verschwinden, gilt:
$w [mm] \ne [/mm] 0$ und offenbar: [mm] $w\in Span(v_1,v_2,\ldots,v_k)$.
[/mm]
Damit haben wir mit $w$ einen nichttrivialen Vektor aus [mm] $Span(v_1,v_2,\ldots,v_k)$ [/mm] erzeugt, der gemäß (*) auf allen Vektoren [mm] $v_i$ [/mm] senkrecht steht. Dann wäre aber das Skalarprodukt, eingeschränkt auf [mm] $Span(v_1,v_2,\ldots,v_k)$, [/mm] ausgeartet, was nicht sein kann.
Daher muss die Familie [mm] $(v_1,\ldots,v_k)$ [/mm] linear unabhängig sein.
"Wenn du so auf Frauen stehst, müßtest du doch eigentlich den ganzen Tag nackt vor dem Spiegel stehen!?" (Banky)
Dieser Spruch verunsichert mich irgendwie... (kleiner Insider an andere Koordinatoren, sorry)
Viele Grüße
Stefan
|
|
|
|