matheraum.de
Raum für Mathematik
Offene Informations- und Nachhilfegemeinschaft

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Schulmathe
  Status Primarstufe
  Status Mathe Klassen 5-7
  Status Mathe Klassen 8-10
  Status Oberstufenmathe
    Status Schul-Analysis
    Status Lin. Algebra/Vektor
    Status Stochastik
    Status Abivorbereitung
  Status Mathe-Wettbewerbe
    Status Bundeswettb. Mathe
    Status Deutsche MO
    Status Internationale MO
    Status MO andere Länder
    Status Känguru
  Status Sonstiges

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenLineare Algebra - MatrizenNullstellen der Ableitung
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Deutsch • Englisch • Französisch • Latein • Spanisch • Russisch • Griechisch
Forum "Lineare Algebra - Matrizen" - Nullstellen der Ableitung
Nullstellen der Ableitung < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Matrizen"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Nullstellen der Ableitung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 16:34 Di 22.11.2011
Autor: pirad

Aufgabe
Beweisen Sie, dass die Eigenwerte der Matrix M die Nullstellen der Ableitung des Polynoms [mm] f=(x-x_1)(x-x_2)\ldots(x-x_n) [/mm] sind.
[mm] M=diag(x_2,\ldots,x_n)-ev^T/n [/mm] mit [mm] e=(1,1,\ldots,1), v=(x_2-x_1,x_3-x_1,\ldots,x_n-x_1) [/mm]

In dem []Paper wird in Kapitel 3 behauptet, dass diese Aussage gilt. Mir ist aber nicht klar warum.
Die Matrix M muss ähnlich sein zu der []Begleitmatrix der Ableitung, mit dem Satz von Vieta (allgemeine Form) kann man auch die Koeffizienten in Abhängigkeit der Nullstellen von f schreiben. Dann komme ich nicht weiter, bzw. es wird sehr unschön und ich hoffe es gibt einen schöneren Weg als das dann umzuformen. Ich kann leider auch mit google keinen Beweis finden.

        
Bezug
Nullstellen der Ableitung: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 16:21 Do 24.11.2011
Autor: pirad

Ich habe mir den verlinkten Artikel noch mal angeschaut. Da wird aus der Gleichung für Eigenwerte die Formel [mm] x_i=\bruch{d}{z_i-\xi} [/mm] hergeleitet. Dann wird behauptet mit der Gleichung, wie d definiert ist kommt man auf die Gleichung [mm] 0=\frac{1}{\xi-z_1}+\ldots+\frac{1}{\xi-z_n}. [/mm] Den Schritt jedoch kann ich nicht nachvollziehen. Ich komme auf
[mm] d=d\sum_{i=1}^{n-1}\frac{z_{i+1}-z_1}{n(z_{i+1}-\xi)} [/mm]
und
[mm] 0=\sum_{i=1}^{n-1}\frac{(n-1)z_{n+1}-n\xi-z_1}{n(z_{i+1}-\xi} [/mm]
und ab da nicht weiter.

Bezug
        
Bezug
Nullstellen der Ableitung: Antwort
Status: (Antwort) fertig Status 
Datum: 11:25 So 25.12.2011
Autor: felixf

Moin!

> Beweisen Sie, dass die Eigenwerte der Matrix M die
> Nullstellen der Ableitung des Polynoms
> [mm]f=(x-x_1)(x-x_2)\ldots(x-x_n)[/mm] sind.
>  [mm]M=diag(x_2,\ldots,x_n)-ev^T/n[/mm] mit [mm]e=(1,1,\ldots,1), v=(x_2-x_1,x_3-x_1,\ldots,x_n-x_1)[/mm]

In dem Fall ist [mm] $f'(\lambda) [/mm] = [mm] \sum_{i=1}^n \prod_{j \neq i} (\lambda [/mm] - [mm] x_j)$; [/mm] der Leitterm davon ist $n [mm] \lambda^{n-1}$, [/mm] womit man es mit [mm] $\frac{1}{n}$ [/mm] multiplizieren muss um ein normiertes Polynom zu erhalten.

Laut []dieser Seite (die gerade nicht bei mir geht, aber gluecklicherweise hatte ich mir das mal aufgeschrieben; ansonsten findet sich das noch im google-Cache) gilt [mm] $\det(D [/mm] + u [mm] v^T) [/mm] = [mm] \det [/mm] D + [mm] v^T D^\# [/mm] u$ fuer alle $D [mm] \in K^{n \times n}$, [/mm] $u, v [mm] \in K^n$, [/mm] wobei $K$ ein beliebiger Koerper ist und [mm] $D^\#$ [/mm] die []komplementaere Matrix zu $D$ ist.

Damit ist [mm] $\det(\lambda E_n [/mm] - M) = [mm] (-1)^{n-1} \det(D [/mm] - e/n [mm] \cdot v^T)$ [/mm] mit $D = [mm] diag(x_1 [/mm] - [mm] \lambda, \dots, x_{n-1} [/mm] - [mm] \lambda)$, [/mm] $e/n = (1/n, [mm] \dots, [/mm] 1/n)$ und $v = [mm] (x_1-x_0, \dots, x_{n-1}-x_0)$. [/mm] (Ich hab die Indices mal verschoben.) Damit ist hier [mm] $D^\#$ [/mm] die Diagonalmatrix, deren $i$-ter Eintrag gleich [mm] $\prod_{j=1 \atop j \neq i}^{n-1} (x_j [/mm] - [mm] \lambda)$ [/mm] ist, $1 [mm] \le [/mm] i [mm] \le [/mm] n-1$. Und damit die Aussage stimmt, muss $n [mm] \det(\lambda E_n [/mm] - M) = [mm] f'(\lambda)$ [/mm] sein. (Wobei [mm] $f'(\lambda) [/mm] = [mm] \sum_{i=0}^{n-1} \prod_{j=0 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j)$ [/mm] ist, mit der passenden Verschiebung der Indices.)

Folglich ist mit der Formel $n [mm] \det(\lambda E_n [/mm] - M) = n [mm] (-1)^{n-1} (\det [/mm] M - [mm] v^T D^\# [/mm] (e/n)) = n [mm] \prod_{i=1}^{n-1} (\lambda [/mm] - [mm] x_i) [/mm] + [mm] \sum_{i=1}^{n-1} (x_i [/mm] - [mm] x_0) \cdot \prod_{j=1 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j) [/mm] = [mm] \prod_{i=1}^{n-1} (\lambda [/mm] - [mm] x_i) [/mm] + [mm] \sum_{i=1}^{n-1} \biggl( (x_i [/mm] - [mm] x_0) \cdot \prod_{j=1 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j) [/mm] + [mm] (\lambda [/mm] - [mm] x_i) \prod_{j=1 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j) \biggr) [/mm] = [mm] \prod_{i=1}^{n-1} (\lambda [/mm] - [mm] x_i) [/mm] + [mm] \sum_{i=1}^{n-1} (x_i [/mm] - [mm] x_0 [/mm] + [mm] \lambda [/mm] - [mm] x_i) \cdot \prod_{j=1 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j) [/mm] = [mm] \prod_{i=0 \atop i \neq 0}^{n-1} (\lambda [/mm] - [mm] x_i) [/mm] + [mm] \sum_{i=1}^{n-1} (\lambda [/mm] - [mm] x_0) \prod_{j=1 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j) [/mm] = [mm] \prod_{i=0 \atop i \neq 0}^{n-1} (\lambda [/mm] - [mm] x_i) [/mm] + [mm] \sum_{i=1}^{n-1} \prod_{j=0 \atop j \neq i}^{n-1} (\lambda [/mm] - [mm] x_j) [/mm] = [mm] f'(\lambda)$. [/mm]

Damit hast du jetzt einen schoenen formalen Beweis der Aussage, der nicht mehr so wischi-waschi ist wie der aus dem Preprint...

LG Felix


Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Matrizen"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.schulmatheforum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]