Extrema u. Nebenb. < Analysis < Hochschule < Mathe < Vorhilfe
|
Hallo Leute,
das was ich in dieser Diskussion erfahren habe wollte ich mal ausprobieren und bin leider nicht auf das gewünschte Ergebnis gekommen:
Und zwar geht es um die klassische Aufgabe, das Volumen eines Quaders bei gleicher Oberfläche (=2c) zu maximieren. Die Funktion ist also
[mm]f(x,y,z)=xyz[/mm], die Nebenbedingungsfunktion [mm]g(x,y,z)=xy+yz+zx-c[/mm]. Mittlerweile hab ich auch schon den interessanten Punkt gefunden: [mm]P=(\wurzel{\bruch{c}{3}}, \wurzel{\bruch{c}{3}}, \wurzel{\bruch{c}{3}})[/mm] und der Multiplikator ist [mm]\lambda=\wurzel{\bruch{c}{12}}[/mm].
Um zu zeigen, dass dort wirklich ein Maximum ist (was ja einleuchtend ist, da das Ergebnis ein Würfel ist), habe ich die Hessematrix der Funktion [mm]f-\lambda*g[/mm] im Punkt P berechnet:
[mm]H(P)= \pmat{0 & \wurzel{\bruch{c}{12}} & \wurzel{\bruch{c}{12}} \\ \wurzel{\bruch{c}{12}} & 0 & \wurzel{\bruch{c}{12}} \\ \wurzel{\bruch{c}{12}} & \wurzel{\bruch{c}{12}} & 0}[/mm]
Diese hat aber leider die Eigenwerte [mm]+\wurzel{\bruch{c}{3}}[/mm] und [mm]-\wurzel{\bruch{c}{12}} [/mm], ist also indefinit und es kann kein Maximum sein ?!
Bitte schaut euch das mal kurz an, irgendwo muss ein Fehler sein. Am reinen Verrechnen kanns eigentlich nicht liegen, da ich mit Maple nachgerechnet habe.
Danke,mfG
Daniel
|
|
|
|
Hallo Daniel,
bei mir ist das (wie schon öfter gesagt) alles recht lang her: Du müsstest das Folgende sorfältig prüfen...
Wenn Du eine Funktion f(r) unter der Nebenbedingung g(r)=0 optimieren willst, dann besagt die Lagrangesche Multiplikatorenregel nur, dass für das relative Extremum [mm] r_0 [/mm] die Gradienten von f und g in [mm] r_0 [/mm] parallel sein müssen. Denn andernfalls gäbe es eine Anstiegs-/Abstiegskomponente von [mm] \nabla f(r_0) [/mm] parallel zur "Äquipotentialfläche" g(r) = 0 in [mm] r_0 [/mm] (ich gehe von hinreicheder Differenzierbarkeit aus). Daraus folgt zwar, dass [mm]\nabla(f-\lambda g)(r_0) = 0[/mm] sein muss, aber nicht unbedingt, dass [mm] r_0 [/mm] ein lokales Extremum von [mm]f-\lambda g[/mm] ist.
Konkret in Deinem Fall ist der steilste Anstieg der Volumenfunktion f in Richtung [mm] \vektor{1\\1\\1} [/mm] : wenn Du nur in diese Richtung gehst, wächst das Volumen f kubisch. Die Oberflächenfunktion g wächst in diese Richtung nur quadratisch, also kannst Du zwar [mm] \nabla(f-\lambda [/mm] g) mit einem geeigneten [mm] \lambda [/mm] an der "kritischen" Stelle [mm]P[/mm] zum verschwinden bringen, aber es ist klar, dass [mm] f-\lambda [/mm] g in diese Richtung kubisch bleibt, also bestenfalls ein Sattelpunkt vorliegen kann.
Was bringt jetzt die Hesse-Matrix H(P)?
Die Richtung des steilsten Anstieges von f (oben) ist Eigenvektor von H(P): keine Überraschung. Da H symmetrisch ist, kannst Du H weiter diagonalisieren mit den Eigenvektoren [mm] \vektor{1\\-1\\0} [/mm] und [mm] \vektor{1\\1\\-2} [/mm] (alle nicht normiert). Die beiden letzteren müssten zu dem Eigenwert [mm] -\wurzel{c/12} [/mm] gehören und zeigen tangetial zur Fläche g(r) = 0 in P, der erste Eigenvektor gehört zu dem positiven Eigenwert, alle drei sind paarweise orthogonal. D.h.:
Drehst Du den oberen [mm] \vektor{1\\1\\1} [/mm] auf [mm] \vektor{1\\0\\0} [/mm] , erhältst Du eine symmetrische Untermatrix, die negativ definit ist: das Problem ist "entkoppelt" auf einen Unterraum (orthogonal zum steilsten Anstieg, tangential zu g(r) = 0 in P) und die Hessematrix zeigt für diesen Unterraum ein Maximum an.
Grüße, Richard
|
|
|
|
|
Hallo Richard!
Vielen Dank für deine ausführliche Antwort. Ich habe noch ein paar Fragen dazu:
> Konkret in Deinem Fall ist der steilste Anstieg der
> Volumenfunktion f in Richtung [mm]\vektor{1\\1\\1}[/mm] : wenn Du
> nur in diese Richtung gehst, wächst das Volumen f kubisch.
1. Den steilsten Anstieg gibt mir der Gradient der Funktion in einem Punkt an, richtig?
> Die Oberflächenfunktion g wächst in diese Richtung nur
> quadratisch, also kannst Du zwar [mm]\nabla(f-\lambda[/mm] g) mit
> einem geeigneten [mm]\lambda[/mm] an der "kritischen" Stelle [mm]P[/mm] zum
> verschwinden bringen, aber es ist klar, dass [mm]f-\lambda[/mm] g in
> diese Richtung kubisch bleibt, also bestenfalls ein
> Sattelpunkt vorliegen kann.
> Was bringt jetzt die Hesse-Matrix H(P)?
> Die Richtung des steilsten Anstieges von f (oben) ist
> Eigenvektor von H(P): keine Überraschung.
2. Ist es also immer so, dass der Gradient in einem Punkt ein Eigenvektor von der Hessematrix in dem Punkt ist ?
> Da H symmetrisch
> ist, kannst Du H weiter diagonalisieren mit den
> Eigenvektoren [mm]\vektor{1\\-1\\0}[/mm] und [mm]\vektor{1\\1\\-2}[/mm] (alle
> nicht normiert). Die beiden letzteren müssten zu dem
> Eigenwert [mm]-\wurzel{c/12}[/mm] gehören und zeigen tangetial zur
> Fläche g(r) = 0 in P, der erste Eigenvektor gehört zu dem
> positiven Eigenwert, alle drei sind paarweise orthogonal.
3. Das ist der Spektralsatz, oder? Maple gibt mir [mm]\vektor{1\\1\\1}, \vektor{-1\\0\\1}, \vektor{-1\\1\\0}[/mm] als Eigenvektoren aus. Daraus mache ich dann mit Schmidtschem Orthonorm.verfahren eine ONB. Ich komme auf [mm]\bruch{1}{\wurzel{3}}*\vektor{1\\1\\1}, \bruch{1}{\wurzel{2}}*\vektor{-1\\0\\1}, \bruch{1}{\wurzel{6}}*\vektor{-1\\2\\-1}[/mm] und die Matrix Q aus diesen Spalten erfüllt dann [mm]Q^{-1}HQ=diag(-\wurzel{c/3},-\wurzel{c/12},-\wurzel{c/12})[/mm].
> D.h.:
> Drehst Du den oberen [mm]\vektor{1\\1\\1}[/mm] auf [mm]\vektor{1\\0\\0}[/mm]
> , erhältst Du eine symmetrische Untermatrix
4. wie sieht diese genau aus? Was meinst du mit Vektor drehen ?
, die negativ
> definit ist: das Problem ist "entkoppelt" auf einen
> Unterraum (orthogonal zum steilsten Anstieg, tangential zu
> g(r) = 0 in P) und die Hessematrix zeigt für diesen
> Unterraum ein Maximum an.
>
5. Ist das also ein allgemeines (Diff'barkeit vorausgesetzt) Verfahren: Hessematrix diagonalisieren, und damit dann den Unterraum, der orthogonal zum Gradienten und tangential zur Nebenb. ist, untersuchen?
vielen Dank,
mfg
Daniel
|
|
|
|
|
Hallo Daniel,
nur in Kürze:
> 1. Den steilsten Anstieg gibt mir der Gradient der Funktion
> in einem Punkt an, richtig?
Ja.
> 2. Ist es also immer so, dass der Gradient in einem Punkt
> ein Eigenvektor von der Hessematrix in dem Punkt ist ?
Nein. Aber in einer Umgebung von [mm] r_0 [/mm] ist
[mm]\nabla h(r_0 + h) \approx \nabla h(r_0) + H(r_0) h[/mm]
und mit [mm] \nabla h(r_0) [/mm] = 0 wie in unserem Fall geben die Eigenvektoren der Hessematrix H auch die Richtung der Gradienten um [mm] r_0 [/mm] an, insbesondere auch die mit den extremsten Anstiegen.
> > Da H symmetrisch
> > ist, kannst Du H weiter diagonalisieren mit den
> > Eigenvektoren [mm]\vektor{1\\-1\\0}[/mm] und [mm]\vektor{1\\1\\-2}[/mm] (alle
> > nicht normiert). Die beiden letzteren müssten zu dem
> > Eigenwert [mm]-\wurzel{c/12}[/mm] gehören und zeigen tangetial zur
> > Fläche g(r) = 0 in P, der erste Eigenvektor gehört zu dem
> > positiven Eigenwert, alle drei sind paarweise orthogonal.
>
> 3. Das ist der Spektralsatz, oder?
Keine Ahnung.
> Maple gibt mir
> [mm]\vektor{1\\1\\1}, \vektor{-1\\0\\1}, \vektor{-1\\1\\0}[/mm] als
> Eigenvektoren aus.
Die sind (noch) nicht orthogonal, aber da die letzten beiden zum selben Eigenwert sind, sind natürlich auch beliebige Linearkombis Eigenvektoren.
> Daraus mache ich dann mit Schmidtschem
> Orthonorm.verfahren eine ONB. Ich komme auf
> [mm]\bruch{1}{\wurzel{3}}*\vektor{1\\1\\1}, \bruch{1}{\wurzel{2}}*\vektor{-1\\0\\1}, \bruch{1}{\wurzel{6}}*\vektor{-1\\2\\-1}[/mm]
> und die Matrix Q aus diesen Spalten erfüllt dann
> [mm]Q^{-1}HQ=diag(-\wurzel{c/3},-\wurzel{c/12},-\wurzel{c/12})[/mm].
Genau.
> > D.h.:
> > Drehst Du den oberen [mm]\vektor{1\\1\\1}[/mm] auf
> [mm]\vektor{1\\0\\0}[/mm]
> > , erhältst Du eine symmetrische Untermatrix
> 4. wie sieht diese genau aus? Was meinst du mit Vektor
> drehen ?
Genau wie oben: eine orthogonales R, das [mm] R^{-1}HR [/mm] so aussehen lässt, dass in der 1. Zeile und der 1. Spalte außer dem Eigenwert in Position 1,1 nur Nullen stehen: eine noch nicht vollständig ausgeführte Diagonalisierung also. Es entsteht
> > eine Untermatrix, die negativ
> > definit ist: das Problem ist "entkoppelt" auf einen
> > Unterraum (orthogonal zum steilsten Anstieg, tangential zu
> > g(r) = 0 in P) und die Hessematrix zeigt für diesen
> > Unterraum ein Maximum an.
> 5. Ist das also ein allgemeines (Diff'barkeit
> vorausgesetzt) Verfahren: Hessematrix diagonalisieren, und
> damit dann den Unterraum, der orthogonal zum Gradienten und
> tangential zur Nebenb. ist, untersuchen?
Es würde m.E. zum Ziel führen, wenn man für den Unterraum eine positiv oder negativ definite (Unter-) Matrix kriegt: dann liegt ein (relatives) Extremum vor.
Kommt mir aber noch zu aufwändig vor...
Grüße, Richard
|
|
|
|
|
Hallo Richard,
danke für deine Antworten, ein paar Sachen sind mir noch nicht klar:
> > 2. Ist es also immer so, dass der Gradient in einem Punkt
> > ein Eigenvektor von der Hessematrix in dem Punkt ist ?
> Nein. Aber in einer Umgebung von [mm]r_0[/mm] ist
> [mm]\nabla h(r_0 + h) \approx \nabla h(r_0) + H(r_0) h[/mm]
> und
> mit [mm]\nabla h(r_0)[/mm] = 0 wie in unserem Fall geben die
> Eigenvektoren der Hessematrix H auch die Richtung der
> Gradienten um [mm]r_0[/mm] an, insbesondere auch die mit den
> extremsten Anstiegen.
Ich denke es gibt in jedem Punkt nur einen Gradienten, also auch in [mm]r_0[/mm] nur einen ?
...
> > und die Matrix Q aus diesen Spalten erfüllt dann
> >
> [mm]Q^{-1}HQ=diag(-\wurzel{c/3},-\wurzel{c/12},-\wurzel{c/12})[/mm].
> Genau.
> > > D.h.:
> > > Drehst Du den oberen [mm]\vektor{1\\1\\1}[/mm] auf
> > [mm]\vektor{1\\0\\0}[/mm]
> > > , erhältst Du eine symmetrische Untermatrix
> > 4. wie sieht diese genau aus? Was meinst du mit Vektor
> > drehen ?
> Genau wie oben: eine orthogonales R, das [mm]R^{-1}HR[/mm] so
> aussehen lässt, dass in der 1. Zeile und der 1. Spalte
> außer dem Eigenwert in Position 1,1 nur Nullen stehen: eine
> noch nicht vollständig ausgeführte Diagonalisierung also.
Ist also nicht schon mein Q ohne die 1. Zeile und 1. Spalte, also [mm]diag(-\wurzel{c/12},-\wurzel{c/12})[/mm] diese Untermatrix? (Die Vektoren [mm]\vektor{1\\1\\1}[/mm] und [mm]\vektor{-\wurzel{c/3} \\ 0 \\ 0}[/mm] zeigen ja in die gleiche Richtung ?)
Irgendwie ist das schon ganz schön kompliziert. Mich wundert, dass dazu in meinen Büchern nix steht, obwohl das doch eigentlich ein alltägliches Problem sein müsste!
Falls jemand anders noch Ideen zu dem Thema hat, bitte posten!
danke, mfg
Daniel
|
|
|
|
|
Hallo Daniel,
> 2. Ich denke es gibt in jedem Punkt nur einen Gradienten,
> also auch in [mm]r_0[/mm] nur einen ?
Ja. Aber hier sind die Gradienten [mm] \nabla h(r_0 [/mm] + h) einer (kleinen) Umgebung +h des kritischen Punktes [mm] r_0 [/mm] bestimmt zu [mm]\nabla h(r_0 + h) \approx H(r_0) h[/mm] (da [mm]\nabla h(r_0) = 0[/mm] war): die Hessematrix zeigt jetzt, wie's in dieser Umgebung weitergeht.
Ist sie z.B. positiv definit, dann zeigen die Gradienten in der Umgebung alle weg von [mm] r_0, [/mm] d.h.: es geht überall "bergauf" und bei [mm] r_0 [/mm] liegt ein lok. Minimum. Sind die EWs alle negativ, außer der in Richtung [mm] \nabla f(r_0) [/mm] (diese Richtung ist "verboten", weil man dort die Fläche g(r) = 0 verlässt mit h = f - [mm] \lambda [/mm] g), dann liegt ein zu g relatives Maximum vor.
> Ist also nicht schon mein Q ohne die 1. Zeile und 1.
> Spalte, also [mm]diag(\wurzel{c/12},-\wurzel{c/12})[/mm] diese
> Untermatrix? (Die Vektoren [mm]\vektor{1\\1\\1}[/mm] und
> [mm]\vektor{-\wurzel{c/3} \\ 0 \\ 0}[/mm] zeigen ja in die gleiche
> Richtung ?)
Ja, klar, "mein" Q war noch keine vollständige Diagonalisierung, aber für "Existenzbeweise" würde sie reichen. Mehr war nicht gemeint...
> Irgendwie ist das schon ganz schön kompliziert. Mich
> wundert, dass dazu in meinen Büchern nix steht, obwohl das
> doch eigentlich ein alltägliches Problem sein müsste!
> Falls jemand anders noch Ideen zu dem Thema hat, bitte
> posten!
Daas sind Themen aus der Numerik. Ich habe jetzt keine Titel parat, aber die Untersuchung konvexer Funktionen mit dem Newtonverfahren unter Nebenbedingungen sind dort Standart.
Grüße, Richard
|
|
|
|
|
Hallo Richard,
vielen Dank nochmal für deine Erklärungen !
Hat mir schon fast eine Numerik-Vorlesung ersetzt
Grüße aus München,
Daniel
|
|
|
|