Maximum Likelihood Schätzer < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | [mm] f_Y(y)=(2\pi)^{-n/2}|V(\theta)|^{-1/2}\exp{(-1/2(y-X\beta)^TV(\theta)^{-1}(y-X\beta))} [/mm] |
Hallo zusammen,
sei [mm] $Y\sim\mathcal{N}(X\beta,V(\theta))$ [/mm] verteilt aus der Dichte der n-variaten Normalverteilung [mm] f_Y [/mm] ergibt sich die log-Likelihood-funktion für [mm] \beta [/mm] und [mm] \theta [/mm] bis auf additive Konstanten zu:
[mm] $l(\beta,\theta)=-1/2(log(|V(\theta)|) (y-X\beta)^TV(\theta)^{-1}(y-X\beta)$.
[/mm]
Maximiert man [mm] $l(\beta,\theta)$ [/mm] für festes [mm] \theta [/mm] bzgl. [mm] \beta, [/mm] so erhält man den allgemeinen oder auch generalisierten Kleinste Quadrate Schätzer:
[mm] $\hat\beta(\theta,y)=(X^TV(\theta)^{-1}X)^{-1}X^TV(\theta)^{-1}y$.
[/mm]
Einsetzen von [mm] \hat\beta [/mm] in [mm] $l(\beta,\theta)$ [/mm] liefert:
[mm] $l(\hat\beta(\theta,y),\theta) [/mm] = [mm] -1/2(log(|V(\theta)|) (y-X\beta(\theta,y))^TV(\theta)^{-1}(y-X\beta(\theta,y))$
[/mm]
Die Maximierung von [mm] l(\hat\beta(\theta,y),\theta) [/mm] liefert nun den ML-Schätzer für [mm] \theta [/mm] und daher einen Schätzer für V. Die Maximierung erfolgt mit einem Newton-Raphson- oder Fisher-Scoring-Algorithmus, da die
log-Likelihood-Funktion nicht linear in [mm] \theta [/mm] ist.
Jetzt meine Frage: Angenommen [mm] Y=(Y_1,..,Y_4), [/mm] wobei [mm] Y_i\sim\mathcal{N}(\mu,\Sigma(\theta)) [/mm] iid, dann ist der ML-Schätzer für [mm] \Sigma [/mm] die Stichprobenkovarianz. Da V sich ausschließlich über [mm] \Sigma [/mm] bestimmen lässt, müsste das doch auch der ML-Schätzer für V sein, stimmt das?
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:20 So 14.07.2013 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|