Varianz / beding. Erw.wert < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Gegeben seien die Zufallsvariablen [mm] Y_1=X+A_1 [/mm] und [mm] Y_2=X+A_2. A_1 [/mm] und [mm] A_2 [/mm] seien voneinander und von X unabhängig. Sie seien beide um den Erwartungswert null und um zwei bekannte Varianzen [mm] \sigma_1^2 [/mm] und [mm] \sigma_2^2 [/mm] normalverteilt. X sei ebenfalls normalverteilt um [mm] \sigma_x^2 [/mm] und [mm] \mu_x.
[/mm]
[mm] Y_1 [/mm] und [mm] Y_2 [/mm] werden nacheinander gezogen. Es ist die Varianz vor der Ziehung beider Zufallsvariablen von folgendem Term zu bestimmen:
[mm] (k-4gY_1+4gE(Y_2 [/mm] | [mm] Y_1))/(8g+r)
[/mm]
k, g und r sind Konstanten.
|
Lösungsansatz
= [mm] Var(-4gY_1/(8g+r))+Var((4gE(Y_2 [/mm] | [mm] Y_1))/(8g+r))
[/mm]
= [mm] (16g^2(\sigma_x^2+\sigma_1^2))/(8g+r)^2+(16g^2Var(E(Y_2 [/mm] | [mm] Y_1)))/(8g+r)^2
[/mm]
mit [mm] Var(E(Y_2 |Y_1))= (E((Y_2 |Y_1)-E(Y_2))^2 [/mm] (ist das so korrekt?)
= [mm] (16g^2(\sigma_x^2+\sigma_1^2))/(8g+r)^2+16g^2(E((Y_2 |Y_1)-E(Y_2))^2/(8g+r)^2
[/mm]
Wie kann ich hier nun weiter machen?
Ich komme hier mit der Berechnung der Varianz des bedingten Erwartungswertes von [mm] Y_2 [/mm] gegeben [mm] Y_1 [/mm] nicht zurecht.
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt
Für eine Lösung wäre ich sehr dankbar.
Achtung Korrektur!!! Habe eine fehlende Klammer beim Lösungsvorschlag und die obligatorischen Quadrate bei der Varianz eingefügt.
|
|
|
|
Mal so 'ne Idee: Vielleicht kann man zeigen, dass [mm] Y_1 [/mm] und [mm] Y_2 [/mm] auch unabhängig sind - dann wäre die Sache ziemlich einfach...
Vergiss es, der Korrelationskoeefizient ist ja schon nicht Null. Zu schnell geschossen...
Was fehlt, ist eine Rechenregel, mit der man sich die Bedingtheit [mm]E(Y_2|Y_1)=E(Y_2|X+A_1)[/mm] weiter auflösen lässt. Ideal wäre z.B., wenn wegen der Unabhängigkeit von [mm] Y_2 [/mm] und [mm] A_1 [/mm] die Gleichung [mm]E(Y_2|X+A_1) = E(Y_2|X)[/mm] gelten würde.
|
|
|
|
|
Man könnte glaube ich für die Erwartungswertrevision [mm] E(Y_2 [/mm] | [mm] Y_1) [/mm] auch mit folgender Rechenregel arbeiten:
[mm] E(Y_2 [/mm] | [mm] Y_1) [/mm] = [mm] E(Y_2)+(Y_1-E(Y_2))Cov(X+A_1,X+A_2)/Var(X+A_1) [/mm]
Hat mir aber auch nicht wirklich weiter geholfen...
Gibt es vielleicht keine allgemeine Lösung vor der Realisation von [mm] Y_1?
[/mm]
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 17:52 Mi 18.07.2007 | Autor: | luis52 |
Moin Darth2palp,
zunaechst erst einmal ein herzliches
Wir loesen die Aufgabenstellung zunaechst einmal von dem unnoetigen
Blendwerk. Die interessierende Zufallsvariable kann naemlich in der Form
[mm] $\alpha+\beta [/mm] U$ geschrieben werden mit [mm] $U=\mbox{E}[Y_2\mid Y_1]-Y_1$,
[/mm]
[mm] $\alpha=k/(8g+r)$ [/mm] und [mm] $\beta=4g/(8g+r)$. [/mm] Es geht also im Prinzip um die
Berechnung von [mm] $\mbox{Var}[U]$.
[/mm]
Ich muss einmal fragen, was du ueber die multivariate Normalverteilung
weisst, bzw. in welchem Zusammenhang dir diese Aufgabe gestellt wurde.
Wenn das fuer dich keine boehmischen Doerfer sind, dann haette ich eine
Loesungsskizze.
lg
Luis
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 00:38 Do 19.07.2007 | Autor: | Darth2palp |
Hallo Luis,
erstmal Dir und Generation X vielen Dank für die herzliche Aufnahme hier und die Hilfe.
Die multivariate Normalverteilung ist lange her, aber vielleicht kriege ich das wieder hin. Prinzipiell habe ich vielleicht auch die Frage, ob es alternativ eine Schätzlösung gibt? Bzw. welche Arten von Lösungen hier überhaupt vorliegen. Konkret meine ich damit ob ich überhaupt eine allgemeine Aussage über die Varianz VOR Kenntnis von [mm] Y_1 [/mm] machen kann.
Mit dieser Kenntnis müßte ich ansonsten wie in meiner zusätzlichen Frage rechnen können.
Grüße
Darth2palp
|
|
|
|
|
Also die Formel sieht schon gar nicht so übel aus. Du weißt vielleicht, dass die Summe unabhängiger normalverteilter ZV wieder normalverteilt ist. Für Erwartungswert und Varianz gelten dann die üblichen Summenformeln. D.h.
[mm]E(Y_i)=E(X) + E(A_i)[/mm]
[mm]Var(Y_i)=Var(X) + Var(A_i)[/mm]
[mm]Cov(Y_1, Y_2)=E((Y_1 - E(Y_1))(Y_2 - E(Y_2)))=E((X-E(X) + A_1 - 0)(X-E(X) + A_2 - 0))=Var(X)[/mm]
Letzteres wegen der Unabhängigkeit von [mm]X, A_1, A_2[/mm]. Damit solltest du die Gleichung lösen können.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:36 Do 19.07.2007 | Autor: | Darth2palp |
Supervielen Dank für die Hilfe. Ich glaube ich habs jetzt.
Wenn ich das dann richtig sehe müßte für [mm] Var(E(Y_2 [/mm] | [mm] Y_1) [/mm] rauskommen:
[mm] Var(E(Y_2 [/mm] | [mm] Y_1) [/mm] = [mm] Var(E(X)+((Y_1-E(X))(\sigma_x^2/(\sigma_x^2+\sigma_1^2)) [/mm] = [mm] \sigma_x^4/(\sigma_x^2+\sigma_1^2)
[/mm]
Insgesamt also:
= [mm] 16g^2(\sigma_x+\sigma_1)/(8g+r)^2+16g^2(\sigma_x^4/(\sigma_x^2+\sigma_1^2))/(8g+r)^2
[/mm]
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 08:24 Do 19.07.2007 | Autor: | luis52 |
Moin Nachteule,
ich darf zunaechst einmal zusammenfassen, was wir hier haben:
[mm] $X\sim N(\mu_x,\sigma_x^2)$, $A_1\sim N(0,\sigma_1^2)$, $A_2\sim N(0,\sigma_2^2)$, $Y_1=X+A_1$, $Y_2=X+A_2$. [/mm] Ferner sind $X$, [mm] $A_1$ [/mm] und [mm] $A_2$ [/mm] unabhaengig. Wie bereits ausgefuehrt geht es um die Bestimmung von [mm] $\mbox{Var}[\mbox{E}[Y_2\mid Y_1]-Y_1]$.
[/mm]
Ich zeige zunaechst, dass der Vektor [mm] ${\bf y}=(Y_1,Y_2)'$ [/mm] bivariat
normalverteilt ist. Was habe ich davon? (Fuer meine Argumentation muss ich leider die Quellen etwas zusammensuchen.) Zum einen kann man verstehen, was mit [mm] $\mbox{E}[Y_2\mid Y_1]$ [/mm] gemeint ist. Unter (6.3), Seite 84, in
http://www.statoek.wiso.uni-goettingen.de/veranstaltungen/Multivariate/Daten/mvsec6.pdf
findest du die Darstellung
[mm] $\mbox{E}[Y_2\mid Y_1=y_1]=\mbox{E}[Y_2]+\Sigma_{12}\Sigma_{11}^{-1}(y_1-\mbox{E}[Y_1])$.
[/mm]
Dabei sind [mm] $\Sigma_{12}$ [/mm] und [mm] $\Sigma_{11}$ [/mm] Teilmatrizen der
Varianz-Kovarianzmatrix [mm] $\Sigma$ [/mm] von [mm] ${\bf y}:=(Y_1,Y_2)'$. [/mm] (Wir werden sehen, dass das Zahlen sind).
Zunaechst ist [mm] $\mbox{E}[Y_2\mid Y_1=y_1]$ [/mm] eine *Zahl*. Loest du dich von dieser Zahl,
so ist [mm] $\mbox{E}[Y_2\mid Y_1]$ [/mm] eine *Zufallsvariable*, naemlich [mm] $\mbox{E}[Y_2]+\Sigma_{12}\Sigma_{11}^{-1}(Y_1-\mbox{E}[Y_1])$.
[/mm]
Betrachte den Zufallsvektor [mm] ${\bf z}=(X,A_1,A_2)'$. [/mm] Er ist multivariat
normalverteilt mit Erwartungswertevektor [mm] $\mbox{E}[{\bf z}]:=(\mu_x,0,0)'$ [/mm] und Varianz-Kovarianzmatrix
[mm] $\mbox{Var}[{\bf z}]= \begin{pmatrix}
\sigma_x^2&0&0\\[1ex]
0&\sigma_1^2&0\\[1ex]
0&0&\sigma_2^2\\[1ex]
\end{pmatrix}$
[/mm]
Nach
http://www.mathematik.uni-ulm.de/stochastik/lehre/ws02_03/statistik_2/skript/node27.html
ist [mm] ${\bf y}={\bf Az}$ [/mm] bivariat normalverteilt mit
[mm] ${\bf A}= \begin{pmatrix}
1&1&0\\[1ex]
1&0&1\\[1ex]
\end{pmatrix}$
[/mm]
(Beachte, dass [mm] $\bf [/mm] A$ den Rang 2 besitzt.) Nach bekannten Rechenregeln
ist
[mm] $\mbox{E}[{\bf y}]=\mbox{E}[{\bf Az}]={\bf A}\mbox{E}[{\bf
z}]=(\mu_x,\mu_y)'$
[/mm]
und
[mm] $\Sigma=\mbox{Var}[{\bf y}]=\mbox{Var}[{\bf Az}] ={\bf A}\mbox{Var}[{\bf z}]{\bf
A'}= \begin{pmatrix}
\sigma_x^2+\sigma_1^2&\sigma_x^2\\[1ex]
\sigma_x^2&\sigma_x^2+\sigma_2^2\\[1ex]
\end{pmatrix}$
[/mm]
Setzt du nun [mm] $\Sigma_{12}=\sigma_x^2$ [/mm] und [mm] $\Sigma_{22}=\sigma_x^2+\sigma_2^2$, [/mm] so meine ich, dass du nun genug "Futter" hast, um den Rest anzugehen.
lg
Luis
PS: Das duerfte weitestgehend deinem Ansatz und den Ausfuehrungen von Andreas entsprechen.
|
|
|
|