matheraum.de
Raum für Mathematik
Offene Informations- und Nachhilfegemeinschaft

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Schulmathe
  Status Primarstufe
  Status Mathe Klassen 5-7
  Status Mathe Klassen 8-10
  Status Oberstufenmathe
    Status Schul-Analysis
    Status Lin. Algebra/Vektor
    Status Stochastik
    Status Abivorbereitung
  Status Mathe-Wettbewerbe
    Status Bundeswettb. Mathe
    Status Deutsche MO
    Status Internationale MO
    Status MO andere Länder
    Status Känguru
  Status Sonstiges

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenWahrscheinlichkeitstheorieZerlegung, Erwartungswert
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Philosophie • Religion • Kunst • Musik • Sport • Pädagogik
Forum "Wahrscheinlichkeitstheorie" - Zerlegung, Erwartungswert
Zerlegung, Erwartungswert < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Wahrscheinlichkeitstheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Zerlegung, Erwartungswert: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 02:15 Fr 19.04.2013
Autor: sissile

Aufgabe
Satz: Sei X eine Zufallsvariable mit [mm] E[X^2] [/mm] < [mm] \infty [/mm] , B eine Zerlegung .
Dann ist E((X - [mm] \sum_{i\in I, P(B_i)>0} c_i 1_{B_i})^2) [/mm] minimal wenn [mm] c_i [/mm] = [mm] \frac{E[X 1_{B_i}]}{P(B_i)} [/mm] = [mm] E(X\setminus B_i) [/mm]

Wobei [mm] 1_{..} [/mm]  die Indikatorfunktion
[mm] E(X\setminus B_i) [/mm] .. der bedingte Erwartungswert ist
(Def1: WIr defeinieren Erwartungswert bez [mm] P(.\setimus [/mm] B) miT X Zufallsvariable E[X [mm] \setminus [/mm] B] = [mm] \frac{E[X 1_{B_i}]}{P(B_i)}) [/mm]
Def2: [mm] B=(B_i)_{i\in I} [/mm] Zerlegung. Dann E[X [mm] \setminus [/mm] B] eine Zufallsvariable defeniert durch:
E[X [mm] \setminus [/mm] B] [mm] (\omega) [/mm] = [mm] \sum_{i\in I , P(B_i) > 0} [/mm] E[X [mm] \setminus B_i] 1_{B_i (\omega)} [/mm]


Hallo, die einzelnen Schritte unseres Beweises in der Vorlesung waren klar.
ABer nicht die "Beweisführung" also wieso der Beweis unseren Satz beweist!

Wir haben bündig aufgeschrieben gezeigt:(ist auch hier in meiner frage nicht wichtig wie man das zeigt)
-)
E( X [mm] \sum_{i} x_i 1_{B_i}) [/mm] = E(E(X [mm] \setminus [/mm] B) [mm] \sum_i c_i 1_{B_i}) [/mm]

-)
Daraus wurde geschlossen
E((X- E(X [mm] \setminus [/mm] B)) [mm] \sum_{i} c_i 1_{B_i} [/mm] =0 für alle [mm] (c_i)_{i \in I} [/mm]

-)
Insbesondere:
E((X- E(X [mm] \setminus [/mm] B)) (E(X [mm] \setminus [/mm] B) [mm] -\sum_{i} c_i 1_{B_i} [/mm] ))=0 für [mm] c_i= \frac{E(X 1_{B_i}) }{P(B_i)} [/mm]

-)
E((X - [mm] \sum_{i\in I, P(B_i)>0} c_i 1_{B_i})^2) [/mm] = E([X - E(X [mm] \setminus B)]^2) [/mm] + E((E (X [mm] \setminus [/mm] B) - [mm] \sum_{i} c_i 1_{B_i})^2) [/mm]
(Erklärung [mm] (a+b)^2=a^2+2ab+b^2 [/mm] wobei der mittlere term wegen vorigen verschwindet.)

WARUM IST nun der Satz bewiesen?
(Ich hab ein skriptum, aber das ist nicht öffentlich zugänglich wenn ihr interesse habt anschreiben)

LG

        
Bezug
Zerlegung, Erwartungswert: Antwort
Status: (Antwort) fertig Status 
Datum: 20:39 Sa 20.04.2013
Autor: steppenhahn

Hallo,

> Satz: Sei X eine Zufallsvariable mit [mm]E[X^2][/mm] < [mm]\infty[/mm] , B
> eine Zerlegung .
>  Dann ist E((X - [mm]\sum_{i\in I, P(B_i)>0} c_i 1_{B_i})^2)[/mm]
> minimal wenn [mm]c_i[/mm] = [mm]\frac{E[X 1_{B_i}]}{P(B_i)}[/mm] =
> [mm]E(X\setminus B_i)[/mm]

Bei eurem Satz sind die [mm] B_i [/mm] vorgegeben.
Man muss also geeignete [mm] c_i [/mm] finden, um den Ausdruck zu minimieren.


>  E((X - [mm]\sum_{i\in I, P(B_i)>0} c_i 1_{B_i})^2)[/mm] = E([X -
> E(X [mm]\setminus B)]^2)[/mm] + E((E (X [mm]\setminus[/mm] B) - [mm]\sum_{i} c_i 1_{B_i})^2)[/mm]  (*)

  

> WARUM IST nun der Satz bewiesen?

Der Term auf der linken Seite in (*) wird genau dann minimal, wenn die rechte Seite von (*) minimal wird.
Bei der rechten Seite ist der erste Summand aber unabhängig von [mm] c_i. [/mm] Er bleibt für jede Wahl von [mm] c_i [/mm] gleich. Daher wird die rechte Seite von (*) minimal, wenn

E((E (X | B) [mm] -\sum_{i} c_i 1_{B_i})^2) [/mm]    (**)

minimal wird. Wenn wir es durch geeignete Wahl von [mm] c_i [/mm] schaffen, dass (**) Null wird, so ist er sicher minimal.

Laut eurer Def. ist

$(E (X | B) = [mm] \sum_{i}\IE[X|B_i] 1_{B_i}$ [/mm]

Damit kannst du sehen, dass für [mm] $c_i [/mm] = [mm] \IE[X|B_i]$ [/mm]  der Term (**) zu Null wird.


Viele Grüße,
Stefan

Bezug
                
Bezug
Zerlegung, Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 22:32 Sa 20.04.2013
Autor: sissile

Stimmt, vielen dank für die Erklärung.

Liebe grüße

Bezug
                        
Bezug
Zerlegung, Erwartungswert: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 22:36 Sa 20.04.2013
Autor: sissile

Jetzt hätte ich noch eine Frage zu einer Bemerkung.

Die lautete:
E(X [mm] \setminus [/mm] B) ist eine orthogonale Projektion von X auf den Unterrarum von Zufallsvariablen der Form [mm] \sum c_i 1_{B_i} [/mm] bezüglich Skalarprodukt
<X,Y> = [mm] \sum_{\omega \in \Omega} P(\{\omega\}) X(\omega) Y(\omega) [/mm] = E[XY].

Wie ist das nun zu verstehen? Warum folgt dies aus unserem Beweis/Satz?

LG

Bezug
                                
Bezug
Zerlegung, Erwartungswert: Antwort
Status: (Antwort) fertig Status 
Datum: 23:14 Sa 20.04.2013
Autor: steppenhahn

Hallo,

> Jetzt hätte ich noch eine Frage zu einer Bemerkung.
>  
> Die lautete:
>  E(X [mm]\setminus[/mm] B) ist eine orthogonale Projektion von X auf
> den Unterrarum von Zufallsvariablen der Form [mm]\sum c_i 1_{B_i}[/mm]
> bezüglich Skalarprodukt
>  <X,Y> = [mm]\sum_{\omega \in \Omega} P(\{\omega\}) X(\omega) Y(\omega)[/mm]

> = E[XY].
>  
> Wie ist das nun zu verstehen? Warum folgt dies aus unserem
> Beweis/Satz?

Die Orthogonalprojektion minimiert den Abstand bzgl. der Norm:
[]Hier ganz unten im Abschnitt Eigenschaften.

Bei dir ist der quadr. Abstand bzgl. der Norm:

$||X - [mm] \sum c_i 1_{B_i}||^2 [/mm] = [mm] E\Big[X -\sum c_i 1_{B_i}\Big]^2$, [/mm]

und das haben wir ja in der vorigen Aufgabe minimiert.


Viele Grüße,
Stefan

Bezug
                                        
Bezug
Zerlegung, Erwartungswert: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 23:33 Sa 20.04.2013
Autor: sissile

Hallo
Hast du hier nicht den Erwartungswert vergessen?

In der linearen Algebra hatten wir folgende Definiton bez Orthogonalprojektion:
In einem euklidisch unitären Vektorraum, W endlich dimensionalerTeilraum von V. Es gillt V= W + [mm] W^{\perp\}. [/mm] dann ist p: V -> W orthongonalprojtkion auf W. Es gilt p(v)= [mm] \sum_{i=1}^k d(v, p(v)) [mm] \le [/mm] d(v,w) [mm] \forall [/mm] w [mm] \in [/mm] W mit Gleichheit nur dalls w=p(v)
Und das versuche ich nun mit der Aussage zu vergleichen. Versteh sie aber noch nicht ganz..

Bezug
                                                
Bezug
Zerlegung, Erwartungswert: Antwort
Status: (Antwort) fertig Status 
Datum: 16:08 So 21.04.2013
Autor: steppenhahn

Hallo,

> Hallo
>  Hast du hier nicht den Erwartungswert vergessen?

Ja ... War eigentlich da, wurde aber nicht übersetzt.



> In der linearen Algebra hatten wir folgende Definiton bez
> Orthogonalprojektion:
>  In einem euklidisch unitären Vektorraum, W endlich
> dimensionalerTeilraum von V. Es gillt V= W + [mm]W^{\perp\}.[/mm]
> dann ist p: V -> W orthongonalprojtkion auf W. Es gilt
> p(v)= [mm]\sum_{i=1}^k
> ORthonormalbasis von W. p(v) ist jener eindeutig bestimme
> Punkt in W, der kürzesten Abstand zu v hat, d.h:
>  d(v, p(v)) [mm]\le[/mm] d(v,w) [mm]\forall[/mm] w [mm]\in[/mm] W mit Gleichheit nur
> dalls w=p(v)
>  Und das versuche ich nun mit der Aussage zu vergleichen.


> Versteh sie aber noch nicht ganz..

Das ist ziemlich wenig Input für eine Frage.
Was verstehst du denn nicht?


Da steht doch, dass die Orthogonalprojektion den Abstand minimiert.
Und bei dir ist der Abstand zwischen zwei Zufallsvariablen X und Y: [mm] $E[(X-Y)^2]$. [/mm]

Du projizierst auf den linearen Unterraum $W := [mm] \{\sum c_i 1_{B_i}: c_i \in \IR \}$ [/mm] des Raums aller [mm] L^2 [/mm] - Zufallsvariablen V.

Die Basiselemente sind also [mm] $b_i [/mm] := [mm] 1_{B_i}$. [/mm]


Viele Grüße,
Stefan

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Wahrscheinlichkeitstheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.schulmatheforum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]