www.vorkurse.de
Ein Projekt von vorhilfe.de
Die Online-Kurse der Vorhilfe

E-Learning leicht gemacht.
Hallo Gast!einloggen | registrieren ]
Startseite · Mitglieder · Teams · Forum · Wissen · Kurse · Impressum
Forenbaum
^ Forenbaum
Status Mathe-Vorkurse
  Status Organisatorisches
  Status Schule
    Status Wiederholung Algebra
    Status Einführung Analysis
    Status Einführung Analytisc
    Status VK 21: Mathematik 6.
    Status VK 37: Kurvendiskussionen
    Status VK Abivorbereitungen
  Status Universität
    Status Lerngruppe LinAlg
    Status VK 13 Analysis I FH
    Status Algebra 2006
    Status VK 22: Algebra 2007
    Status GruMiHH 06
    Status VK 58: Algebra 1
    Status VK 59: Lineare Algebra
    Status VK 60: Analysis
    Status Wahrscheinlichkeitst

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Wahrscheinlichkeitstheorie" - Bedingter Erwartungswert
Bedingter Erwartungswert < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Wahrscheinlichkeitstheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Bedingter Erwartungswert: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:09 Sa 20.04.2013
Autor: steppenhahn

Aufgabe
X,Y seien unabhängig und identisch verteilt. Berechne $E[X|X+Y]$.



Hallo!

Die grobe Lösung sieht ja so aus:

"Weil X,Y unabhängig und identisch verteilt, gilt:
$E[X|X+Y] = E[Y|X+Y]$. (*)

Damit: $X+Y = E[X+Y|X+Y] = E[X|X+Y] + E[Y|X+Y] = 2*E[X|X+Y]$,

also $E[X|X+Y] = [mm] \frac{X+Y}{2}$." [/mm]

----

Ich versuche gerade (*) einzusehen. Kennt jemand von euch ein kurzes Argument, um das zu beweisen?


An obiger "Argumentation" wird weder klar, warum man KONKRET die Unabhängigkeit noch die identische Verteilung braucht.

Es muss ja auch mit der Symmetrie von X,Y in der Funktion X+Y zu tun haben (wenn man bzgl. X+2Y bedingen würde, würde das ja so nicht mehr gelten).


Viele Grüße,
Stefan

        
Bezug
Bedingter Erwartungswert: worum genau geht es ?
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 15:19 Sa 20.04.2013
Autor: Al-Chwarizmi

Hallo Stefan,

was genau soll denn mit X und Y und insbesondere
mit der "Summe" (?)  X+Y  gemeint sein ?

LG

Bezug
                
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 16:37 Sa 20.04.2013
Autor: steppenhahn

Hallo Al-Chwarizmi,

> Hallo Stefan,

>

> was genau soll denn mit X und Y und insbesondere
> mit der "Summe" (?) X+Y gemeint sein ?

>

> LG

X und Y sind Zufallsvariablen (auf einem beliebigen Wahrscheinlichkeits-Raum) und X+Y die entsprechende Faltung.

Viele Grüße,
Stefan

Bezug
                        
Bezug
Bedingter Erwartungswert: Zeichen ?
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 13:09 So 21.04.2013
Autor: Al-Chwarizmi


> X und Y sind Zufallsvariablen (auf einem beliebigen
> Wahrscheinlichkeits-Raum) und X+Y die entsprechende
> Faltung.


... und das schreibt ihr dann tatsächlich mit einem
gewöhnlichen Pluszeichen ???

Bezug
                                
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 13:17 So 21.04.2013
Autor: tobit09

Hallo Al-Chwarizmi,


> > X und Y sind Zufallsvariablen (auf einem beliebigen
> > Wahrscheinlichkeits-Raum) und X+Y die entsprechende
> > Faltung.
>  
>
> ... und das schreibt ihr dann tatsächlich mit einem
>  gewöhnlichen Pluszeichen ???

Ja, das ist so üblich. Schließlich ist

      [mm] $(X+Y)(\omega):=X(\omega)+Y(\omega)$ [/mm]

für alle [mm] $\omega\in\Omega$. [/mm]


Viele Grüße
Tobias

Bezug
        
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 18:21 Sa 20.04.2013
Autor: valoo

Warum sollten sie die gleichen bedingten Erwartungswerte haben, wenn sie nicht uiv sind? Wenn X zum Beispiel fast sicher 0 ist und Y nicht, dann ist der bedingte EW von X 0 und von Y Y...

Bezug
        
Bezug
Bedingter Erwartungswert: Antwort
Status: (Antwort) fertig Status 
Datum: 18:54 Sa 20.04.2013
Autor: luis52


> X,Y seien unabhängig und identisch verteilt. Berechne
> [mm]E[X|X+Y][/mm].
>  
>
> Hallo!
>  
> Die grobe Lösung sieht ja so aus:
>  
> "Weil X,Y unabhängig und identisch verteilt, gilt:
>  [mm]E[X|X+Y] = E[Y|X+Y][/mm]. (*)
>  
> Ich versuche gerade (*) einzusehen. Kennt jemand von euch
> ein kurzes Argument, um das zu beweisen?
>  

Moin, vielleicht uebersehe ich hier etwas, aber mir erscheint die Chose offensichtlich zu sein: Wenn $X,Y$ identisch verteilt sind, so ist fuer gegebenes [mm] $z\in\IR$ [/mm]

[mm] $P(X\le x\mid X+Y=z]=P(Y\le x\mid [/mm] X+Y=z]$.

Also sind [mm] $(X\mid [/mm] X+Y=z)$ und [mm] $(Y\mid [/mm] X+Y=z)$ identisch verteilt, also

[mm] $E[X\mid X+Y=z]=E[Y\mid [/mm] X+Y=z]$.

Was mich etwas unruhig macht: Unabhaengigkeit brauche ich nicht, wohl aber die identische Verteilung.

Just my 2c.

vg Luis



Bezug
                
Bezug
Bedingter Erwartungswert: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 19:41 Sa 20.04.2013
Autor: steppenhahn

Hallo Luis,

danke für deine Antwort!


> Moin, vielleicht uebersehe ich hier etwas, aber mir
> erscheint die Chose offensichtlich zu sein: Wenn [mm]X,Y[/mm]
> identisch verteilt sind, so ist fuer gegebenes [mm]z\in\IR[/mm]

>

> [mm]P(X\le x\mid X+Y=z]=P(Y\le x\mid X+Y=z][/mm].


Kannst du mir eine Referenz geben, warum das gilt?
Ich finde das nicht offensichtlich.

Viele Grüße,
Stefan

Bezug
                        
Bezug
Bedingter Erwartungswert: Antwort
Status: (Antwort) fertig Status 
Datum: 20:35 Sa 20.04.2013
Autor: luis52


> Kannst du mir eine Referenz geben, warum das gilt?
>  Ich finde das nicht offensichtlich.
>  

Moin Stefan, da war ich wohl etwas vorschnell, denn anscheinend ist
hier etwas mehr Musik drin als gedacht. Ich dachte, weil $X$ und $Y$
identisch verteilt ist, gilt

[mm] $(X\le x)\cap(X+Y=z)=\{\omega\mid X(\omega)\le x\text{ und } X(\omega)+Y(\omega)=z\}=\{\omega\mid Y(\omega)\le x \text{ und } X(\omega)+Y(\omega)=z\}$. [/mm]

Aber das kann man vermutlich nicht ohne Weiteres zeigen. Vielleicht koennen die  Masztheoretiker weiterhelfen.

Sorry.

vg Luis

Bezug
                                
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 20:41 Sa 20.04.2013
Autor: steppenhahn

Hallo Luis,

>  
> > Kannst du mir eine Referenz geben, warum das gilt?
>  >  Ich finde das nicht offensichtlich.
>  >  
>
> Moin Stefan, da war ich wohl etwas vorschnell, denn
> anscheinend ist
>  hier etwas mehr Musik drin als gedacht. Ich dachte, weil [mm]X[/mm]
> und [mm]Y[/mm]
>  identisch verteilt ist, gilt
>  
> [mm]$(X\le x)\cap(X+Y=z)=\{\omega\mid X(\omega)\le x\text{ und } X(\omega)+Y(\omega)=z\}=\{\omega\mid Y(\omega)\le x \text{ und } X(\omega)+Y(\omega)=z\}$.[/mm]
>  
> Aber das kann man vermutlich nicht ohne Weiteres zeigen.

Ja, das glaube ich auch...

> Vielleicht koennen die  Masztheoretiker weiterhelfen.

Danke trotzdem für die Hilfe :)

Viele Grüße,
Stefan

Bezug
        
Bezug
Bedingter Erwartungswert: Antwort
Status: (Antwort) fertig Status 
Datum: 23:03 Sa 20.04.2013
Autor: luis52

Moin Stefan, schau mal []hier, Seite 5.
Da wird ein Spezialfall behandelt.

vg Luis    

Bezug
                
Bezug
Bedingter Erwartungswert: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 23:20 Sa 20.04.2013
Autor: steppenhahn

Hallo luis,


> Moin Stefan, schau mal
> []hier,
> Seite 5.
>  Da wird ein Spezialfall behandelt.

Danke Luis,
das hilft mir schon ein Stück weiter.

Das Problem ist nur, dass bei der Aufgabe dort relativ stark benutzt wird, dass es Dichten gibt, usw. Ich kann das also nicht auf einen allgemeinen Fall übertragen.



Viele Grüße,
Stefan


Bezug
                        
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 23:28 Sa 20.04.2013
Autor: luis52

  
>  
> Das Problem ist nur, dass bei der Aufgabe dort relativ
> stark benutzt wird, dass es Dichten gibt, usw. Ich kann das
> also nicht auf einen allgemeinen Fall übertragen.
>  


Jaja, das stimmt. Deshalb setze ich meine Hoffnung auf die Masztheoretiker hier im MR.

vg Luis

Bezug
                                
Bezug
Bedingter Erwartungswert: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 23:56 Sa 20.04.2013
Autor: steppenhahn

Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)

Hallo,

ich habe jetzt doch noch eine Idee, die in meinen Augen nicht schlecht aussieht:

Es ist

$\IP^{(X, X+Y)} = \IP^{(Y,X+Y)}$,   (*)

denn (hier geht Unabhängigkeit und identisch verteilt ein): $\IP^{(X,Y)}= \IP^{X} \otimes \IP^{Y} = \IP^{X} \otimes \IP^{X} = \IP^{Y} \otimes \IP^{X} =\IP^{(Y,X)$ und somit

$\IP^{(X,X+Y)} = (\IP^{(X,Y)})^{g} = (\IP^{(Y,X)})^{g} = \IP^{(Y,X+Y)}$

mit $g(x,y) = (x,x+y)$.
Ich bin mir ehrlich gesagt nicht sicher, ob man die Unabhängigkeit wirklich braucht. Aber so ist auf jeden Fall viel klarer, was man für ein Gegenbeispiel widerlegen müsste.

Nun ist wegen (*)

$\IP^{X|X+Y} \otimes \IP^{X+Y} = \IP^{(X, X+Y)} = \IP^{(Y,X+Y)} = \IP^{Y|X+Y} \otimes \IP^{X+Y}$

und weil die bedingte Wahrscheinlichkeitsverteilung bzgl. des Maßes $\IP^{X+Y}$ eindeutig bestimmt ist, folgt

$\IP^{X|X+Y} = \IP^{Y|X+Y}$.

Daraus schließe ich $\IE[X|X+Y]  = \IE[Y|X+Y]$.


Was hältst du davon?

Viele Grüße,
Stefan

PS.: Sorry Gonozal, ich habe erst jetzt gesehn dass du grad ne Antwort schreibst...

Bezug
                                        
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 23:58 Sa 20.04.2013
Autor: Gonozal_IX

Hiho,

>  Ich bin mir ehrlich gesagt nicht  sicher, ob man die Unabhängigkeit wirklich braucht.

brauchst du nicht :-)

> PS.: Sorry Gonozal, ich habe erst jetzt gesehn dass du grad ne Antwort schreibst...

Dir sei vergeben :P

MFG,
Gono.


Bezug
                                        
Bezug
Bedingter Erwartungswert: Antwort
Status: (Antwort) fertig Status 
Datum: 02:25 So 21.04.2013
Autor: tobit09

Hallo steppenhahn,


> Es ist
>
> [mm]\IP^{(X, X+Y)} = \IP^{(Y,X+Y)}[/mm],   (*)
>  
> denn (hier geht Unabhängigkeit und identisch verteilt
> ein): [mm]\IP^{(X,Y)}= \IP^{X} \otimes \IP^{Y} = \IP^{X} \otimes \IP^{X} = \IP^{Y} \otimes \IP^{X} =\IP^{(Y,X)[/mm]
> und somit
>  
> [mm]\IP^{(X,X+Y)} = (\IP^{(X,Y)})^{g} = (\IP^{(Y,X)})^{g} = \IP^{(Y,X+Y)}[/mm]
>  
> mit [mm]g(x,y) = (x,x+y)[/mm].

[ok]

>  Ich bin mir ehrlich gesagt nicht
> sicher, ob man die Unabhängigkeit wirklich braucht.

Ja, braucht man. (Habe mir ein Gegenbeispiel ohne Unabhängigkeit überlegt.)


> Nun ist wegen (*)
>  
> [mm]\IP^{X|X+Y} \otimes \IP^{X+Y} = \IP^{(X, X+Y)} = \IP^{(Y,X+Y)} = \IP^{Y|X+Y} \otimes \IP^{X+Y}[/mm]
>  
> und weil die bedingte Wahrscheinlichkeitsverteilung bzgl.
> des Maßes [mm]\IP^{X+Y}[/mm] eindeutig bestimmt ist, folgt
>
> [mm]\IP^{X|X+Y} = \IP^{Y|X+Y}[/mm].
>  
> Daraus schließe ich [mm]\IE[X|X+Y] = \IE[Y|X+Y][/mm].

Du arbeitest hier mit einer regulär bedingten Verteilung? Sorry, dass ist bei mir ein bisschen lange her, deshalb kenne ich mich damit nicht mehr aus.


Es geht aber auch direkt mit der Definition des bedingten Erwartungswertes:

Sei $Z:=X+Y$. Du hast

(*)     [mm] $\IP^{(X,Z)}=\IP^{(Y,Z)}$ [/mm] gezeigt.

Wir wollen aus (*)

(**)     $E[X|Z]=E[Y|Z]$

folgern (im Falle der Quasi-Integrierbarkeit von $X$ und somit auch $Y$). (Es spielt dafür keine Rolle, wie $Z$ definiert ist.)

Für (**) genügt es nach Definition des bedingten Erwartungswertes

(***)     [mm] $\integral_{A}X d\IP=\integral_{A}Yd\IP$ [/mm]

für alle [mm] $A\in\sigma(Z)$ [/mm] zu zeigen.

Sei also [mm] $A\in\sigma(Z)$, [/mm] also ist $A$ von der Form [mm] $A=Z^{-1}(B)$. [/mm]

Dann gilt wegen [mm] $1_A=1_B(Z)$ [/mm]

     [mm] $\integral_{A}X d\IP=\integral [/mm] X [mm] 1_B(Z) d\IP=\integral x*1_B(z)d\IP^{(X,Z)}$. [/mm]

Analog erhält man

     [mm] $\integral_A [/mm] Y [mm] d\IP=\integral x*1_B(Z)d\IP^{(Y,Z)}$. [/mm]

Aus (*) folgt somit wie gewünscht (***).


Viele Grüße
Tobias

Bezug
                                                
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 02:29 So 21.04.2013
Autor: steppenhahn

Hallo Tobias,

danke für deine Antwort!

Man braucht ja letztlich die Unabhängig von X und Y nur, um [mm] $\IP^{(X,Y)} [/mm] = [mm] \IP^{(Y,X)}$ [/mm] zu zeigen.

Ich denke, eine äquivalente Formulierung wäre: Die Verteilung von (X,Y) muss symmetrisch in X und Y sein. Das ist ja wesentlich schwächer als Unabhängigkeit.

Viele Grüße,
Stefan

Bezug
                                                        
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 02:41 So 21.04.2013
Autor: tobit09


> Man braucht ja letztlich die Unabhängig von X und Y nur,
> um [mm]\IP^{(X,Y)} = \IP^{(Y,X)}[/mm] zu zeigen.
>  
> Ich denke, eine äquivalente Formulierung wäre: Die
> Verteilung von (X,Y) muss symmetrisch in X und Y sein. Das
> ist ja wesentlich schwächer als Unabhängigkeit.

Statt "äquivalente Formulierung" meinst du "hinreichende Bedingung", oder? Dann hast du vollkommen Recht!

Bezug
                        
Bezug
Bedingter Erwartungswert: Antwort
Status: (Antwort) fertig Status 
Datum: 23:57 Sa 20.04.2013
Autor: Gonozal_IX

Hiho,

die Aussage ist doch sofort klar, wenn man sich die Definition der bedingten Erwartung anguckt:

[mm] E[X|\mathcal{A}] [/mm] ist ja die Zufallsvariable Z, für die gilt:

i) [mm] $E[X*1_A] [/mm] = [mm] E[Z*1_A]$ [/mm] für A [mm] \in \mathcal{A} [/mm]
ii) Z ist [mm] \mathcal{A} [/mm] meßbar

[mm] X*1_A [/mm] ist ja nun faktisch eine (meßbare) Funktion f(X) und für die gilt für den Erwartungswert:

$E[f(X)] = [mm] \integral_\Omega [/mm] f(x) [mm] \IP_X(dx)$ [/mm]

Da X und Y id sind, gilt [mm] $P_X [/mm] = [mm] P_Y$ [/mm] und damit:

$E[f(X)] = [mm] \integral_\Omega [/mm] f(x) [mm] \IP_X(dx)= \integral_\Omega [/mm] f(x) [mm] \IP_Y(dx) [/mm] = E[f(Y)]$ für jede meßbare Funktion f, insbesondere also für $f(x) = [mm] x1_A$ [/mm]

Damit folgt somit:

[mm] $E[X1_A] [/mm] = [mm] E[Y1_A]$ [/mm] und damit sofort [mm] $E[X|\mathcal{A}] [/mm] = [mm] E[Y|\mathcal{A}]$ [/mm] für jede [mm] $\sigma$-Algebra $\mathcal{A}$, [/mm] insbesondere also für die von X+Y erzeugte.

Gruß,
Gono.


Bezug
                                
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 00:51 So 21.04.2013
Autor: tobit09

Hallo Gono,


> [mm]X*1_A[/mm] ist ja nun faktisch eine (meßbare) Funktion f(X)

Das dürfte i.A. falsch sein. Schließlich muss [mm] $1_A$ [/mm] nicht nach $X$ faktorisieren.

> $E[f(X)] = [mm] \integral_\Omega [/mm] f(x) [mm] \IP_X(dx)= \integral_\Omega [/mm] f(x) [mm] \IP_Y(dx) [/mm] = E[f(Y)]$ für jede meßbare Funktion f, insbesondere also für $f(x) = [mm] x1_A$ [/mm]

Unter den Integralzeichen muss es [mm] $\IR$ [/mm] statt [mm] $\Omega$ [/mm] heißen.

>
> Damit folgt somit:
>

[mm] >$E[X1_A] [/mm] = [mm] E[Y1_A]$ [/mm]
I.A. [mm] $f(X)=X*1_A(X)\not=X*1_A$! [/mm]


Viele Grüße
Tobias

Bezug
                                        
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 13:00 So 21.04.2013
Autor: Gonozal_IX

Hiho,

> > [mm]X*1_A[/mm] ist ja nun faktisch eine (meßbare) Funktion f(X)
>  Das dürfte i.A. falsch sein. Schließlich muss [mm]1_A[/mm] nicht nach [mm]X[/mm] faktorisieren.

Auch wenn ich nicht weiß, was du mit "nach X faktorisieren" meinst, ist die Funktion ganz sicher meßbar, da X meßbar und [mm] 1_A [/mm] für [mm] $A\in\mathcal{A}$ [/mm] auch ganz sicher meßbar ist. Und das Produkt zweier meßbarer Funktionen ist meßbar.


> > [mm]E[f(X)] = \integral_\Omega f(x) \IP_X(dx)= \integral_\Omega f(x) \IP_Y(dx) = E[f(Y)][/mm] für jede meßbare Funktion f, insbesondere also für [mm]f(x) = x1_A[/mm]
>  
> Unter den Integralzeichen muss es [mm]\IR[/mm] statt [mm]\Omega[/mm] heißen.

Jop. Ich schrieb erst $E[f(X)] = [mm] \int_\Omega [/mm] f(X) [mm] d\IP$ [/mm] und habs dann aber aufs Bildmaß geändert und da sollte man dann durchaus den Integrationsbereich abändern.

MFG,
Gono.

Bezug
                                                
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 13:15 So 21.04.2013
Autor: tobit09

Hallo Gono,


> > > [mm]X*1_A[/mm] ist ja nun faktisch eine (meßbare) Funktion f(X)
>  >  Das dürfte i.A. falsch sein. Schließlich muss [mm]1_A[/mm]
> nicht nach [mm]X[/mm] faktorisieren.
>
> Auch wenn ich nicht weiß, was du mit "nach X
> faktorisieren" meinst, ist die Funktion ganz sicher
> meßbar, da X meßbar und [mm]1_A[/mm] für [mm]A\in\mathcal{A}[/mm] auch
> ganz sicher meßbar ist. Und das Produkt zweier meßbarer
> Funktionen ist meßbar.

Messbar ist [mm] $X*1_A$ [/mm] natürlich. Aber i.A. nicht von der Form $f(X)$ für eine Abbildung $f$. (Dafür sagte mein Professor: [mm] $X*1_A$ [/mm] faktorisiert i.A. nicht nach $X$.)


Viele Grüße
Tobias


Bezug
                                                        
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 13:42 So 21.04.2013
Autor: Gonozal_IX

Hiho,

>  Messbar ist [mm]X*1_A[/mm] natürlich. Aber i.A. nicht von der Form
> [mm]f(X)[/mm] für eine Abbildung [mm]f[/mm]. (Dafür sagte mein Professor: [mm]X*1_A[/mm] faktorisiert i.A. nicht nach [mm]X[/mm].)

ah, ich verstehe die Problematik.
Ich muss gestehen, da bin ich bisher noch nie drüber gestolpert.

Dann würde mich aber mal die Frage beschäftigen, ob zwei identisch verteilte ZV auch auf jeder (meßbaren) Teilmenge identisch verteilt sind.... intuitiv hätte ich jetzt ja gesagt, aber ich find gerade keinen schönen Beweis.

MFG,
Gono.

Bezug
                                                                
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 16:16 So 21.04.2013
Autor: tobit09

Hallo Gono,


> Dann würde mich aber mal die Frage beschäftigen, ob zwei
> identisch verteilte ZV auch auf jeder (meßbaren) Teilmenge
> identisch verteilt sind.... intuitiv hätte ich jetzt ja
> gesagt, aber ich find gerade keinen schönen Beweis.

Dazu müsstest du ersteinmal definieren, was es heißt, auf einer (meßbaren) Teilmenge identisch verteilt zu sein...

Aber unabhängig davon, wie deine Definition genau lauten wird: Der von dir vermutete Zusammenhang wird nicht gelten.

Betrachte etwa

     [mm] $\Omega=\{-1,1\}$ [/mm]

mit der Potenzmenge als Sigma-Algebra und der Laplaceverteilung sowie

     [mm] $X(\omega):=\omega$ [/mm] und [mm] $Y(\omega):=-\omega$. [/mm]

Dann sind X und Y identisch verteilt und [mm] $\{1\}$ [/mm] ist eine messbare Teilmenge von [mm] $\Omega$, [/mm] auf der $X$ den Wert $1$ und $Y$ den Wert $-1$ annimmt. Man wird also hier kaum davon sprechen, dass $X$ und $Y$ auf [mm] $\{1\}$ [/mm] gleich verteilt seien.


Viele Grüße
Tobias

Bezug
                                                                        
Bezug
Bedingter Erwartungswert: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 21:12 So 21.04.2013
Autor: Gonozal_IX

Hiho,

> > Dann würde mich aber mal die Frage beschäftigen, ob zwei
> > identisch verteilte ZV auch auf jeder (meßbaren) Teilmenge
> > identisch verteilt sind.... intuitiv hätte ich jetzt ja
> > gesagt, aber ich find gerade keinen schönen Beweis.
>  Dazu müsstest du ersteinmal definieren, was es heißt,
> auf einer (meßbaren) Teilmenge identisch verteilt zu
> sein...

Hatte mir das schon so gedacht, dass wenn $X,Y: [mm] \Omega \to \IR$ [/mm] identisch verteilt sind, ob dann auch [mm] $X_A,Y_A: [/mm] A [mm] \to \IR$ [/mm] identisch verteilt sind.

Aber das hast du ja eben direkt widerlegt und damit gehen meine Überlegungen einfach schief.

Danke dafür.
Gono.

Bezug
                                
Bezug
Bedingter Erwartungswert: Frage (reagiert)
Status: (Frage) reagiert/warte auf Reaktion Status 
Datum: 00:52 So 21.04.2013
Autor: steppenhahn

Hallo Gonozal,

danke für deine Antwort!

> die Aussage ist doch sofort klar, wenn man sich die
> Definition der bedingten Erwartung anguckt:
>  
> [mm]E[X|\mathcal{A}][/mm] ist ja die Zufallsvariable Z, für die
> gilt:
>  
> i) [mm]E[X*1_A] = E[Z*1_A][/mm] für A [mm]\in \mathcal{A}[/mm]
>  ii) Z ist
> [mm]\mathcal{A}[/mm] meßbar
>  
> [mm]X*1_A[/mm] ist ja nun faktisch eine (meßbare) Funktion f(X) und
> für die gilt für den Erwartungswert:
>  
> [mm]E[f(X)] = \integral_\Omega f(x) \IP_X(dx)[/mm]
>  
> Da X und Y id sind, gilt [mm]P_X = P_Y[/mm] und damit:
>  
> [mm]E[f(X)] = \integral_\Omega f(x) \IP_X(dx)= \integral_\Omega f(x) \IP_Y(dx) = E[f(Y)][/mm]
> für jede meßbare Funktion f, insbesondere also für [mm]f(x) = x1_A[/mm]


Ich bin noch nicht überzeugt.
Wenn du zum induzierten Maß übergehst, ignorierst du irgendwie die Indikatorfunktion:

f ist auf dem Bildraum von X definiert worden, also ist $f(x) = [mm] x*1_{X(A)}$ [/mm] (stimmt das überhaupt?).
Aber ist das immer gleich $f(x) = [mm] x*1_{Y(A)}$ [/mm] ?

Dazu müsste man ja wissen, wie die Zufallsvariablen auf dem zugrundeliegenden W-Raum operieren.

--------------
EDIT: Ich glaube, ich habe jetzt einen Gegenbeispiel dafür, dass es ohne Unabhängigkeit funktioniert: Ich nehme eine nicht-symmetrische Verteilung für X und Y, die trotzdem die gleiche Randverteilung produziert: Die gemeinsame Verteilung sei gegeben durch folgende Tabelle (in den Zellen stehen Wahrscheinlichkeiten)

     X
    |  1  |  2  |  3  |
  3 | 1/3 |     |     |
Y 2 |     |     | 1/3 |
  1 |     | 1/3 |     |  

Beide haben eine Gleichverteilung auf [mm] \{1,2,3\} [/mm] als Randverteilung
Dann ergibt sich für die bedingte Verteilung X|X+Y und Y|X+Y (in den Zellen stehen Wahrscheinlichkeiten)

X+Y
    |  3  |  4  |  5  |
X 1 |     |  1  |     |
  2 |  1  |     |     |
  3 |     |     |  1  |

Y 1 |  1  |     |     |
  2 |     |     |  1  |
  3 |     |  1  |     |

Damit ist z.B.

$E[X|X+Y] = [mm] \begin{cases}2, & X+Y = 3\\1, & X + Y = 4\\ 3, & X+Y = 5\end{cases}$ [/mm]
$E[Y|X+Y] = [mm] \begin{cases}1, & X+Y = 3\\3, & X + Y = 4\\ 2, & X+Y = 5\end{cases}$ [/mm]

Das ist nicht gleich.


Viele Grüße,
Stefan

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Wahrscheinlichkeitstheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorkurse.de
[ Startseite | Mitglieder | Teams | Forum | Wissen | Kurse | Impressum ]