Umformung bedingte Wkt < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
|
Hallo,
ich sitze gerade vor meiner Vorlesungsmitschrift, die ich nicht ganz verstehe.
Bei der (multiplen) Regression (mit Konstante) gilt ja E(U|X) = E(U) = 0.
Nun versuchen wir zu zeigen, dass dies auch keine Korrelation zwischen Regressor und Residuen impliziert, also cov(X,U) = 0
Dazu sind wir wie folgt vorgegangen:
cov(X,U) = E(XU) - E(X) * E (U) = E(XU), da E(U) =0
Nun der Knackpunkt:
E(XU) = E(E(XU)|X) > warum kann man dies denn so umformen. Beruht das auf der gleichen Überlegung wie bei E(U|X) = E(U) = 0?
Und der nächste Punkt lässt mich auch grübeln:
E(E(XU)|X) = X * E(U|X)
Wie kommt man zu dieser Umformung. Ich habe erst an den Satz von Bayes gedacht, damit komme ich aber nicht zu dem Resultat.
Die Lösung ist unkritisch, da E(U|X)=0 ist dann halt auch cov(X,U)=0.
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
|
|
|
|
Hiho,
> E(XU) = E(E(XU)|X) > warum kann man dies denn so umformen.
Das ist eine Rechenregel für die bedingte Erwartung, es gilt grundsätzlich immer:
[mm] $E\big[E[X|\mathcal{F}]\big] [/mm] = E[X]$
> Und der nächste Punkt lässt mich auch grübeln:
> E(E(XU)|X) = X * E(U|X)
Na so grundsätzlich gilt das nicht, was aber immer gilt, ist:
$E[XU|X] = X*E[U|X]$
Auch das ist eine Rechenregel der bedingten Erwartung.
Wenn dir das nichts sagt, solltest du die Rechenregeln der bedingten Erwartung dringend mal nacharbeiten
MFG,
Gono.
|
|
|
|