erzeugende Funktion < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 21:20 Sa 20.07.2013 | Autor: | saendra |
Aufgabe | Guten Abend!
Erstmal die Aufgabe: Sei [mm] $p\in [/mm] (0,1)$ und [mm] $X_1,\dots ,X_n$ [/mm] unabhängig mit [mm] $P(X_i=0)=1-p$ [/mm] und [mm] $P(X_i=1)=p\quad \forall [/mm] i$.
Zeige mithilfe erzeugender Funktionen, dass [mm] $X_1+\dots +X_n$ [/mm] binomialverteilt ist. |
Also die Definition von erzeugende Funktion ist mir eig klar, auch wenn ich nicht so recht weiß, für was man die braucht.
Spontan habe ich mal die erzeugende Funktion [mm] $G_i$ [/mm] der Verteilung von [mm] $X_i$ [/mm] hingeschrieben: [mm] $G_i(s)=\summe_{k=0}^1P(\{X_i=k\})s^k\ [/mm] =\ [mm] \summe_{k=0}^1p_ks^k$
[/mm]
Spontan habe ich bei der Aufgabe auch an Münzwurf (mit eventuell gezinkter Münze falls [mm] $p\neq [/mm] 0,5$) gedacht und "0" wäre dann z.b. "Kopf" und "1" "Zahl" oder so. Aber ehrlich gesagt weiß ich nicht was ich machen muss...
Könnt ihr mir helfen?
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 00:24 So 21.07.2013 | Autor: | luis52 |
Moin,
der "Witz" besteht darin, dass eine Verteilung eindeutig durch ihre erzeugende Funktion (EF) bestimmt ist. Das bedeutet, dass $ [mm] S=X_1+\dots +X_n [/mm] $ binomialverteilt ist, wenn die zugehoerige EF die einer Binomialverteilung ist.
Wie kann man das nun feststellen? Die EF von [mm] $X_i$ [/mm] hast du schon selber bestimmt: Sie ist $ [mm] G_i(s)=\ \summe_{k=0}^1p_ks^k=(1-p)+p=E[s^{X_i}] [/mm] $. Jetzt bestimme [mm] $G_S(s)=E[s^{X_1+\dots +X_n}]$.
[/mm]
Die Bestimmung der EF einer Binomialverteilung steht allerdings noch aus. Oder ist die dir bekannt?
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 00:37 So 21.07.2013 | Autor: | saendra |
Hi Luis! Danke.
> Die Bestimmung der EF einer Binomialverteilung steht allerdings noch aus. Oder ist die dir bekannt?
Also ich habe im Skipt geschaut: [mm] $G(s)=\summe_{i=k}^{n}\binom [/mm] nk [mm] p^k(1-p)^{n-k}s^k$ [/mm] für [mm] B_{n,k} [/mm] auf [mm] \{1,...,n\}. [/mm] Also immer Summen-/Reihenzeichen davor und [mm] s^k [/mm] hinten dran, oder?
Wie komms du auf $ [mm] =E[s^{X_i}] [/mm] $? Ist das Definition?
Gruß
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 07:15 So 21.07.2013 | Autor: | luis52 |
>
> Also ich habe im Skipt geschaut:
> [mm]G(s)=\summe_{i=k}^{n}\binom nk p^k(1-p)^{n-k}s^k[/mm] für
> [mm]B_{n,k}[/mm] auf [mm]\{1,...,n\}.[/mm]
Ich vermute, dass das so dort nicht steht, sondern
[mm] $G(s)=\summe_{\red{k=0}}^{n}\binom [/mm] nk [mm] p^k(1-p)^{n-k}s^k$
[/mm]
Das kannst du aber noch vereinfachen. Steht das nicht auch im Skript?
>
> Wie komms du auf [mm]=E[s^{X_i}] [/mm]? Ist das Definition?
>
> Gruß
Definitionssache:
[mm] $E[g(X)]=\sum_xg(x)P(X=x)$ [/mm] fuer eine beliebige Transformation im Allgemeinen und [mm] $E[s^X]=\sum_xs^xP(X=x)$ [/mm] im Besonderen.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 10:28 So 21.07.2013 | Autor: | luis52 |
>
> [mm]G_{P_{S_n}}(s)=E(s^{X_1+...+X_n})=E(s^{X_1}\cdot ...\cdot s^{X_n})[/mm]
> =
> [mm]\produkt_{k=1}^{n}E(s^{X_i})=\produkt_{k=1}^{n}G_{P_{X_i}}(s)=\produkt_{k=1}^{n}(1-p)+p=(q+p)^n[/mm]
>
> Laut Skript müsste aber [mm](ps+q)^n[/mm] herauskommen...
>
Mea culpa. Mir ist beim Schreiben ein $s$ vom Tisch gefallen. Hab's inzwischen oben rot korrigiert.
>
> Habe ich irgendwo das [mm]s[/mm] unterschlagen? Achja gilt das rote
> "=" überhaupt? Also gilt: [mm]X_1,...,X_n[/mm] stochastisch
> unabhängig [mm]\Rightarrow g(X_1),...,g(X_n)[/mm] stochastisch
> unabhängig?
Ja.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:32 So 21.07.2013 | Autor: | saendra |
Vielen Dank für alles Luis!
Mich würde der Beweis, warum
> $ [mm] X_1,...,X_n [/mm] $ stochastisch unabhängig $ [mm] \Rightarrow g(X_1),...,g(X_n) [/mm] $ stochastisch unabhängig
gilt interessieren. Hast Du mir da vielleicht einen Tipp, wie ich das angehen kann? Es reicht mir für diskrete Zufallsvariablen $ [mm] X_1,...,X_n [/mm] $.
|
|
|
|
|
Eingabefehler: "\left" und "\right" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)
Hiho,
was natürlich stillschweigend angenommen wird, ist, dass g meßbar ist.
Dann gilt:
$\IP\bigg(g(X_1) \in A, g(X_2) \in B\bigg) = \IP\bigg(X_1 \in g^{-1}(A), X_2 \in g^{-1}(B)\bigg) = \IP\bigg(X_1 \in g^{-1}(A)\bigg) * \IP\left(X_2 \in g^{-1}(B)\bigg) = \IP\bigg(g(X_1) \in A\bigg) * \IP\bigg(g(X_2) \in B\bigg)$
Kannst dir ja mal überlegen, warum die Gleichheitszeichen gelten.
MFG,
Gono.
|
|
|
|