www.vorkurse.de
Ein Projekt von vorhilfe.de
Die Online-Kurse der Vorhilfe

E-Learning leicht gemacht.
Hallo Gast!einloggen | registrieren ]
Startseite · Mitglieder · Teams · Forum · Wissen · Kurse · Impressum
Forenbaum
^ Forenbaum
Status Mathe-Vorkurse
  Status Organisatorisches
  Status Schule
    Status Wiederholung Algebra
    Status Einführung Analysis
    Status Einführung Analytisc
    Status VK 21: Mathematik 6.
    Status VK 37: Kurvendiskussionen
    Status VK Abivorbereitungen
  Status Universität
    Status Lerngruppe LinAlg
    Status VK 13 Analysis I FH
    Status Algebra 2006
    Status VK 22: Algebra 2007
    Status GruMiHH 06
    Status VK 58: Algebra 1
    Status VK 59: Lineare Algebra
    Status VK 60: Analysis
    Status Wahrscheinlichkeitst

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Stochastik" - Maximum Likelihood Schätzer
Maximum Likelihood Schätzer < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Maximum Likelihood Schätzer: Tipp
Status: (Frage) beantwortet Status 
Datum: 18:23 Di 05.01.2010
Autor: aly19

Aufgabe
[mm] (X_i)_{i\in{1,...n}} [/mm] unabhängige ZV, die jeweils geometrisch zum Parameter p verteilt sind. Berechnen sie für eine Realisierung, den Maximum Likelihood Schätzer p'. Prüfen sie ob, p' erwartungstreu ist.

so den ML Schätzer habe ich schon bestimmt:
[mm] p'(X_1,.....,X_n)=(1/n \summe_{i=1}^{n} X_i)^{-1} [/mm]
Bei der Erwartungstreue komme ich jedoch nicht weiter:
Ich muss ja prüfen ob,
[mm] E_p[p' (X_1,....,X_n)] [/mm] p ergibt, oder?
Aber ich komme hier beim auflösen einfach nicht weiter:
[mm] E_p[(1/n \summe_{i=1}^{n} X_i)^{-1}] [/mm] wie kann ich das berechnen, ich kann ja mit der Linearität der Erwartungswertes nichts anfangen, weil die Summe Nenner steht oder?
Wäre super froh über einen Tipp.
Liebe Grüße

        
Bezug
Maximum Likelihood Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 20:40 Di 05.01.2010
Autor: luis52

Moin

> ich kann ja mit der Linearität der
> Erwartungswertes nichts anfangen, weil die Summe Nenner
> steht oder?

Korrekt.

> Wäre super froh über einen Tipp.

Aber du kannst vielleicht die Verteilung vom [mm] $Y_n=\sum_{i=1}^nX_i$ [/mm] bestimmen und dann  [mm] $\operatorname{E}[1/Y_n]$ [/mm] zu Fuss berechnen.

vg Luis

Bezug
                
Bezug
Maximum Likelihood Schätzer: rückfrage
Status: (Frage) beantwortet Status 
Datum: 22:25 Di 05.01.2010
Autor: aly19

also gut: ich kann dann ja über die momenterzeugende funktion die verteilung von [mm] X_1 [/mm] und [mm] X_2 [/mm] (erstmal) ertsmal bestimmen:
[mm] \delta_{X_1}*\delta_{X_2}=\summe_{k=1}^{\inf} \summe_{i=1}^{k} s^{i} P(X_1=i) s^{k-i} P(X_2=k-i) [/mm]
[mm] =\summe_{k=1}^{\inf} s^k \summe_{i=1}^{k} p(1-p)^{i-1} p(1-p)^{k-i-1} [/mm] p [mm] =\summe_{k=1}^{\inf} s^k \summe_{i=1}^{k} p(1-p)^{k-2} p^2= \summe_{k=1}^{\inf} s^k [/mm]   k  [mm] p(1-p)^{k-2} p^2 [/mm]

also wäre die verteilung von [mm] X_1+X_2 k(1-p)^{k-2} p^2 [/mm]
stimmt das soweit?

von [mm] X_1+.....*X_n [/mm] wäre die verteilung dann ja
k(1-p)^(k-n) [mm] *p^n [/mm]

soweit erstmal?

und dann soll ich per hand [mm] E(1/Y_n) [/mm] berechnen? also irgendeinen term für die summe im erwartungswert finden?


Bezug
                        
Bezug
Maximum Likelihood Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 22:45 Di 05.01.2010
Autor: luis52

Moin

aus diesem Kisuaheli werde ich nicht schlau. [verwirrt]

1) Bestimme die mgf der geometrischen Verteilung. Ich meine sie ist
[mm] $m(t)=p/[\exp(-t)-1+p]$. [/mm]

2) Die mgf von [mm] $Y_n$ [/mm] ist [mm] $m^n(t)$. [/mm]

3) Identifiziere die Vertteilung von [mm] $Y_n$. [/mm] Ich meine, es ist eine
Pascal-Verteilung.

4) Versuche dich an [mm] $\operatorname{E}[1/Y_n]=\sum_{z=n}^\infty P(Y_n=z)/z$. [/mm]

vg Luis      

Bezug
                                
Bezug
Maximum Likelihood Schätzer: rückfrage
Status: (Frage) beantwortet Status 
Datum: 23:27 Di 05.01.2010
Autor: aly19

hmm also wir haben die momenterzeugende funktion so erklärt:
[mm] m(s)=\summe_{k=1}^{\infty} s^k [/mm] P(X=k) mit |s|<1
deshalb verstehe ich das nicht so ganz.
aslo bei der obigen definition würde
[mm] m(s)=\summe_{k=1}^{\infty} s^k [/mm] p [mm] (1-p)^{k-1} [/mm] = [mm] \bruch{p}{1-p} \summe_{k=1}^{\infty} (s(1-p))^{k} [/mm] mit (s(1-p))<1 also
m(s)= [mm] \bruch{p}{1-p} \bruch{1}{1-s(1-p)} [/mm]
das wäre ja was anderes, geht das auch so? würde nämlcih schon gerne die definition aus der vorlesung verwenden.


Bezug
                                        
Bezug
Maximum Likelihood Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 08:54 Mi 06.01.2010
Autor: luis52


> hmm also wir haben die momenterzeugende funktion so
> erklärt:
> [mm]m(s)=\summe_{k=1}^{\infty} s^k[/mm] P(X=k) mit |s|<1
>  deshalb verstehe ich das nicht so ganz.

Wir reden anscheinend etwas aneinander vorbei. Was du hier beschreibst ist eine []*wahrscheinlichkeitserzeugende Funktion*, die von  der []momenterzeugenden Funktion zu unterscheiden ist.

> aslo bei der obigen definition würde
>  [mm]m(s)=\summe_{k=1}^{\infty} s^k[/mm] p [mm](1-p)^{k-1}[/mm] =
> [mm]\bruch{p}{1-p} \summe_{k=1}^{\infty} (s(1-p))^{k}[/mm] mit
> (s(1-p))<1 also
> m(s)= [mm]\bruch{p}{1-p} \bruch{1}{1-s(1-p)}[/mm]
> das wäre ja was anderes, geht das auch so?

Durchaus.

> würde nämlcih
> schon gerne die definition aus der vorlesung verwenden.
>  

Das kann ich verstehen.

vg Luis

Bezug
                                                
Bezug
Maximum Likelihood Schätzer: rückfrage
Status: (Frage) beantwortet Status 
Datum: 09:01 Fr 08.01.2010
Autor: aly19

ohja das is ja wirklich was unterschiedliches.
das problem ist nur, das die wahrscheinlichkeitserzeugende funktion ja eigentlich nur für [mm] \IN_0 [/mm] wertige ZV definiert ist oder? und die geometrische Verteilung ist doch  zu [mm] \IN [/mm] \ {0}  definiert. dann geht das doch gar nciht so wie ich das gemacht habe oder?
ich hatte das problem schonmal als es nur um die addition von 2 geomtrisch verteilten ZV ging. Es muss ja die negative Binoialverteilung herauskommen, aber wenn ich jetzt n mal m(s) multipliziere dann steht da ja $ [mm] (\bruch{p}{1-p} \bruch{1}{1-s(1-p)})^n [/mm] $ und das sieht mir irgendwie nicht danach aus. hmm kann man das vll doch nicht so machen?
Aber auch wenn ich jetzt die Verteilung der Summe heraushätte verstehe ich nicht so ganz, was du unter Erwartungswert per hand berechnen meinst. die summe hinschreiben und gucken was sich ergibt?
wäre sehr froh über ein paar weitere tipps :)

Bezug
                                                        
Bezug
Maximum Likelihood Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 11:13 Fr 08.01.2010
Autor: luis52

Moin,

schau mal []hier und []hier. Beachte, dass bei

    $G(z) = [mm] \textrm{E}(z^X) [/mm] = [mm] \sum_{x=0}^{\infty}p_X(x)z^x$, [/mm]

gelten darf: [mm] $p_X(0)=0$. [/mm]

vg Luis          

Bezug
                                                                
Bezug
Maximum Likelihood Schätzer: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 16:35 Fr 08.01.2010
Autor: aly19

sorry ich muss da aber nochmal nachfragen.
kann auch leider nur den ersten link öffnen.
1) bei mir kommt aber ja nciht [mm] $m(s)=\bruch{p}{1-s(1-p)} [/mm] $ sondern $ [mm] \bruch{p}{1-p} \bruch{1}{1-s(1-p)} [/mm] $ heraus? wie lässt sich der zusätzliche faktor bei mir erklären?
2) also angenommen es würde beim produkt die momenterzegende funktion der negativen binomialverteilung herauskommen. dann weiß ich ja das die summe der ZV negativ Binomialverteil ist. Also kann ich doch schreiben:
E(n/Y) wobei Y negativ binomialverteilt ist. so und nun kann ich ja nE(f(Y)) sagen mit f(Y)=1/Y oder? und dann ergibt sich der erwartungswert doch zu:
[mm] nE(f(Y))=n*\summe_{i=1}^{\infty} 1/x_i \vektor{x_i -1 \\ n-1} p^{n} (1-p)^{x_i-n} [/mm]
so und jetzt komme ich leider schon wieder nicht weiter? wie kannich das nur zusammenfasssen??  bekomme das leider nciht hin.
kann mir da noch jemand helfen?

Bezug
                                                                        
Bezug
Maximum Likelihood Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 17:09 Fr 08.01.2010
Autor: luis52


> sorry ich muss da aber nochmal nachfragen.
> kann auch leider nur den ersten link öffnen.

Hab's korrigiert.

> 1) bei mir kommt aber ja nciht [mm]m(s)=\bruch{p}{1-s(1-p)}[/mm]
> sondern [mm]\bruch{p}{1-p} \bruch{1}{1-s(1-p)}[/mm] heraus? wie
> lässt sich der zusätzliche faktor bei mir erklären?


Du schreibst

>deshalb verstehe ich das nicht so ganz.
>aslo bei der obigen definition würde
>$ [mm] m(s)=\summe_{k=1}^{\infty} s^k [/mm] $ p $ [mm] (1-p)^{k-1} [/mm] $ = $ [mm] \bruch{p}{1-p} \summe_{k=1}^{\infty} (s(1-p))^{k} [/mm] $ mit (s(1-p))<1 also
>m(s)= $ [mm] \bruch{p}{1-p} \bruch{1}{1-s(1-p)} [/mm] $

Das ist nicht korrekt. Vielmehr ist

[mm] $\summe_{k=0}^{\infty} (s(1-p))^{k} =\bruch{1}{1-s(1-p)} [/mm] $.
            


>  2) also angenommen es würde beim produkt die
> momenterzegende funktion der negativen binomialverteilung
> herauskommen. dann weiß ich ja das die summe der ZV
> negativ Binomialverteil ist. Also kann ich doch schreiben:
>  E(n/Y) wobei Y negativ binomialverteilt ist. so und nun
> kann ich ja nE(f(Y)) sagen mit f(Y)=1/Y oder?

[ok]


> und dann
> ergibt sich der erwartungswert doch zu:
> [mm]nE(f(Y))=n*\summe_{i=1}^{\infty} 1/x_i \vektor{x_i -1 \\ n-1} p^{n} (1-p)^{x_i-n}[/mm]
> so und jetzt komme ich leider schon wieder nicht weiter?
> wie kannich das nur zusammenfasssen??  bekomme das leider
> nciht hin.

Hier musst du noch etwas feilen. Die Spezifiaktion der  Negativen BV
Stimmt nicht. (Es gibt nicht unendlich viele [mm] $x_i$). [/mm]

vg Luis


Bezug
                                                                                
Bezug
Maximum Likelihood Schätzer: rückfrage
Status: (Frage) beantwortet Status 
Datum: 14:53 Sa 09.01.2010
Autor: aly19

okay also das mit der partialsumme der reihe habe ich ja genauso gemacht. nur stand bei mir davor noch ein faktor, weswegen mein ergebnis anders war. aber wenn man anstatt $ [mm] p(1-p)^{k-1} [/mm] $, $ [mm] p(1-p)^{k} [/mm] $ als wahrscheinlichkeit nimmt und dann auch gleich eine [mm] \IN_0 [/mm] wertige Zv hat, klappts. dann fällt der faktor 1/(1-p) ja weg.
okay also kommt $ ( [mm] \bruch{p}{1-s(1-p)})^n [/mm] $ als produkt der wahrscheinlichkeits erzeugenden funktionen heraus und das erkennt man als wahrscheinlichkeitserzeugende funktion einer negativ binomialverteilten ZV. Also
[mm] P(Y=k)=\vektor{k -1 \\ n-1} p^{n} (1-p)^{k-n} [/mm]
wobei k größer gleich n sein muss.
so und nun hatte ich ja:
$ [mm] nE(f(Y))=n\cdot{}\summe_{i=1}^{\infty} 1/x_i \vektor{x_i -1 \\ n-1} p^{n} (1-p)^{x_i-n} [/mm] $
aber so wie es da steht is doch eigentlich die defitnition vom erwartungswert oder? aber anderserseits gibt es ja nur [mm] x_1,...,x_n [/mm] . verstehe das leider nicht so wirklich. oder muss ich jetzt auch wieder die andere darstellung der negativen binmialverteilung verwenden?
komme da schon wieder nicht weiter :(


Bezug
                                                                                        
Bezug
Maximum Likelihood Schätzer: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 15:22 Sa 09.01.2010
Autor: aly19

das sollte eben nochmal eine frage sein und keine mitteilung.

Bezug
                                                                                        
Bezug
Maximum Likelihood Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 17:36 Sa 09.01.2010
Autor: luis52


> okay also kommt [mm]( \bruch{p}{1-s(1-p)})^n[/mm] als produkt der
> wahrscheinlichkeits erzeugenden funktionen heraus und das
> erkennt man als wahrscheinlichkeitserzeugende funktion
> einer negativ binomialverteilten ZV. Also
> [mm]P(Y=k)=\vektor{k -1 \\ n-1} p^{n} (1-p)^{k-n}[/mm]
>  wobei k
> größer gleich n sein muss.

Gut. Das halten wir mal fest: $Y_$ besitzt dieselbe Verteilung wie [mm] $\sum_{i=1}^nX_i$. [/mm] Im Prinzip ist also

[mm] $\textrm{E}[1/\sum_{i=1}^nX_i]=\textrm{E}[1/Y]=\sum_{k=n}^\infty\frac{1}{k}\vektor{k -1 \\ n-1} p^{n} (1-p)^{k-n}$ [/mm]

zu bestimmen.

vg Luis

PS: Ist die Hochstelltaste deiner Tastatur kaputt?


Bezug
                                                                                                
Bezug
Maximum Likelihood Schätzer: rückfrage
Status: (Frage) beantwortet Status 
Datum: 10:39 So 10.01.2010
Autor: aly19

okay, also nochmal:
$ [mm] \textrm{E}[1/\sum_{i=1}^nX_i]=\textrm{E}[1/Y]=\sum_{k=n}^\infty\frac{1}{k}\vektor{k -1 \\ n-1} p^{n} (1-p)^{k-n}= \sum_{k=n}^\infty\frac{1}{k}\frac{(k-1)! *k *n }{(k-n)!(n-1)! *n*k} p^{n} (1-p)^{k-n}= \sum_{k=n}^\infty\frac{n}{k^2}\vektor{k \\ n} p^{n} (1-p)^{k-n} [/mm] $
bringt das schonmal was? ich habe keine ahnung wie ich das ausrechnen soll, binomischer lehrsatz geht ja nicht und irgendwelche Umformungen für das "n über k" sehe ich auch nicht.
gibt es da einen trick, ein stichwort würde vll schon reichen.
vielen dank nochmal.

was meinst du mit hochstelltaste kaputt?

Bezug
                                                                                                        
Bezug
Maximum Likelihood Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 11:51 So 10.01.2010
Autor: luis52


> okay, also nochmal:
>  
> [mm]\textrm{E}[1/\sum_{i=1}^nX_i]=\textrm{E}[1/Y]=\sum_{k=n}^\infty\frac{1}{k}\vektor{k -1 \\ n-1} p^{n} (1-p)^{k-n}= \sum_{k=n}^\infty\frac{1}{k}\frac{(k-1)! *k *n }{(k-n)!(n-1)! *n*k} p^{n} (1-p)^{k-n}= \sum_{k=n}^\infty\frac{n}{k^2}\vektor{k \\ n} p^{n} (1-p)^{k-n}[/mm]
> bringt das schonmal was? ich habe keine ahnung wie ich das
> ausrechnen soll, binomischer lehrsatz geht ja nicht und
> irgendwelche Umformungen für das "n über k" sehe ich auch
> nicht.

In der Tat, keinesfalls trivial. Habe aber gerade festgestellt, dass die Aufgabenstellung eine wichtige Passage hat:

Berechnen sie für [mm] \red{eine} [/mm] Realisierung, den Maximum Likelihood
Schätzer p'.



>
> was meinst du mit hochstelltaste kaputt?  


Eine Bitte, auf Gross- und Kleinschreibung zu achten.


vg Luis    


Bezug
                                                                                                                
Bezug
Maximum Likelihood Schätzer: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 13:34 So 10.01.2010
Autor: aly19

genau gesagt steht da: für eine realisierung [mm] (x_i)_i, [/mm] also nicht nur für ein x. das bringt doch dann nichts oder? oder was genau meintest du damit? was bringt mir das da "eine realisierung steht"?  
viele grüße

Bezug
                                                                                                                        
Bezug
Maximum Likelihood Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 14:13 So 10.01.2010
Autor: luis52


> genau gesagt steht da: für eine realisierung [mm](x_i)_i,[/mm] also
> nicht nur für ein x. das bringt doch dann nichts oder?
> oder was genau meintest du damit? was bringt mir das da
> "eine realisierung steht"?  

$n=1_$


Bitte beachte doch meine Bitte, auf Gross- und Kleinschreibung zu achten. Aderenfalls werde *ich* nicht mehr auf deine Fragen reagieren.

vg Luis      


Bezug
                                                                                                                                
Bezug
Maximum Likelihood Schätzer: rückfrage
Status: (Frage) beantwortet Status 
Datum: 09:36 Mo 11.01.2010
Autor: aly19

Klar kann ich groß und klein schreiben, wenn es so wichtig ist...
Kannst du das mit dem n=1 vll etwas erläutern, damit ich das verstehe und dann auch was dabei lernen kann? nur "n=1" bringt mir irgebdwie nicht viel.
vg

Bezug
                                                                                                                                        
Bezug
Maximum Likelihood Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 11:15 Mo 11.01.2010
Autor: luis52

$n=1$ bedeutet, dass du eine Beobachtung der geometrischen Verteilung vorliegen hast. Konkret bedeutet das, dass du beispielsweise zwei Wurfel solange wirfst bis zum ersten Mal die Augensumme 2 erscheint. $n=2$ bedeutet, dass dieses Experiment zweimal durchfuehrst usw.

vg Luis

Bezug
                                                                                                                                                
Bezug
Maximum Likelihood Schätzer: rückfrage
Status: (Frage) beantwortet Status 
Datum: 11:47 Mo 11.01.2010
Autor: aly19

Okay, ich glaube das habe ich jetzt verstanden.
Also ich hatte davor noch eine Aufgabe zum ML- Schätzer mit der Poisson Verteilung, da hieß es "Berechnen sie für eine gegebene Realiserung [mm] (x_i)_{i \in {1,...,n}} [/mm] einen Maximum Likelihood Schätzer für für den Paramter der Poission Verteilung. Heißt das in diesem Fall auch:
Anstatt [mm] L(\lambda)=e^{- \lambda} [/mm] * [mm] \lambda^{x_1} 1/(x_1!)....e^{-\lambda} [/mm] * [mm] \lambda^{x_n} 1/(x_n!) [/mm]
einfach nur
[mm] L(\lambda)=e^{-\lambda} [/mm] * [mm] \lambda^{x} [/mm] 1/(x!)?? Oder ist es hier wegen dem "i Element aus" eine Folge und somit mehrere Realisierungen?
Ich bin etwas verwirrt, wann man jetzt z.B. L(p)= [mm] P(X_1=x_1)....P(X_n=x_n) [/mm] betrachten muss und wann L(p)= P(X=x). Hoffe man kann das verstehen.

Ansonsten hab ich die Aufgabe denke ich hinbekommen, habe im Internet ncoh einen Trick zur Berechnung des Erwartungswerts gefunden.

Vielen Dank.

Bezug
                                                                                                                                                        
Bezug
Maximum Likelihood Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 12:51 Mo 11.01.2010
Autor: luis52


> Ich bin etwas verwirrt, wann man jetzt z.B. L(p)=
> [mm]P(X_1=x_1)....P(X_n=x_n)[/mm]

Stimmt. Sorry, da habe ich wohl die Verwirrung gestiftet. Nach genauem Hinsehen bin auch ich der Ansicht, dass der allgemeine Fall gemeint ist, also

[mm] $L(p)=\prod_{i=1}^np(1-p)^{x_i-1}=p^n(1-p)^{\sum x_i-n}$, [/mm]

den du eingangs behandelt hast.

> betrachten muss und wann L(p)=
> P(X=x). Hoffe man kann das verstehen.

Wie gesagt der ist anscheind nicht gemeint. Wenn doch, dann waere

[mm] $L(p)=p(1-p)^{x-1}.$ [/mm]

>  
> Ansonsten hab ich die Aufgabe denke ich hinbekommen, habe
> im Internet ncoh einen Trick zur Berechnung des
> Erwartungswerts gefunden.

Wo? Wie sieht der aus?


vg Luis

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorkurse.de
[ Startseite | Mitglieder | Teams | Forum | Wissen | Kurse | Impressum ]