www.vorkurse.de
Ein Projekt von vorhilfe.de
Die Online-Kurse der Vorhilfe

E-Learning leicht gemacht.
Hallo Gast!einloggen | registrieren ]
Startseite · Mitglieder · Teams · Forum · Wissen · Kurse · Impressum
Forenbaum
^ Forenbaum
Status Mathe-Vorkurse
  Status Organisatorisches
  Status Schule
    Status Wiederholung Algebra
    Status Einführung Analysis
    Status Einführung Analytisc
    Status VK 21: Mathematik 6.
    Status VK 37: Kurvendiskussionen
    Status VK Abivorbereitungen
  Status Universität
    Status Lerngruppe LinAlg
    Status VK 13 Analysis I FH
    Status Algebra 2006
    Status VK 22: Algebra 2007
    Status GruMiHH 06
    Status VK 58: Algebra 1
    Status VK 59: Lineare Algebra
    Status VK 60: Analysis
    Status Wahrscheinlichkeitst

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "mathematische Statistik" - ML-Schätzer
ML-Schätzer < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "mathematische Statistik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

ML-Schätzer: Exponentialfamilie
Status: (Frage) beantwortet Status 
Datum: 21:29 Fr 23.12.2011
Autor: mikexx

Aufgabe
Seien [mm] $X_1,...,X_n$ [/mm] unabhängig und identisch [mm] $\text{Gamma}(\alpha,\beta)$ [/mm] - verteilte Zufallsvariablen mit bekanntem Parameter [mm] $\alpha$, $0\leq x_i<\infty$ $\alpha,\beta>0$ [/mm]

[mm] $f(x_i|\alpha,\beta)=\frac{1}{\Gamma(\alpha)\beta^{\alpha}}x_i^{\alpha-1}e^{\frac{-x_i}{\beta}}$ [/mm]

Bestimmen Sie den Maximum Likelihood-Schätzer [mm] $\hat \beta_{ML}$ [/mm] für [mm] $\beta$ [/mm] über die Exponentialfamiliendarstellung.

Ist [mm] $\hat\beta_{ML}$ [/mm] erwartungstreu und schwach konsistent?

Hallo!

Ich habe schon den ML-Schätzer der Gammaverteilung bei bekanntem [mm] $\alpha$ [/mm] über Differentiation bestimmt (auf einem vorherigen Übungszettel):

[mm] $\frac{\overline{X}}{\alpha}$ [/mm]


Aber wie ist nun die Aufgabe hier nun zu verstehen?



        
Bezug
ML-Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 22:01 Fr 23.12.2011
Autor: luis52

Moin,

vielleicht kannst du []hier etwas Honig saugen ...

vg Luis

PS: Auch fuer dich und alle anderen Mitleser ein frohes Weihnachtsfest.

Bezug
                
Bezug
ML-Schätzer: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 01:00 Sa 24.12.2011
Autor: mikexx

Erstmal zu der Dichte eines der [mm] $X_i$: [/mm]

Da [mm] $\alpha$ [/mm] als bekannt vorausgesetzt wird, kann man meiner Rechnung nach die Dichte [mm] $f(x_i |\beta)$ [/mm] so schreiben:

[mm] $f(x_i|\beta)=\exp\left\{a(\beta)b(x_i)+c(\beta)+d(x_i)\right\}$ [/mm] mit:

[mm] $a(\beta)=-\frac{1}{\beta}$ [/mm]

[mm] $b(x_i)=x_i$ [/mm]

[mm] $c(\beta)=-\log(\Gamma(\alpha)\beta^{\alpha})$ [/mm]

[mm] $d(x_i)=(\alpha-1)\log(x_i)$ [/mm]

Der kanonische Parameter ist nach meiner Rechung also [mm] $\psi=a(\beta)=-\frac{1}{\beta}$, [/mm] sodaß ich die Darstellung

[mm] $f(x_i [/mm] | [mm] \beta)=\exp\left\{\psi x_i-h(\psi)+d(x_i)\right\}$ [/mm] bekomme und hier:

[mm] $-h(\psi)=-\log(\Gamma(\alpha)\beta^{\alpha})\Leftrightarrow h(\psi)=\log(\Gamma(\alpha)+\log(\psi)$, [/mm] d.h.

[mm] $f(x_i [/mm] | [mm] \beta)=\exp\left\{\psi x_i-\log(\Gamma(\alpha))+\log(\psi)+(\alpha-1)\log(x_i)\right\}$ [/mm]


Stimmt das so bis zu dieser Stelle?

--------

Wenn ich das nun korrekt verstanden habe, kann man nun auch für alle [mm] $X_i$ [/mm] bzw. für deren gemeinsame Dichte eine solche Darstellung ausfindig machen und diese dann benutzen, um den gesuchten ML-Schätzer zu finden.

Bezug
                        
Bezug
ML-Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 09:05 Sa 24.12.2011
Autor: luis52



>
> Stimmt das so bis zu dieser Stelle?

Ja, bis auf  $ [mm] h(\psi)=\log(\Gamma(\alpha)\red{)}+\log(\psi) [/mm] $.


>  
> --------
>  
> Wenn ich das nun korrekt verstanden habe, kann man nun auch
> für alle [mm]X_i[/mm] bzw. für deren gemeinsame Dichte eine solche
> Darstellung ausfindig machen und diese dann benutzen, um
> den gesuchten ML-Schätzer zu finden.

So ist es.

vg Luis


Bezug
                        
Bezug
ML-Schätzer: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 12:07 Sa 24.12.2011
Autor: mikexx

Okay, dann versuche ich mal, wieder einen Schritt weiterzukommen.

Ich habe also nun für ein [mm] $X_i$ [/mm] die Dichte in der kanonischen Exponentialfamiliendarstellung, okay.

Dann folgt für die Dichte von [mm] $\vec X=(X_1,...,X_n)$, [/mm] daß ich diese schreiben kann als:

[mm] $\exp\left\{a(\beta)\sum_{i=1}^{n}b(x_i)+\sum_{i=1}^{n}c(\beta)+\sum_{i=1}^{n}d(x_i)\right\}$, [/mm] was hier konkret bedeutet:

[mm] $\exp\left\{-\frac{1}{\beta}\sum_{i=1}^{n}x_i-\sum_{i=1}^{n}\log(\Gamma(\alpha)\beta^{\alpha})+(\alpha-1)\sum_{i=1}^{n}\log(x_i)\right\}$ [/mm]

Kanonischer Parameter ist hier ebenfalls [mm] $\psi=a(\beta)=-\frac{1}{\beta}$. [/mm]

Wenn ich auch das korrekt verstanden habe, ist die log-Likelihood-Funktion dann:

[mm] $\log L(\psi [/mm] | [mm] \vec X)=\psi\sum_{i=1}^{n}x_i-nh(\psi)+\sum_{i=1}^{n}(\alpha-1)\log(x_i)=\psi\sum_{i=1}^{n}x_i-n\cdot (\log(\Gamma(\alpha))+\log(\psi))+\sum_{i=1}^{n}(\alpha-1)\log(x_i)$ [/mm] mit den Ableitungen

[mm] $D\log L(\psi [/mm] | [mm] \vec X)=\sum_{i=1}^{n}x_i-n\cdot h'(\psi)=\sum_{i=1}^{n}x_i-n\cdot \frac{1}{\psi}$ [/mm]

[mm] $D^2\log L(\psi [/mm] | [mm] \vec X)=-n\cdot h''(\psi)=n\cdot\frac{1}{\psi^2}$ [/mm]

Wenn ich nun setze

[mm] $D\log L(\psi [/mm] | [mm] \vec [/mm] X)=0$, also

[mm] $\sum_{i=1}^{n}x_i-n\cdot\frac{1}{\psi}=0$, [/mm] bekomme ich

[mm] $\hat\psi=n\cdot \frac{1}{\sum_{i=1}^{n}x_i}$ [/mm]



Vorausgesetzt, daß das stimmt: Wie komme ich jetzt aber zu [mm] $\hat\beta$? [/mm]

Bezug
                                
Bezug
ML-Schätzer: Anleitung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 13:30 Sa 24.12.2011
Autor: dennis2

Ich habe oben angemerkt, dass es meiner Meinung nach heißen muss:

[mm] $h(\psi)=\log(\Gamma(\alpha))-\alpha\log(-\psi)$. [/mm]

Dann ist die erste Ableitung der log-Likelihood nicht das, was Du raus hast, sondern:

[mm] $D\log L(\psi [/mm] | [mm] \vec X)=\sum_{i=1}^{n}x_i+\frac{n\cdot\alpha}{\psi}$ [/mm]

Du kommst dann auf [mm] $\hat\psi=-\frac{n\alpha}{\sum_{i=1}^{n}x_i}$. [/mm]

Und damit kannst Du jetzt wie folgt auf [mm] $\hat\beta$ [/mm] kommen und zwar über diese Beziehung, die Du eigentlich auch schon benützt hattest:

[mm] $\hat\psi=a(\hat\beta)$, [/mm] also [mm] $\hat\beta=a^{-1}(\psi)$. [/mm]




Bezug
                        
Bezug
ML-Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 13:15 Sa 24.12.2011
Autor: dennis2

Muss es nicht so heißen:

[mm] $h(\psi)=\log(\Gamma(\alpha))-\alpha\log(-\psi)$? [/mm]

Bezug
                                
Bezug
ML-Schätzer: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 14:51 Sa 24.12.2011
Autor: mikexx

Okay, dann habe ich:

[mm] $\hat\beta_{ML}=a^{-1}(\hat\psi)=-\frac{1}{\hat\psi}=-\left(-\frac{1}{\frac{\alpha n}{\sum_{i=1}^{n}x_i}}\right)=\frac{\sum_{i=1}^{n}x_i}{n\alpha}=\frac{\overline{x}}{\alpha}$ [/mm]


Ist das korrekt so?

Bezug
                                        
Bezug
ML-Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 15:38 Sa 24.12.2011
Autor: luis52

Moin,

habe deine Rechnungen nicht alle ueberprueft, aber ich
bin schon mal beruhigt, dass du dein urspruengliches
Ergebnis bestaetigst.

vg Luis

Bezug
                                                
Bezug
ML-Schätzer: vorerst Danke
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 18:49 Sa 24.12.2011
Autor: mikexx

Ja, ich bin auch froh, daß sich zumindest das richtige Ergebnis einstellt.

Wenn Du mal Zeit hast, kannst Du es ja genauer ansehen.

Bezug
                                                
Bezug
ML-Schätzer: Frage (überfällig)
Status: (Frage) überfällig Status 
Datum: 12:48 So 25.12.2011
Autor: mikexx

Kann man denn am Ende sagen:

[mm] $\hat{\psi}=a(\hat{\beta})$ [/mm] und daher

[mm] $\hat{\beta}_{ML}=a^{-1}(\hat{\psi})$? [/mm]



Bezug
                                                        
Bezug
ML-Schätzer: erwartungstreu?
Status: (Frage) beantwortet Status 
Datum: 15:18 So 25.12.2011
Autor: mikexx

Achso, ich muss ja noch die Frage klären, ob der Schätzer erwartungstreu und schwach konsistent ist.

Zur Erwartungstreue:

Also als Schätzer habe ich ja ermittelt:

[mm] $\hat{\beta}_{ML}=\frac{\overline{X}}{\alpha}$ [/mm]

Ich würde sagen, daß dieser Schätzer nicht erwartungstreu ist, denn für die [mm] $X_i, [/mm] i=1,...,n$ gilt doch, daß [mm] $E(X_i)=\frac{\alpha}{\beta}$ [/mm] und dann:

[mm] $E_{\frac{\alpha}{\beta}}\left(\frac{\overline{X}}{\alpha}\right)=\frac{1}{n\alpha}\frac{n\alpha}{\beta}=\frac{1}{\beta}\neq \frac{\alpha}{\beta}$, [/mm] falls [mm] $\alpha\neq [/mm] 1$.

Korrekt?


[Bei der schwachen Konsistenz überlege ich noch ein bisschen.]

Bezug
                                                                
Bezug
ML-Schätzer: schwach konsistent?
Status: (Frage) beantwortet Status 
Datum: 12:07 Mo 26.12.2011
Autor: mikexx

Ich muss noch herausfinden, ob [mm] $\hat{\beta}_{ML}$ [/mm] schwach konsistent ist.

Wenn [mm] $\hat{\beta}_{ML}=\frac{\overline{X}}{\alpha}$ [/mm] schwach konsistent wäre, so müsste ja gelten:

[mm] $\lim_{n\to\infty}P\left(\left|\hat{\beta}_{ML}^{(n)}-\beta\right|<\varepsilon\right)=1$ [/mm] für alle [mm] $\varepsilon>0$. [/mm]


Wie kann man das zeigen (oder widerlegen)?
Mir fehlt eine Idee.

Bezug
                                                                        
Bezug
ML-Schätzer: eine Idee
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 18:30 Mo 26.12.2011
Autor: dennis2

hi, ich würde mir mal das schwache gesetz der großen zahlen hernehmen. glaube, damit kann man hier was werden

Bezug
                                                                                
Bezug
ML-Schätzer: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 12:24 Di 27.12.2011
Autor: mikexx

Achso, ich glaube, ich weiß, was Du meinst:

Nach dem schwachen Gesetz der großen Zahlen gilt doch:

[mm] $\hat{\beta}_{ML}=\frac{\overline{X}}{\alpha}\to\frac{1}{\alpha}E(X_1)=\frac{1}{\alpha}\frac{\alpha}{\beta}=\frac{1}{\beta}, n\to\infty$. [/mm]

Und wenn ich das jetzt benutze, komme ich darauf, daß ja [mm] $\left|\frac{1}{\beta}-\beta\right|$ [/mm] nicht kleiner als jedes Epsilon größer 0 ist. Zum Beispiel gilt doch, daß

[mm] $\left|\frac{1}{\beta}-\beta\right|>\frac{\beta}{2}=:\varepsilon$ [/mm]


Und dann folgt:

[mm] $\lim_{n\to\infty}P\left(\left|\hat{\beta}_{ML}-\beta\right|<\varepsilon\right)=P\left(\left|\frac{1}{\beta}-\beta\right|<\varepsilon\right)\neq [/mm] 1 [mm] ~\forall\varepsilon>0$ [/mm] und damit ist gezeigt, daß [mm] $\hat{\beta}_{ML}$ [/mm] nicht schwach konsistent ist!



Ist das so richtig?

Bezug
                                                                                        
Bezug
ML-Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 16:03 Di 27.12.2011
Autor: dennis2

So meinte ich das, ja.

Hätte ich so gemacht und macht doch auch Sinn.

Bezug
                                                                        
Bezug
ML-Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 16:03 Di 27.12.2011
Autor: dennis2

Hab meine Idee als Mitteilung angehängt.

Bezug
                                                                
Bezug
ML-Schätzer: Antwort
Status: (Antwort) fertig Status 
Datum: 22:30 Mo 26.12.2011
Autor: dennis2

Sieht doch gut aus. [ok]

Dieser Schätzer ist nicht erwartungstreu, wie Du also gezeigt hast.

Bezug
                                                        
Bezug
ML-Schätzer: Fälligkeit abgelaufen
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 13:20 Di 27.12.2011
Autor: matux

$MATUXTEXT(ueberfaellige_frage)
Bezug
Ansicht: [ geschachtelt ] | ^ Forum "mathematische Statistik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorkurse.de
[ Startseite | Mitglieder | Teams | Forum | Wissen | Kurse | Impressum ]