www.vorkurse.de
Ein Projekt von vorhilfe.de
Die Online-Kurse der Vorhilfe

E-Learning leicht gemacht.
Hallo Gast!einloggen | registrieren ]
Startseite · Mitglieder · Teams · Forum · Wissen · Kurse · Impressum
Forenbaum
^ Forenbaum
Status Mathe-Vorkurse
  Status Organisatorisches
  Status Schule
    Status Wiederholung Algebra
    Status Einführung Analysis
    Status Einführung Analytisc
    Status VK 21: Mathematik 6.
    Status VK 37: Kurvendiskussionen
    Status VK Abivorbereitungen
  Status Universität
    Status Lerngruppe LinAlg
    Status VK 13 Analysis I FH
    Status Algebra 2006
    Status VK 22: Algebra 2007
    Status GruMiHH 06
    Status VK 58: Algebra 1
    Status VK 59: Lineare Algebra
    Status VK 60: Analysis
    Status Wahrscheinlichkeitst

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Statistik (Anwendungen)" - ML Schätzer B(n;p)
ML Schätzer B(n;p) < Statistik (Anwend.) < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Statistik (Anwendungen)"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

ML Schätzer B(n;p): Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:09 Mo 02.12.2013
Autor: unibasel

Aufgabe
Es gelte X~B(n;p) mit bekanntem Parameter n. Bestimmen Sie einen allgemeinen ML-Schätzer für p bezüglich einer konkreten Stichprobe [mm] (x_{1},...,x_{k}). [/mm]

Nun ich kenne die Lösung zu dieser Aufgabe, habe aber ein paar Fragen und wäre froh, wenn ihr sie mir beantworten könntet:

[mm] L(\theta=p)=\vektor{n \\ x}p^{x}(1-p)^{n-x} [/mm]
Ln-Max-Likelihood-Methode: (Wieso nicht die normale? Ich nehme an, wegen den Exponenten)
l(p)= x log p+(n-x)log(1-p)

1. Ableitung:

[mm] l'(p)=\bruch{x}{p}-\bruch{n-x}{1-p}=0 [/mm]
[mm] l'(p)=\bruch{x(1-p)-p(n-x)}{p(1-p)}=0 [/mm]

l'(p)=x(1-p)-p(n-x)=0

[mm] \Rightarrow [/mm] x(1-p)=p(n-x)

[mm] \Rightarrow [/mm] x=pn [mm] \Rightarrow p_{ML}=\bruch{x}{n} [/mm]

Meine Frage: Welche Regel sagt mir, dass ich [mm] \vektor{n \\ x}p^{x} [/mm] als x log p schreiben kann? Verstehe diesen Schritt nicht. Und könnte mir jemand die genaue Ableitung aufzeigen?

Vielen Dank im Voraus.
lg

        
Bezug
ML Schätzer B(n;p): Antwort
Status: (Antwort) fertig Status 
Datum: 21:16 Mo 02.12.2013
Autor: luis52


> Es gelte X~B(n;p) mit bekanntem Parameter n. Bestimmen Sie
> einen allgemeinen ML-Schätzer für p bezüglich einer
> konkreten Stichprobe [mm](x_{1},...,x_{k}).[/mm]
>  Nun ich kenne die Lösung zu dieser Aufgabe, habe aber ein
> paar Fragen und wäre froh, wenn ihr sie mir beantworten
> könntet:
>  
> [mm]L(\theta=p)=\vektor{n \\ x}p^{x}(1-p)^{n-x}[/mm]
>  
> Ln-Max-Likelihood-Methode: (Wieso nicht die normale? Ich
> nehme an, wegen den Exponenten)

Korrekt.

>  l(p)= x log p+(n-x)log(1-p)
>  
> 1. Ableitung:
>  
> [mm]l'(p)=\bruch{x}{p}-\bruch{n-x}{1-p}=0[/mm]
>  [mm]l'(p)=\bruch{x(1-p)-p(n-x)}{p(1-p)}=0[/mm]
>  
> l'(p)=x(1-p)-p(n-x)=0
>  
> [mm]\Rightarrow[/mm] x(1-p)=p(n-x)
>  
> [mm]\Rightarrow[/mm] x=pn [mm]\Rightarrow p_{ML}=\bruch{x}{n}[/mm]
>  
> Meine Frage: Welche Regel sagt mir, dass ich [mm]\vektor{n \\ x}p^{x}[/mm]
> als x log p schreiben kann?
> Verstehe diesen Schritt nicht.

Darf man eigentlich auch nicht, aber der Summand faellt weg, wenn man nach $p$ ableitet

> Und könnte mir jemand die genaue Ableitung aufzeigen?

Wo ist das Problem?


Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Statistik (Anwendungen)"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorkurse.de
[ Startseite | Mitglieder | Teams | Forum | Wissen | Kurse | Impressum ]