www.vorkurse.de
Ein Projekt von vorhilfe.de
Die Online-Kurse der Vorhilfe

E-Learning leicht gemacht.
Hallo Gast!einloggen | registrieren ]
Startseite · Mitglieder · Teams · Forum · Wissen · Kurse · Impressum
Forenbaum
^ Forenbaum
Status Mathe-Vorkurse
  Status Organisatorisches
  Status Schule
    Status Wiederholung Algebra
    Status Einführung Analysis
    Status Einführung Analytisc
    Status VK 21: Mathematik 6.
    Status VK 37: Kurvendiskussionen
    Status VK Abivorbereitungen
  Status Universität
    Status Lerngruppe LinAlg
    Status VK 13 Analysis I FH
    Status Algebra 2006
    Status VK 22: Algebra 2007
    Status GruMiHH 06
    Status VK 58: Algebra 1
    Status VK 59: Lineare Algebra
    Status VK 60: Analysis
    Status Wahrscheinlichkeitst

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Signaltheorie" - Nachrichtencodierung Entropie
Nachrichtencodierung Entropie < Signaltheorie < Ingenieurwiss. < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Signaltheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Nachrichtencodierung Entropie: Quellencodierung
Status: (Frage) beantwortet Status 
Datum: 14:24 Do 07.03.2013
Autor: Devis

Ich bin mir nicht sicher ob ich im richtigen Bereich bin.
Es geht um Nachrichtencodierung. Kommt bei mir in Digitaltechnick, bei anderen in Software und bestimmt auch im Bereich Signaltheorie vor.


Es liegt eine Nachricht vor, die aus zwei Ereignissen [mm] x_{1} [/mm] und [mm] x_{2} [/mm] besteht.
Ich soll die Auftrittswahrscheinlichkeit [mm] p_{i} [/mm] so berechnen, dass  der mittlere Informationsgehalt maximal wird.

Mir ist natürlich klar, dass [mm] \summe_{i=1}^{2}p_{i}=p_{1}+p_{2}=1 [/mm] ist
und dass der mittlere Informationsgehalt, nur bei gleicher Wahrscheinlichkeit aller Ereignisse, maximal ist.

Also ist [mm] p_{i}=p_{1}=p_{2}=\bruch{1}{2} [/mm]

Mir fehlt hier ehe das mathematische Verständniss
Zur Aufgabe gibt es eine Rechnung die ich nicht verstehe.

Es gilt.

[mm] \overline{I}= [/mm] - [mm] \summe_{i=1}^{n}p_{x_{i}}\*log_{2}p_{x_{i}} [/mm]

[mm] \overline{I}= [/mm] - [mm] p_{1}log_{2}(p_{1}) [/mm] - [mm] p_{2}log_{2}(p_{2}) [/mm]  /mit [mm] p_{2} [/mm] = [mm] 1-p_{1} [/mm]
[mm] \overline{I}= [/mm] - [mm] p_{1}log_{2}(p_{1}) [/mm] - [mm] (1-p_{1})log_{2}(1-p_{1}) [/mm]    / mit [mm] log_{2}x=\bruch{ln_{x}}{ln_{2}} [/mm]

[mm] \overline{I}= [/mm] - [mm] \bruch{1}{ln_{2}} [p_{1}ln(p_{1}) [/mm] + [mm] (1-p_{1})ln(1-p_{1})] [/mm]

Ich verstehe nicht wie es zum rot markirtem Minus und spähter Plus kommt.

        
Bezug
Nachrichtencodierung Entropie: Klammer
Status: (Antwort) fertig Status 
Datum: 18:14 Do 07.03.2013
Autor: Infinit

Hallo Devis,
das rot markierte Minuszeichen rührt daher, dass ein Minuszeichen vor dem Summenzeichen steht und demzufolge alle Summanden ein Minuszeichen tragen.
Das Pluszeichen, über das Du Dich wunderst, kommt daher, dass das Minuszeichen vor die Klammer gezogen wurde und demzufolge alle Terme in der Klammer positiv sind.
Viele Grüße,
Infinit  


Bezug
                
Bezug
Nachrichtencodierung Entropie: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 12:00 Mo 11.03.2013
Autor: Devis

Hi,
ist logisch, mich hat aber eine Variable verwirrt, die die ganzen Summen auch negative macht. Unwichtig))
Danke

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Signaltheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorkurse.de
[ Startseite | Mitglieder | Teams | Forum | Wissen | Kurse | Impressum ]