www.vorkurse.de
Ein Projekt von vorhilfe.de
Die Online-Kurse der Vorhilfe

E-Learning leicht gemacht.
Hallo Gast!einloggen | registrieren ]
Startseite · Mitglieder · Teams · Forum · Wissen · Kurse · Impressum
Forenbaum
^ Forenbaum
Status Mathe-Vorkurse
  Status Organisatorisches
  Status Schule
    Status Wiederholung Algebra
    Status Einführung Analysis
    Status Einführung Analytisc
    Status VK 21: Mathematik 6.
    Status VK 37: Kurvendiskussionen
    Status VK Abivorbereitungen
  Status Universität
    Status Lerngruppe LinAlg
    Status VK 13 Analysis I FH
    Status Algebra 2006
    Status VK 22: Algebra 2007
    Status GruMiHH 06
    Status VK 58: Algebra 1
    Status VK 59: Lineare Algebra
    Status VK 60: Analysis
    Status Wahrscheinlichkeitst

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Gewöhnliche Differentialgleichungen" - Multivariate Optimierung
Multivariate Optimierung < gewöhnliche < Differentialgl. < Analysis < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Gewöhnliche Differentialgleichungen"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Multivariate Optimierung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 11:40 Mi 27.08.2008
Autor: franzi123

Ich habe diese Frage auch in folgenden Foren auf anderen Internetseiten gestellt:
http://www.onlinemathe.de/forum/Multivariate-Optimierung-Differentiation


Hallo,

ich habe eine Frage zu einem Optimierungsproblem mit 2 Variablen. Kann ich dieses bivariate Problem in zwei univariate Probleme unter Ausnutzung des Envelope-Theorems überführen? D.h. ich optimiere zuerst nach einer Variable, setze diese dann wieder in die Zielfunktion ein und optimiere nach der anderen Variable. Das Envelope Theorem bezieht sich ja eigentlich eher darauf, dass ich zunächst nach einer Variable optimiere, diese einsetze und dann nach einem exogenen Parameter ableite.

Aber gibt es da wirklich einen Unterschied? Gibt es dazu ein Theorem oder eine Regel, wann dies erlaubt ist?

        
Bezug
Multivariate Optimierung: Antwort
Status: (Antwort) fertig Status 
Datum: 12:42 Do 28.08.2008
Autor: Blech

Also, Du suchst das Minimum von f auf [mm] $A\times [/mm] B$ und willst das machen, indem Du zuerst [mm] $f(\cdot,b):\ A\to \IR$ [/mm] für festgehaltenes [mm] $b\in [/mm] B$ optimierst, und dann die dadurch entstehende Minimumsfunktion über alle [mm] $b\in [/mm] B$?

In dem Fall kannst Du natürlich einzeln optimieren, weil ein globales Minimum [mm] $(a_{min}, b_{min})$ [/mm] selbstverständlich auch ein Minimum der Funktion [mm] $f(\cdot, b_{min})$ [/mm] ist.

Oder überseh ich hier ein Problem?

ciao
Stefan

Bezug
                
Bezug
Multivariate Optimierung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:39 Do 28.08.2008
Autor: franzi123

Hallo Stefan,

danke für deine Hilfe.

Ich habe einfach das Gefühl, dass das nicht immer funktionieren kann. Warum sollte ich dann überhaupt mir die Mühe machen, multivariat zu optimieren, also die Determinante der Hesse-Matrix bestimmen usw. Irgendeinen Grund muss es geben :)

Hier habe ich das Problem noch einmal ausführlich dargestellt:
[]http://www.onlinemathe.de/forum/Multivariate-Optimierung-Differentiation



Bezug
                        
Bezug
Multivariate Optimierung: Antwort
Status: (Antwort) fertig Status 
Datum: 17:51 Do 28.08.2008
Autor: rainerS

Hallo!

> Ich habe einfach das Gefühl, dass das nicht immer
> funktionieren kann. Warum sollte ich dann überhaupt mir die
> Mühe machen, multivariat zu optimieren, also die
> Determinante der Hesse-Matrix bestimmen usw. Irgendeinen
> Grund muss es geben :)

Ich bin mir nicht ganz sicher, aber ich würde sagen, dass es durch Berechnung der Ableitungen in zwei Schritten nur dann funktionieren kann, wenn dein Maximum im ersten Schritt eine stetig differenzierbare Funktion des Parameters ist. Um bei deiner Notation zu bleiben: sei $f(n,s)$ die zu maximierende Funktion und [mm] $s^\ast(n)$ [/mm] die Lösung von

  [mm] \max_s f(n,s) [/mm] zu festem n.

Im zweiten Schritt hast du

  [mm] \bruch{d}{d n} f(n,s^\ast(n)) = 0[/mm]

Rechne diese Ableitung aus:

  [mm] \left.\bruch{\partial}{\partial n}f(n,s)\right|_{s=s^\ast(n)} + \left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)} \cdot \bruch{d s^\ast(n)}{d n} =0[/mm]

Damit das definiert ist, müssen alle diese Ableitungen definiert sein, also auch [mm]\bruch{d s^\ast(n)}{d n}[/mm].

Für eine beliebige Funktion f ist das nicht der Fall. Es könnte zum Beispiel sein, dass es für gewisse Werte von n keine eindeutig bestimmtes Maximum der Funktion f gibt. Dann kannst du [mm] $s^\ast$ [/mm] für diese Werte nicht angeben.

  Viele Grüße
    Rainer

Bezug
                                
Bezug
Multivariate Optimierung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:14 Do 28.08.2008
Autor: franzi123


>  
> Ich bin mir nicht ganz sicher, aber ich würde sagen, dass
> es durch Berechnung der Ableitungen in zwei Schritten nur
> dann funktionieren kann, wenn dein Maximum im ersten
> Schritt eine stetig differenzierbare Funktion des
> Parameters ist. Um bei deiner Notation zu bleiben: sei
> [mm]f(n,s)[/mm] die zu maximierende Funktion und [mm]s^\ast(n)[/mm] die
> Lösung von
>  
> [mm]\max_s f(n,s)[/mm] zu festem n.
>  
> Im zweiten Schritt hast du
>  
> [mm]\bruch{d}{d n} f(n,s^\ast(n)) = 0[/mm]
>
> Rechne diese Ableitung aus:
>  
> [mm]\left.\bruch{\partial}{\partial n}f(n,s)\right|_{s=s^\ast(n)} + \left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)} \cdot \bruch{d s^\ast(n)}{d n} =0[/mm]
>  
> Damit das definiert ist, müssen alle diese Ableitungen
> definiert sein, also auch [mm]\bruch{d s^\ast(n)}{d n}[/mm].
>  
> Für eine beliebige Funktion f ist das nicht der Fall. Es
> könnte zum Beispiel sein, dass es für gewisse Werte von n
> keine eindeutig bestimmtes Maximum der Funktion f gibt.
> Dann kannst du [mm]s^\ast[/mm] für diese Werte nicht angeben.
>
> Viele Grüße
>      Rainer


Hallo Rainer,

Vielen Dank für die umfangreiche Antwort. Diese Ableitung sehe ich jetzt auch als meinen Ausgangspunkt.

Ist es richtig, dass in dieser Ableitung nun das Envelope-Theorem zur Anwendung kommt - also der zweite Term der Ableitung weg fählt, da ja die notwendige Bedingung für s* erfüllt sein muss:

[mm] \left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)}=0[/mm]


Irgendwie traue ich der Sache nicht :)

Bezug
                                        
Bezug
Multivariate Optimierung: Antwort
Status: (Antwort) fertig Status 
Datum: 12:31 So 31.08.2008
Autor: rainerS

Hallo!

> >  

> > Ich bin mir nicht ganz sicher, aber ich würde sagen, dass
> > es durch Berechnung der Ableitungen in zwei Schritten nur
> > dann funktionieren kann, wenn dein Maximum im ersten
> > Schritt eine stetig differenzierbare Funktion des
> > Parameters ist. Um bei deiner Notation zu bleiben: sei
> > [mm]f(n,s)[/mm] die zu maximierende Funktion und [mm]s^\ast(n)[/mm] die
> > Lösung von
>  >  
> > [mm]\max_s f(n,s)[/mm] zu festem n.
>  >  
> > Im zweiten Schritt hast du
>  >  
> > [mm]\bruch{d}{d n} f(n,s^\ast(n)) = 0[/mm]
> >
> > Rechne diese Ableitung aus:
>  >  
> > [mm]\left.\bruch{\partial}{\partial n}f(n,s)\right|_{s=s^\ast(n)} + \left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)} \cdot \bruch{d s^\ast(n)}{d n} =0[/mm]
>  
> >  

> > Damit das definiert ist, müssen alle diese Ableitungen
> > definiert sein, also auch [mm]\bruch{d s^\ast(n)}{d n}[/mm].
>  >  
> > Für eine beliebige Funktion f ist das nicht der Fall. Es
> > könnte zum Beispiel sein, dass es für gewisse Werte von n
> > keine eindeutig bestimmtes Maximum der Funktion f gibt.
> > Dann kannst du [mm]s^\ast[/mm] für diese Werte nicht angeben.
> >
> > Viele Grüße
>  >      Rainer
>
>
> Hallo Rainer,
>  
> Vielen Dank für die umfangreiche Antwort. Diese Ableitung
> sehe ich jetzt auch als meinen Ausgangspunkt.
>
> Ist es richtig, dass in dieser Ableitung nun das
> Envelope-Theorem zur Anwendung kommt - also der zweite Term
> der Ableitung weg fählt, da ja die notwendige Bedingung für
> s* erfüllt sein muss:
>  
> [mm]\left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)}=0[/mm]

Ja. Aber die Voraussetzung ist, dass [mm] $s^\ast(n)$ [/mm] für alle möglichen Werte von n eine wohldefinierte und differenzierbare Funktion ist.


> Irgendwie traue ich der Sache nicht :)

Ja, mir ist auch nicht wohl dabei ;-)

Viele Grüße
   Rainer


Bezug
                
Bezug
Multivariate Optimierung: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 17:31 Do 28.08.2008
Autor: rainerS

Hallo Stefan!

> Also, Du suchst das Minimum von f auf [mm]A\times B[/mm] und willst
> das machen, indem Du zuerst [mm]f(\cdot,b):\ A\to \IR[/mm] für
> festgehaltenes [mm]b\in B[/mm] optimierst, und dann die dadurch
> entstehende Minimumsfunktion über alle [mm]b\in B[/mm]?
>  
> In dem Fall kannst Du natürlich einzeln optimieren, weil
> ein globales Minimum [mm](a_{min}, b_{min})[/mm] selbstverständlich
> auch ein Minimum der Funktion [mm]f(\cdot, b_{min})[/mm] ist.

Das ist zwar richtig, aber dieses Minimum lässt sich nicht in jedem Fall durch Nullsetzen der entsprechenden Ableitung bestimmen.

Viele Grüße
   Rainer

Bezug
                        
Bezug
Multivariate Optimierung: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 22:35 Do 28.08.2008
Autor: Blech

Davon hatte ich auch nix gesagt. Mir war nur nicht klar, was das Envelope-Theorem genau aussagt und das "d.h." in der Aufgabenstellung war irreführend =)

"Kann ich dieses bivariate Problem in zwei univariate Probleme unter Ausnutzung des Envelope-Theorems überführen? D.h. ich optimiere zuerst nach einer Variable, setze diese dann wieder in die Zielfunktion ein und optimiere nach der anderen Variable."


Anmerkung am Rande:
Der Grund, daß man so im allgemeinen nicht vorgeht, ist daß man für jedes b dafür ein Optimierungsproblem lösen darf. Außer bei hübschen Funktionen sitzt man daran wesentlich länger als an genug Newton-Iterationen bis zur gewünschten Genauigkeit. =P

ciao
Stefan

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Gewöhnliche Differentialgleichungen"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorkurse.de
[ Startseite | Mitglieder | Teams | Forum | Wissen | Kurse | Impressum ]