Fréchet-Differenzierbarkeit < Funktionalanalysis < Analysis < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 19:19 Di 22.02.2011 | Autor: | Marcel |
Hallo,
in Dirk Werners Funktionalanalysis findet man sinngemäß die folgende Definition, wobei [mm] $X\,$ [/mm] und [mm] $Y\,$ [/mm] normierte [mm] $\IR$-Vektorräume [/mm] seien mit $U [mm] \subseteq [/mm] X$ offen:
$f: U [mm] \to [/mm] Y$ heißt Gâteaux-differenzierbar in [mm] $x_0 \in U\,,$ [/mm] falls es eine stetige lineare Abbildung [mm] $T=T_{x_0} \in [/mm] L(X,Y)$ gibt, so dass für alle $v [mm] \in [/mm] X$ folgt
[mm] $$\lim_{|h| \to 0} \underbrace{\frac{1}{|h|}\|f(x_0+h*v)-f(x_0)-T(h*v)\|}_{=:\red{(\star)}}=0$$
[/mm]
(eigentlich steht da
[mm] $$\lim_{h \to 0}\frac{f(x_0+h*v)-f(x_0)}{h}=Tv\,,$$
[/mm]
das sollte aber das gleiche sein, wenn ich da keinen Denkfehler habe?).
Nun steht zudem da, dass [mm] $f\,$ [/mm] Fréchet-differenzierbar sei, wenn diese Konvergenz gleichmäßig bzgl. [mm] $v\,$ [/mm] auf der kompakten Einheitskugel [mm] $B_X \subseteq [/mm] X$ gelte.
Da ich die Fréchet-Differenzierbarkeitsdefinition nur mit "wenn es einen beschränkten, stetigen, linearen Operator gibt..." kenne, nun meine Frage, da mich die Formulierung schon verwirrt:
Verstehe ich es richtig, dass bei der Fréchet-Differenzierbarkeit das folgende gemeint ist:
Für alle [mm] $\epsilon [/mm] > 0$ existiert ein [mm] $\delta=\delta_\epsilon [/mm] > 0$ so, dass für alle $v [mm] \in B_X$ [/mm] gilt
[mm] $$\|h\| [/mm] < [mm] \delta \Rightarrow \red{(\star)} [/mm] < [mm] \epsilon\,.$$
[/mm]
Salopp gesagt: "Die Konvergenzgeschwindigkeit bzgl. des Limes linkerhand" ist für die [mm] $v\,$'s [/mm] der kompakten Einheitskugel in einem gewissen Sinne "mindestens gleich gut".
Und der Unterschied in der Gâteaux-Differenzierbarkeit besteht dann darin, dass man diese "einheitliche Konvergenzgeschwindigkeit" eigentlich nirgends, aber vor allem auch nicht auf der kompakten Einheitskugel, verlangt - dies besagt insbesondere, dass Fréchet-Differenzierbarkeit die Gâteaux-Diff'barkeit impliziert, "also etwas stärkeres ist".
Symbolisch würde die Gâteaux-Diff'barkeit in [mm] $x_0 \in [/mm] U$ dann, wenn ich es korrekt verstehe, heißen:
Für alle [mm] $\epsilon [/mm] > 0$ und für alle $v [mm] \in [/mm] X$ gilt: Es existiert ein [mm] $\delta=\delta_{\epsilon,v} [/mm] > 0$ so, dass
[mm] $$\|h\| [/mm] < [mm] \delta \Rightarrow \red{(\star)} [/mm] < [mm] \epsilon\,.$$
[/mm]
Ein wenig irritiert mich hier einfach, dass Werner den Begriff "glm. konvergent" benutzt. Ich bin es gewohnt, diese Bezeichnung eigentlich nur bei Funktionenfolgen zu verwenden - und bin mir unsicher, ob ich sie schonmal in einem anderen Zusammenhang gehört habe.
Gefühlsmäßig würde ich sagen, dass das in folgendem Sinne zu verstehen ist:
Eine Familie [mm] $(f_j)_{j \in I}$ [/mm] von Funktionen [mm] $f_j: [/mm] A [mm] \to [/mm] B$ zwischen metrischen Räumen [mm] $(A,d_A)$ [/mm] und [mm] $(B,d_B)$ [/mm] heißt glm. konvergent in [mm] $x_0 \in A\,,$ [/mm] falls gilt:
Für alle [mm] $\epsilon [/mm] > 0$ existiert ein [mm] $\delta=\delta_\epsilon [/mm] > 0$ und ein [mm] $N=N_\epsilon \in \IN$ [/mm] so, dass die Implikation
[mm] $$d_A(x,x_0) [/mm] < [mm] \delta \Rightarrow d_B(f_j(x), f_j(x_0))$$
[/mm]
für alle $j [mm] \in [/mm] I [mm] \setminus E_\epsilon$ [/mm] gilt, wobei [mm] $|E_\epsilon|=N_\epsilon\,$ [/mm] und [mm] $E_\epsilon \subseteq [/mm] I$ (d.h. die Konvergenz geht "in einem gewissen Sinne indexunabhängig schnell genug, bis auf eine von [mm] $\epsilon [/mm] > 0$ abhängige endliche Indexausnahmemenge, die aber nur vom festen [mm] $\epsilon [/mm] > 0$ abhängen darf bzw. bei festem [mm] $\epsilon [/mm] > 0$ auch einmal fest gewählt werden kann, aber maximal endlich sein darf").
Gibt es diese Definition? Oder ist das, was ich mir da zusammengebastelt habe, so weder bekannt noch sinnvoll?
P.S.
Kann mir jmd. auch vielleicht nochmal kurz den Wink mit dem Zaunpfahl geben, warum Werners Definition der Fréchet-Ableitung äquivalent ist mit der "beschränkten, stetigen linearen Operator"-Definitionsformulierung?
Gruß,
Marcel
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 09:36 Do 24.02.2011 | Autor: | fred97 |
Hallo Marcel,
vor mir habe ich die 5., erweiterte Auflage, des Buches von D. Werner.
Wir haben folgende Situation: X und Y seien normierte Räume, es sei U eine offene Teilmenge von X , $f:U [mm] \to [/mm] Y$ eine Abbildung und [mm] x_0 \in [/mm] U.
Weiter sei [mm] B_X [/mm] die abgeschlossene Einheitskugel in X.
Einige Bemerkungen:
1. Oben sprichst Du von der "kompakten Einheitskugel $ [mm] B_X \subseteq [/mm] X $"
Wahrscheinlich weißt Du das, aber ich erwähne es dennoch: [mm] B_X [/mm] ist kompakt [mm] \gdw [/mm] dim(X) < [mm] \infty.
[/mm]
2. In der Literatur ist die Def. des Begriffs "Gâteaux-Differenzierbarkeit" (leider) nicht einheitlich !
2 a) Manche sagen: f heißt in [mm] x_0 [/mm] Gâteaux-diferenzierbar, wenn
[mm] $\delta f(x_0, [/mm] v) [mm] :=\lim_{h \to 0} \frac{f(x_0+h\cdot v)-f(x_0)}{h} [/mm] $
für jedes $v [mm] \in [/mm] X$ existiert.
Dann gilt:
[mm] $\delta f(x_0, \alpha*v)= \alpha*\delta f(x_0, [/mm] v)$ für jeden Skalar [mm] \alpha,
[/mm]
aber [mm] $\delta f(x_0, [/mm] v)$ ist nicht additiv in v, wie folgendes Beispiel zeigt:
Sei [mm] X=\IR^2 [/mm] und Y= [mm] \IR [/mm] und $f(x,y):= [mm] \bruch{x^2y}{x^2+y^2}$ [/mm] für (x,y) [mm] \ne [/mm] (0,0) und f(0,0):=0
Dann hat man:
[mm] $\delta [/mm] f(0,(0,1)) + [mm] \delta [/mm] f(0,(1,0)) = 0 + 0 [mm] \ne \frac [/mm] 12 = [mm] \delta [/mm] f(0,(1,1)).$
2 b) Andere sagen (so auch Werner): f heißt in [mm] x_0 [/mm] Gâteaux-diferenzierbar, wenn es einen stetigen linearen Operator $T:X [mm] \to [/mm] Y$ gibt mit:
[mm] $\limes_{h\rightarrow 0}\frac{f(x_0+h\cdot v)-f(x_0)}{h} [/mm] =Tv$ für jedes v [mm] \in [/mm] X
3. Zur "gleichmäßigen Konvergenz": Du fragst:
"Verstehe ich es richtig, dass bei der Fréchet-Differenzierbarkeit das folgende gemeint ist:
Für alle $ [mm] \epsilon [/mm] > 0 $ existiert ein $ [mm] \delta=\delta_\epsilon [/mm] > 0 $ so, dass für alle $ v [mm] \in B_X [/mm] $ gilt
$ [mm] \|h\| [/mm] < [mm] \delta \Rightarrow \red{(\star)} [/mm] < [mm] \epsilon\,. [/mm] $"
Ich gebe zu , dass Werner sich nicht klar äußert zum Begriff "gleichmäßige Konvergenz", aber wenn Du Dir den Beweis von Lemma III.5.2 anschaust, stellst Du fest, das Deine Frage mit "ja" zu beantworten ist.
Grüße FRED
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 13:42 Do 24.02.2011 | Autor: | Marcel |
Hallo Fred,
> Hallo Marcel,
>
> vor mir habe ich die 5., erweiterte Auflage, des Buches von
> D. Werner.
>
> Wir haben folgende Situation: X und Y seien normierte
> Räume, es sei U eine offene Teilmenge von X , [mm]f:U \to Y[/mm]
> eine Abbildung und [mm]x_0 \in[/mm] U.
>
> Weiter sei [mm]B_X[/mm] die abgeschlossene Einheitskugel in X.
>
> Einige Bemerkungen:
>
> 1. Oben sprichst Du von der "kompakten Einheitskugel [mm]B_X \subseteq X [/mm]"
>
> Wahrscheinlich weißt Du das, aber ich erwähne es dennoch:
> [mm]B_X[/mm] ist kompakt [mm]\gdw[/mm] dim(X) < [mm]\infty.[/mm]
danke für die Erinnerung. Du hast recht, es ist daher schlecht, von der kompakten Einheitskugel zu sprechen - besser spräche ich vielleicht von der abgeschlossenen Einheitskugel. Dieser Lapsus ist mir quasi "aus Gewohnheit" passiert.
> 2. In der Literatur ist die Def. des Begriffs
> "Gâteaux-Differenzierbarkeit" (leider) nicht einheitlich
> !
>
> 2 a) Manche sagen: f heißt in [mm]x_0[/mm] Gâteaux-diferenzierbar,
> wenn
>
>
>
> [mm]\delta f(x_0, v) :=\lim_{h \to 0} \frac{f(x_0+h\cdot v)-f(x_0)}{h}[/mm]
>
> für jedes [mm]v \in X[/mm] existiert.
>
> Dann gilt:
>
> [mm]\delta f(x_0, \alpha*v)= \alpha*\delta f(x_0, v)[/mm] für
> jeden Skalar [mm]\alpha,[/mm]
>
> aber [mm]\delta f(x_0, v)[/mm] ist nicht additiv in v, wie
> folgendes Beispiel zeigt:
>
> Sei [mm]X=\IR^2[/mm] und Y= [mm]\IR[/mm] und [mm]f(x,y):= \bruch{x^2y}{x^2+y^2}[/mm]
> für (x,y) [mm]\ne[/mm] (0,0) und f(0,0):=0
>
> Dann hat man:
>
> [mm]\delta f(0,(0,1)) + \delta f(0,(1,0)) = 0 + 0 \ne \frac 12 = \delta f(0,(1,1)).[/mm]
>
> 2 b) Andere sagen (so auch Werner): f heißt in [mm]x_0[/mm]
> Gâteaux-diferenzierbar, wenn es einen stetigen linearen
> Operator [mm]T:X \to Y[/mm] gibt mit:
>
> [mm]\limes_{h\rightarrow 0}\frac{f(x_0+h\cdot v)-f(x_0)}{h} =Tv[/mm]
> für jedes v [mm]\in[/mm] X
Also der Sinn dieser "stärkeren" Definition ist also, dass die Additivität insbesondere auch gilt? Demnach wäre die Funktion aus obigem Beispiel nicht G.-diff'bar im letztgenannten Sinne?
> 3. Zur "gleichmäßigen Konvergenz": Du fragst:
>
> "Verstehe ich es richtig, dass bei der
> Fréchet-Differenzierbarkeit das folgende gemeint ist:
> Für alle [mm]\epsilon > 0[/mm] existiert ein
> [mm]\delta=\delta_\epsilon > 0[/mm] so, dass für alle [mm]v \in B_X[/mm]
> gilt
>
> [mm]\|h\| < \delta \Rightarrow \red{(\star)} < \epsilon\,. [/mm]"
>
>
>
> Ich gebe zu , dass Werner sich nicht klar äußert zum
> Begriff "gleichmäßige Konvergenz", aber wenn Du Dir den
> Beweis von Lemma III.5.2 anschaust, stellst Du fest, das
> Deine Frage mit "ja" zu beantworten ist.
Okay, dann vielen Dank dafür erstmal.
Was hältst Du denn von meinem Vorschlag bzgl. "Definition der glm. Konvergenz einer (F<unktionen-)Familie?"
Gruß,
Marcel
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 13:47 Do 24.02.2011 | Autor: | fred97 |
> Hallo Fred,
>
> > Hallo Marcel,
> >
> > vor mir habe ich die 5., erweiterte Auflage, des Buches von
> > D. Werner.
> >
> > Wir haben folgende Situation: X und Y seien normierte
> > Räume, es sei U eine offene Teilmenge von X , [mm]f:U \to Y[/mm]
> > eine Abbildung und [mm]x_0 \in[/mm] U.
> >
> > Weiter sei [mm]B_X[/mm] die abgeschlossene Einheitskugel in X.
> >
> > Einige Bemerkungen:
> >
> > 1. Oben sprichst Du von der "kompakten Einheitskugel [mm]B_X \subseteq X [/mm]"
>
> >
> > Wahrscheinlich weißt Du das, aber ich erwähne es dennoch:
> > [mm]B_X[/mm] ist kompakt [mm]\gdw[/mm] dim(X) < [mm]\infty.[/mm]
>
Hallo Marcel,
> danke für die Erinnerung. Du hast recht, es ist daher
> schlecht, von der kompakten Einheitskugel zu sprechen -
> besser spräche ich vielleicht von der abgeschlossenen
> Einheitskugel. Dieser Lapsus ist mir quasi "aus Gewohnheit"
> passiert.
Das ist mir auch schon so gegangen. Man denk halt "endlichdimensional":
>
> > 2. In der Literatur ist die Def. des Begriffs
> > "Gâteaux-Differenzierbarkeit" (leider) nicht einheitlich
> > !
> >
> > 2 a) Manche sagen: f heißt in [mm]x_0[/mm] Gâteaux-diferenzierbar,
> > wenn
> >
> >
> >
> > [mm]\delta f(x_0, v) :=\lim_{h \to 0} \frac{f(x_0+h\cdot v)-f(x_0)}{h}[/mm]
>
> >
> > für jedes [mm]v \in X[/mm] existiert.
> >
> > Dann gilt:
> >
> > [mm]\delta f(x_0, \alpha*v)= \alpha*\delta f(x_0, v)[/mm] für
> > jeden Skalar [mm]\alpha,[/mm]
> >
> > aber [mm]\delta f(x_0, v)[/mm] ist nicht additiv in v, wie
> > folgendes Beispiel zeigt:
> >
> > Sei [mm]X=\IR^2[/mm] und Y= [mm]\IR[/mm] und [mm]f(x,y):= \bruch{x^2y}{x^2+y^2}[/mm]
> > für (x,y) [mm]\ne[/mm] (0,0) und f(0,0):=0
> >
> > Dann hat man:
> >
> > [mm]\delta f(0,(0,1)) + \delta f(0,(1,0)) = 0 + 0 \ne \frac 12 = \delta f(0,(1,1)).[/mm]
>
> >
> > 2 b) Andere sagen (so auch Werner): f heißt in [mm]x_0[/mm]
> > Gâteaux-diferenzierbar, wenn es einen stetigen linearen
> > Operator [mm]T:X \to Y[/mm] gibt mit:
> >
> > [mm]\limes_{h\rightarrow 0}\frac{f(x_0+h\cdot v)-f(x_0)}{h} =Tv[/mm]
> > für jedes v [mm]\in[/mm] X
>
> Also der Sinn dieser "stärkeren" Definition ist also, dass
> die Additivität insbesondere auch gilt?
Ja
> Demnach wäre die
> Funktion aus obigem Beispiel nicht G.-diff'bar im
> letztgenannten Sinne?
Ja
>
> > 3. Zur "gleichmäßigen Konvergenz": Du fragst:
> >
> > "Verstehe ich es richtig, dass bei der
> > Fréchet-Differenzierbarkeit das folgende gemeint ist:
> > Für alle [mm]\epsilon > 0[/mm] existiert ein
> > [mm]\delta=\delta_\epsilon > 0[/mm] so, dass für alle [mm]v \in B_X[/mm]
> > gilt
> >
> > [mm]\|h\| < \delta \Rightarrow \red{(\star)} < \epsilon\,. [/mm]"
>
> >
> >
> >
> > Ich gebe zu , dass Werner sich nicht klar äußert zum
> > Begriff "gleichmäßige Konvergenz", aber wenn Du Dir den
> > Beweis von Lemma III.5.2 anschaust, stellst Du fest, das
> > Deine Frage mit "ja" zu beantworten ist.
>
> Okay, dann vielen Dank dafür erstmal.
>
> Was hältst Du denn von meinem Vorschlag bzgl. "Definition
> der glm. Konvergenz einer (F<unktionen-)Familie?"
Das hat mir gefallen, aber ich denke, diese Def. steht irgendwo in der Literatur, soweit ich mich erinnere: Aber ich erinnere mich nicht mehr wo
Edit: obiges nehme ich zurück ! Siehe: https://www.vorhilfe.de/read?i=773016
Gruß FRED
>
> Gruß,
> Marcel
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:00 Do 24.02.2011 | Autor: | Marcel |
Hallo Fred,
erstmal ein erneutes Dankeschön!
> Hallo Marcel,
>
>
> > danke für die Erinnerung. Du hast recht, es ist daher
> > schlecht, von der kompakten Einheitskugel zu sprechen -
> > besser spräche ich vielleicht von der abgeschlossenen
> > Einheitskugel. Dieser Lapsus ist mir quasi "aus Gewohnheit"
> > passiert.
>
> Das ist mir auch schon so gegangen. Man denk halt
> "endlichdimensional":
Jupp!
> >
> > > 2. In der Literatur ist die Def. des Begriffs
> > > "Gâteaux-Differenzierbarkeit" (leider) nicht einheitlich
> > > !
> > >
> > > 2 a) Manche sagen: f heißt in [mm]x_0[/mm] Gâteaux-diferenzierbar,
> > > wenn
> > >
> > >
> > >
> > > [mm]\delta f(x_0, v) :=\lim_{h \to 0} \frac{f(x_0+h\cdot v)-f(x_0)}{h}[/mm]
>
> >
> > >
> > > für jedes [mm]v \in X[/mm] existiert.
> > >
> > > Dann gilt:
> > >
> > > [mm]\delta f(x_0, \alpha*v)= \alpha*\delta f(x_0, v)[/mm] für
> > > jeden Skalar [mm]\alpha,[/mm]
> > >
> > > aber [mm]\delta f(x_0, v)[/mm] ist nicht additiv in v, wie
> > > folgendes Beispiel zeigt:
> > >
> > > Sei [mm]X=\IR^2[/mm] und Y= [mm]\IR[/mm] und [mm]f(x,y):= \bruch{x^2y}{x^2+y^2}[/mm]
> > > für (x,y) [mm]\ne[/mm] (0,0) und f(0,0):=0
> > >
> > > Dann hat man:
> > >
> > > [mm]\delta f(0,(0,1)) + \delta f(0,(1,0)) = 0 + 0 \ne \frac 12 = \delta f(0,(1,1)).[/mm]
>
> >
> > >
> > > 2 b) Andere sagen (so auch Werner): f heißt in [mm]x_0[/mm]
> > > Gâteaux-diferenzierbar, wenn es einen stetigen linearen
> > > Operator [mm]T:X \to Y[/mm] gibt mit:
> > >
> > > [mm]\limes_{h\rightarrow 0}\frac{f(x_0+h\cdot v)-f(x_0)}{h} =Tv[/mm]
> > > für jedes v [mm]\in[/mm] X
> >
> > Also der Sinn dieser "stärkeren" Definition ist also, dass
> > die Additivität insbesondere auch gilt?
>
>
>
> Ja
>
> > Demnach wäre die
> > Funktion aus obigem Beispiel nicht G.-diff'bar im
> > letztgenannten Sinne?
>
>
> Ja
Okay.
> >
> > > 3. Zur "gleichmäßigen Konvergenz": Du fragst:
> > >
> > > "Verstehe ich es richtig, dass bei der
> > > Fréchet-Differenzierbarkeit das folgende gemeint ist:
> > > Für alle [mm]\epsilon > 0[/mm] existiert ein
> > > [mm]\delta=\delta_\epsilon > 0[/mm] so, dass für alle [mm]v \in B_X[/mm]
> > > gilt
> > >
> > > [mm]\|h\| < \delta \Rightarrow \red{(\star)} < \epsilon\,. [/mm]"
>
> >
> > >
> > >
> > >
> > > Ich gebe zu , dass Werner sich nicht klar äußert zum
> > > Begriff "gleichmäßige Konvergenz", aber wenn Du Dir den
> > > Beweis von Lemma III.5.2 anschaust, stellst Du fest, das
> > > Deine Frage mit "ja" zu beantworten ist.
> >
> > Okay, dann vielen Dank dafür erstmal.
> >
> > Was hältst Du denn von meinem Vorschlag bzgl. "Definition
> > der glm. Konvergenz einer (F<unktionen-)Familie?"
>
>
> Das hat mir gefallen, aber ich denke, diese Def. steht
> irgendwo in der Literatur, soweit ich mich erinnere: Aber
> ich erinnere mich nicht mehr wo
Ich dachte, derartiges mal in der Approximationstheorie gehört zu haben. Da ich das aber nicht mehr gefunden habe, habe ich mir halt mal schnell selbst etwas zusammengeschustert, was insofern sinnvoll ist, als dass es das, was Werner meint, beinhalten sollte und natürlich insbesondere auch die glm. Konvergenz einer Funktionenfolge beinhalten soll. Vielleicht gibt's auch eine "wenn für alle Folgen in [mm] $I\,$ [/mm] gilt..."-Definition der glm. Konvergenz.
Aber ich habe auch irgendwie das Gefühl, dass man das, was ich meine, auch mit dem Begriff der gleichgradigen Stetigkeit beschreiben kann? Denn wenn ich das richtig sehe, könnte man meine Definition der glm. Konvergenz einer Funktionenfamilie fast direkt damit umschreiben?
(Eine Familie von Funktionen ist genau dann glm. konvergent in [mm] $x_0\,,$ [/mm] wenn es für jedes [mm] $\epsilon [/mm] > 0$ eine Ausnahmemenge von nur endlich vielen Funktionen der Familie gibt, so dass die Familie, die entsteht, wenn man die endliche (von [mm] $\epsilon$ [/mm] abhängige) Ausnahmemenge entfernt, dann in [mm] $x_0$ [/mm] glgr. stetig ist)
Gruß,
Marcel
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:18 Do 24.02.2011 | Autor: | fred97 |
Machen wir es mal so (damit wir nah am Werner sind)
X und Y seien wieder normierte Räume und [mm] (g_v)_{v \in X} [/mm] eine Familie von Funktionen [mm] $g_v:\IR \to [/mm] Y$
Weiter gelte:
für jedes $v [mm] \in [/mm] X$ existiere der Grenzwert
(*) [mm] $L_v:= \limes_{h\rightarrow 0}g_v(h)$
[/mm]
Def.: die Konvergenz in(*) heißt gleichmäßig auf [mm] B_X [/mm] : [mm] \gdw
[/mm]
zu jedem [mm] \varepsilon>0 [/mm] ex. ein [mm] \delta> [/mm] 0 mit: [mm] $||L_v-g_v(h)||< \varepsilon$ [/mm] für $|h|< [mm] \delta$ [/mm] und alle $v [mm] \in B_X$.
[/mm]
FRED
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:47 Do 24.02.2011 | Autor: | Marcel |
Hallo Fred,
> Machen wir es mal so (damit wir nah am Werner sind)
>
> X und Y seien wieder normierte Räume und [mm](g_v)_{v \in X}[/mm]
> eine Familie von Funktionen [mm]g_v:\IR \to Y[/mm]
>
> Weiter gelte:
>
> für jedes [mm]v \in X[/mm] existiere der Grenzwert
>
> (*) [mm]L_v:= \limes_{h\rightarrow 0}g_v(h)[/mm]
>
> Def.: die Konvergenz in(*) heißt gleichmäßig auf [mm]B_X[/mm] :
> [mm]\gdw[/mm]
>
> zu jedem [mm]\varepsilon>0[/mm] ex. ein [mm]\delta>[/mm] 0 mit:
> [mm]||L_v-g_v(h)||< \varepsilon[/mm] für [mm]|h|< \delta[/mm] und alle [mm]v \in B_X[/mm].
okay. Ich formuliere es aber dennoch mal anders, einfach des Verständnisses wegen:
Man könnte dann doch auch sagen, dass das, was Werner meint, nichts anderes als die gleichgradige Stetigkeit der Familie [mm] $(g_v)_{v \in B_X}$ [/mm] im Punkte [mm] $0\,$ [/mm] ist. Oder?
Aber vielleicht sollte ich mich auch nicht weiter damit rumplagen, denn immerhin hattee ich es ja eh schon direkt in der [mm] $\epsilon$-$\delta$-Formulierung [/mm] verstanden. ^^
Gruß,
Marcel
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:49 Do 24.02.2011 | Autor: | fred97 |
> Hallo Fred,
>
> > Machen wir es mal so (damit wir nah am Werner sind)
> >
> > X und Y seien wieder normierte Räume und [mm](g_v)_{v \in X}[/mm]
> > eine Familie von Funktionen [mm]g_v:\IR \to Y[/mm]
> >
> > Weiter gelte:
> >
> > für jedes [mm]v \in X[/mm] existiere der Grenzwert
> >
> > (*) [mm]L_v:= \limes_{h\rightarrow 0}g_v(h)[/mm]
> >
> > Def.: die Konvergenz in(*) heißt gleichmäßig auf [mm]B_X[/mm] :
> > [mm]\gdw[/mm]
> >
> > zu jedem [mm]\varepsilon>0[/mm] ex. ein [mm]\delta>[/mm] 0 mit:
> > [mm]||L_v-g_v(h)||< \varepsilon[/mm] für [mm]|h|< \delta[/mm] und alle [mm]v \in B_X[/mm].
>
> okay. Ich formuliere es aber dennoch mal anders, einfach
> des Verständnisses wegen:
> Man könnte dann doch auch sagen, dass das, was Werner
> meint, nichts anderes als die gleichgradige Stetigkeit der
> Familie [mm](g_v)_{v \in B_X}[/mm] im Punkte [mm]0\,[/mm] ist. Oder?
Ja , gleichgradige Stetigkeit in h=0
Ich hab Dir übrigends hier
https://www.vorhilfe.de/read?i=773016
noch was geschrieben.
Gruß FRED
>
> Aber vielleicht sollte ich mich auch nicht weiter damit
> rumplagen, denn immerhin hattee ich es ja eh schon direkt
> in der [mm]\epsilon[/mm]-[mm]\delta[/mm]-Formulierung verstanden. ^^
>
> Gruß,
> Marcel
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:04 Do 24.02.2011 | Autor: | Marcel |
Hallo Fred,
> > Hallo Fred,
> >
> > > Machen wir es mal so (damit wir nah am Werner sind)
> > >
> > > X und Y seien wieder normierte Räume und [mm](g_v)_{v \in X}[/mm]
> > > eine Familie von Funktionen [mm]g_v:\IR \to Y[/mm]
> > >
> > > Weiter gelte:
> > >
> > > für jedes [mm]v \in X[/mm] existiere der Grenzwert
> > >
> > > (*) [mm]L_v:= \limes_{h\rightarrow 0}g_v(h)[/mm]
> > >
> > > Def.: die Konvergenz in(*) heißt gleichmäßig auf [mm]B_X[/mm] :
> > > [mm]\gdw[/mm]
> > >
> > > zu jedem [mm]\varepsilon>0[/mm] ex. ein [mm]\delta>[/mm] 0 mit:
> > > [mm]||L_v-g_v(h)||< \varepsilon[/mm] für [mm]|h|< \delta[/mm] und alle [mm]v \in B_X[/mm].
>
> >
> > okay. Ich formuliere es aber dennoch mal anders, einfach
> > des Verständnisses wegen:
> > Man könnte dann doch auch sagen, dass das, was Werner
> > meint, nichts anderes als die gleichgradige Stetigkeit der
> > Familie [mm](g_v)_{v \in B_X}[/mm] im Punkte [mm]0\,[/mm] ist. Oder?
>
> Ja , gleichgradige Stetigkeit in h=0
Okay.
>
> Ich hab Dir übrigends hier
>
> https://www.vorhilfe.de/read?i=773016
>
> noch was geschrieben.
>
> Gruß FRED
Ja stimmt, gut, dass Du das gesehen hast. Da fehlt zwar an einer Stelle ein [mm] $\epsilon$ [/mm] (das sieht aber jeder), aber ich seh' auch meinen Denkfehler. Man muss das ganze bzgl. [mm] $I\,$ [/mm] formulieren, und dann gibt'S auch keine Ausnahmemenge mehr. Es ist dann eigentlich so gut wie vollkommen analog zur Definition der glm. Konvergenz einer Funktionenfolge. Denn die Indexmenge hat dann ja die Rolle "der Variablen der Funktion einer Funktionenfolge". Ich bibn da durcheinandergekommen ^^
Aber alleine der Hinweis, dass ja die Indizes (die $j [mm] \in [/mm] I$) hier eigentlich die Variablen sind, hilft mir nun, das ganze mal vernünftig zu sortieren. Und jetzt blicke ich auch, warum Werner das so "salopp" formuliert hat. Wenn man sich mal klarmacht, weche Variable da welche Rolle einnimmt, ist seine Formulierung eigentlich klar.
Gruß,
Marcel
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:10 Do 24.02.2011 | Autor: | fred97 |
> Hallo Fred,
>
> > > Hallo Fred,
> > >
> > > > Machen wir es mal so (damit wir nah am Werner sind)
> > > >
> > > > X und Y seien wieder normierte Räume und [mm](g_v)_{v \in X}[/mm]
> > > > eine Familie von Funktionen [mm]g_v:\IR \to Y[/mm]
> > > >
> > > > Weiter gelte:
> > > >
> > > > für jedes [mm]v \in X[/mm] existiere der Grenzwert
> > > >
> > > > (*) [mm]L_v:= \limes_{h\rightarrow 0}g_v(h)[/mm]
> > > >
> > > > Def.: die Konvergenz in(*) heißt gleichmäßig auf [mm]B_X[/mm] :
> > > > [mm]\gdw[/mm]
> > > >
> > > > zu jedem [mm]\varepsilon>0[/mm] ex. ein [mm]\delta>[/mm] 0 mit:
> > > > [mm]||L_v-g_v(h)||< \varepsilon[/mm] für [mm]|h|< \delta[/mm] und alle [mm]v \in B_X[/mm].
>
> >
> > >
> > > okay. Ich formuliere es aber dennoch mal anders, einfach
> > > des Verständnisses wegen:
> > > Man könnte dann doch auch sagen, dass das, was
> Werner
> > > meint, nichts anderes als die gleichgradige Stetigkeit der
> > > Familie [mm](g_v)_{v \in B_X}[/mm] im Punkte [mm]0\,[/mm] ist. Oder?
> >
> > Ja , gleichgradige Stetigkeit in h=0
>
> Okay.
>
> >
> > Ich hab Dir übrigends hier
> >
> > https://www.vorhilfe.de/read?i=773016
> >
> > noch was geschrieben.
> >
> > Gruß FRED
>
> Ja stimmt, gut, dass Du das gesehen hast. Da fehlt zwar an
> einer Stelle ein [mm]\epsilon[/mm]
> hab es verbessert.
> (das sieht aber jeder), aber ich
> seh' auch meinen Denkfehler. Man muss das ganze bzgl. [mm]I\,[/mm]
> formulieren, und dann gibt'S auch keine Ausnahmemenge mehr.
> Es ist dann eigentlich so gut wie vollkommen analog zur
> Definition der glm. Konvergenz einer Funktionenfolge. Denn
> die Indexmenge hat dann ja die Rolle "der Variablen der
> Funktion einer Funktionenfolge". Ich bibn da
> durcheinandergekommen ^^
> Aber alleine der Hinweis, dass ja die Indizes (die [mm]j \in I[/mm])
> hier eigentlich die Variablen sind, hilft mir nun, das
> ganze mal vernünftig zu sortieren. Und jetzt blicke ich
> auch, warum Werner das so "salopp" formuliert hat. Wenn man
> sich mal klarmacht, weche Variable da welche Rolle
> einnimmt, ist seine Formulierung eigentlich klar.
Verführerisch ist es schon, wenn man hat [mm] (f_j(x))_{j\in I} [/mm] an [mm] I=\in [/mm] zu denken un j [mm] \to \infty.
[/mm]
FRED
>
> Gruß,
> Marcel
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:21 Do 24.02.2011 | Autor: | Marcel |
Hi Fred,
> Aber alleine der Hinweis, dass ja die Indizes (die [mm]j \in I[/mm])
> > hier eigentlich die Variablen sind, hilft mir nun, das
> > ganze mal vernünftig zu sortieren. Und jetzt blicke ich
> > auch, warum Werner das so "salopp" formuliert hat. Wenn man
> > sich mal klarmacht, weche Variable da welche Rolle
> > einnimmt, ist seine Formulierung eigentlich klar.
>
>
>
>
> Verführerisch ist es schon, wenn man hat [mm](f_j(x))_{j\in I}[/mm]
> an [mm]I=\in[/mm] zu denken un j [mm]\to \infty.[/mm]
ja, es ist auch ein wenig "die Macht der Gewohnheit". Ich hätte mir das ganze halt mal bei etwas mehr Ruhe sauber aufschreiben sollen, anstatt "Schnellschüsse" loszuschießen. Aber trotz der Schnellschüsse bin ich über das Ergebnis der interessanten Diskussion mehr als zufrieden.
Grüße,
Marcel
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 14:47 Do 24.02.2011 | Autor: | fred97 |
> Gefühlsmäßig würde ich sagen, dass das in folgendem
> Sinne zu verstehen ist:
> Eine Familie [mm](f_j)_{j \in I}[/mm] von Funktionen [mm]f_j: A \to B[/mm]
> zwischen metrischen Räumen [mm](A,d_A)[/mm] und [mm](B,d_B)[/mm] heißt glm.
> konvergent in [mm]x_0 \in A\,,[/mm] falls gilt:
> Für alle [mm]\epsilon > 0[/mm] existiert ein
> [mm]\delta=\delta_\epsilon > 0[/mm] und ein [mm]N=N_\epsilon \in \IN[/mm] so,
> dass die Implikation
> [mm]d_A(x,x_0) < \delta \Rightarrow d_B(f_j(x), f_j(x_0))[/mm]
>
> für alle [mm]j \in I \setminus E_\epsilon[/mm] gilt, wobei
> [mm]|E_\epsilon|=N_\epsilon\,[/mm] und [mm]E_\epsilon \subseteq I[/mm] (d.h.
> die Konvergenz geht "in einem gewissen Sinne
> indexunabhängig schnell genug, bis auf eine von [mm]\epsilon > 0[/mm]
> abhängige endliche Indexausnahmemenge, die aber nur vom
> festen [mm]\epsilon > 0[/mm] abhängen darf bzw. bei festem [mm]\epsilon > 0[/mm]
> auch einmal fest gewählt werden kann, aber maximal endlich
> sein darf").
>
> Gibt es diese Definition? Oder ist das, was ich mir da
> zusammengebastelt habe, so weder bekannt noch sinnvoll?
Hallo Marcel,
ich muß meine Zustimmung zu dieser Def. zurücknehmen. Denn so wie Du es def. hast, ist ja der Grenzübergang doch $x [mm] \to x_0$ [/mm] !!! Und nicht bezogen auf die Indexmenge (also im Fall [mm] I=\IN [/mm] hat Deine Def. nichts mit j [mm] \to \infty [/mm] zu tun)
Daher folgende Def.: [mm] (f_j)_{j \in I} [/mm] konvergiert glm. in I für x [mm] \to x_0 [/mm] : [mm] \gdw [/mm]
für alle [mm]\epsilon > 0[/mm] existiert ein [mm]\delta=\delta_\epsilon > 0[/mm] so, dass
[mm]d_A(x,x_0) < \delta \Rightarrow d_B(f_j(x), f_j(x_0))< \varepsilon[/mm] für alle j [mm] \in [/mm] I
Gruß FRED
>
> P.S.
> Kann mir jmd. auch vielleicht nochmal kurz den Wink mit
> dem Zaunpfahl geben, warum Werners Definition der
> Fréchet-Ableitung äquivalent ist mit der "beschränkten,
> stetigen linearen Operator"-Definitionsformulierung?
>
> Gruß,
> Marcel
|
|
|
|