Lineare Unabhängigkeit < Moduln/Vektorraum < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Seien [mm] f_1,...,f_n \in Abb(\IR,\IR) [/mm] und [mm] t_1,...,t_n \in \IR, [/mm] so dass die Vektoren [mm] v_1,...,v_n \in \IR [/mm] mit
[mm] v_j= \vektor{f_j(t_1 \\.\\.\\ f_j(t_n)} [/mm] , j=1,...,n
linare unabhängig sind. Zeige, dass dann auch [mm] f_1,...f_n [/mm] linear unabhängig sind. |
Hallo liebe Forenmitglieder. Ich beobachte schon lange dieses Forum und fande es immer toll, deshalb wollte ich mich euch anschließen. Daher ein allgemeines Hallo meinerseits:).
Ich habe oben stehende Aufgabe zu behandeln und ich bin mir über meinen Lösungsweg unsicher, weil ich gerade erst mit dem Studium angefangen habe und Probleme habe, was Beweisführungen betrifft.
Also mein Lösungsweg dazu lautet:
Seien [mm] f_i [/mm] und [mm] f_m \in Abb(\IR,\IR) [/mm] mit [mm] i\not=m
[/mm]
Angenommen [mm] f_i [/mm] und [mm] f_m [/mm] seien linear abhängig
=> [mm] \exists \lambda \in \IK [/mm] mit [mm] f_i(t_b) [/mm] * [mm] \lambda [/mm] = [mm] f_m(t_b) [/mm] mit b [mm] \in [/mm] (1,...,n)
=> [mm] v_i [/mm] * [mm] \lambda [/mm] = [mm] v_m [/mm] (dies liegt daran, dass die Vektoren eben genau durch deren Einträge [mm] f_j(t_b) [/mm] definiert sind und wenn die Einträge gleich sind, sind auch die Vektoren gleich bzw. linear abhängig)
=> Widerspruch, da die Vektoren [mm] v_j [/mm] lineare unabhängig sind nach Voraussetzung
=> die [mm] f_j [/mm] sind linear unabhängig, damit die Voraussetzung erfüllt ist, dass die [mm] v_j [/mm] linear unabhängig sind.
Was haltet ihr davon?
Liebe Grüße.
PS: Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
|
|
|
|
> Seien [mm]f_1,...,f_n \in Abb(\IR,\IR)[/mm] und [mm]t_1,...,t_n \in \IR,[/mm]
> so dass die Vektoren [mm]v_1,...,v_n \in \IR[/mm] mit
> [mm]v_j= \vektor{f_j(t_1 \\
.\\
.\\
f_j(t_n)}[/mm] , j=1,...,n
> linare unabhängig sind. Zeige, dass dann auch [mm]f_1,...f_n[/mm]
> linear unabhängig sind.
Hallo,
.
> Also mein Lösungsweg dazu lautet:
>
> Seien [mm] $f_i$ [/mm] und [mm] $f_m \in Abb(\IR,\IR)$ [/mm] mit [mm] $i\not=m$
[/mm]
> Angenommen [mm] $f_i$ [/mm] und [mm] $f_m$ [/mm] seien linear abhängig
Hier haben wir gleich ein Problem.
Du möchtest zeigen, daß die gegebenen Funktionen [mm] f_1,...,f_n [/mm] paarweise linear unabhängig sind. Wenn dies der Fall ist, ist es aber noch lange nicht gesagt, daß die n Funktionen linear unabhängig sind!
Ich möchte Dir dies an einem kleinen Beispiel aus dem [mm] \IR^2 [/mm] zeigen:
Schauen wir [mm] v_1:=\vektor{1\\0}, v_2:=\vektor{0\\1}, v_3:=\vektor{1\\1} [/mm] an. Je zwei dieser Vektoren sind linear unabhängig, jedoch gilt [mm] 1*v_1+1*v_2-1*v_3=\vektor{0\\0}. [/mm] Also sind die drei Vektoren linear abhängig.
> Seien [mm] $f_i$ [/mm] und [mm] $f_m \in Abb(\IR,\IR)$ [/mm] mit [mm] $i\not=m$
[/mm]
> Angenommen [mm] $f_i$ [/mm] und [mm] $f_m$ [/mm] seien linear abhängig
> => [mm]\exists \lambda \in \IK[/mm] mit [mm]f_i(t_b)[/mm] * [mm]\lambda[/mm] =
> [mm]f_m(t_b)[/mm] mit b [mm]\in[/mm] (1,...,n)
Aus der Unabhängigkeit von [mm] f_i [/mm] und [mm] f_m [/mm] folgt zunächst:
es gibt ein [mm] \lambda \in [/mm] K mit [mm] \lambda*f_i=f_m,
[/mm]
dh.
für alle [mm] x\in \IR [/mm] gilt [mm] (\lambda f_i)(x)=f_m(x) [/mm] <==> [mm] \lambda f_i(x)=f_m(x).
[/mm]
Hieraus folgt nun., daß dies insbesondere auch für [mm] x=t_b, [/mm] b=1,...,n gilt,
also das, was Du schreibst:
es ist [mm] \lambda f_i(t_b)=f_m(t_b) [/mm] für alle [mm] b\in \. {1,...,n\}.
[/mm]
Ich finde es wichtig, sich den Weg bis zu dieser Zeile mal genau klarzumachen.
Damit haben wir [mm] \vektor{\lambda f_i(t_1)\\\vdots\\\lambda f_i(t_n)}=\vektor{f_m(t_1)\\\vdots\\f_m(t_n)} [/mm] <==> [mm] \lambda*v_i=\v_m.
[/mm]
Zu diesem Ergebnis kommst Du ja auch, und der Schluß, daß [mm] f_i [/mm] und [mm] f_m [/mm] also linear unabhängig sein müssen, stimmt.
Aber: s.o.
Wenn Du die lineare Unabhängigkeit von [mm] f_1,..., f_n [/mm] nachweisen möchtest,
mußt Du irgendwie zeigen, daß aus
[mm] \lambda_1f_1+...+\lambda f_n=Nullfunktion [/mm] folgt, daß [mm] \lambda_1=...=\lambda_n=0.
[/mm]
Am besten durchdenkst Du dies mal und startest dann einen Versuch.
Ich bin recht optimistisch, daß es Dir gelingen wird.
Gruß v. Angela
> => [mm]v_i[/mm] * [mm]\lambda[/mm] = [mm]v_m[/mm] (dies liegt daran, dass die
> Vektoren eben genau durch deren Einträge [mm]f_j(t_b)[/mm]
> definiert sind und wenn die Einträge gleich sind, sind
> auch die Vektoren gleich bzw. linear abhängig)
> => Widerspruch, da die Vektoren [mm]v_j[/mm] lineare unabhängig
> sind nach Voraussetzung
> => die [mm]f_j[/mm] sind linear unabhängig, damit die
> Voraussetzung erfüllt ist, dass die [mm]v_j[/mm] linear unabhängig
> sind.
>
> Was haltet ihr davon?
>
> Liebe Grüße.
>
> PS: Ich habe diese Frage in keinem Forum auf anderen
> Internetseiten gestellt.
>
|
|
|
|
|
Also ich habe mir jetzt folgendes überlegt:
Laut der Voraussetzung [mm] (v_j [/mm] sind linear unabhängig) gilt:
[mm] \exists \lambda_i \in\ \IR [/mm] mit i=1,2,..,n , so dass
[mm] \lambda_1 v_1 [/mm] + [mm] \lambda_2 v_2 [/mm] + ... + [mm] \lambda_n v_n [/mm] = 0
[mm] \Rightarrow \lambda_1 [/mm] = [mm] \lambda_2 [/mm] = ... = [mm] \lambda_n [/mm] = 0 (*)
<==> [mm] \lambda_1 \vektor{f_1(t_1) \\.\\.\\.\\ f_1(t_n)} [/mm] + [mm] \lambda_2 \vektor{f_2(t_1) \\.\\.\\.\\ f_2(t_n)} [/mm] + ... + [mm] \lambda_n \vektor{f_n(t_1) \\.\\.\\.\\ f_n(t_n)} [/mm] = 0 [mm] \Rightarrow \lambda_1 [/mm] = [mm] \lambda_2 [/mm] =...= [mm] \lambda_n [/mm] = 0
<==> [mm] \vektor{\lambda_1 f_1(t_1) \\.\\.\\.\\ \lambda_1 f_1(t_n)} [/mm] + [mm] \vektor{\lambda_2 f_2(t_1) \\.\\.\\.\\ \lambda_2 f_2(t_n)} [/mm] + ... + [mm] \vektor{\lambda_n f_n(t_1) \\.\\.\\.\\ \lambda_nf_n(t_n)} [/mm] = 0 = [mm] \vektor{0 \\ 0 \\.\\.\\0}
[/mm]
[mm] \Rightarrow [/mm] ? [mm] \vektor{\lambda_1 f_1\\.\\.\\.\\ \lambda_1 f_1} [/mm] + [mm] \vektor{\lambda_2 f_2 \\.\\.\\.\\ \lambda_2 f_2 } [/mm] + ... + [mm] \vektor{\lambda_n f_n \\.\\.\\.\\ \lambda_nf_n} [/mm] = 0 = [mm] \vektor{0 \\ 0 \\.\\.\\0}
[/mm]
[mm] \Rightarrow \lambda_1 f_1 [/mm] + [mm] \lambda_2 f_2 [/mm] + ... + [mm] \lambda_n f_n [/mm] = 0
und nach (*) gilt:
[mm] \lambda_1 [/mm] = [mm] \lambda_2 [/mm] = ... = [mm] \lambda_n [/mm] = 0 wodurch die lineare Unabhängigkeit der [mm] f_j [/mm] gezeigt wäre.
Stutzig macht mich jetzt, dass ich nur umgeformt habe. Genauso bin ich mir nicht sicher bei dem Schritt, wo ich [mm] \Rightarrow [/mm] ? geschrieben habe, ob dieser richtig ist.
Würde mich über eine erneute Rückmeldung freuen.
Liebe Grüße,
euer Roughi
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 17:47 Sa 19.11.2011 | Autor: | RoughNeck |
Entschuldigt bitte, ich kenne mich noch nicht in dem Forum aus. Meine Mitteilung eben sollte eine Frage sein und ich finde nicht, wo ich dies ändern kann. Deshalb dieser Beitrag. Wie gesagt, entschuldigt bitte.
Liebe Grüße.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:49 Sa 19.11.2011 | Autor: | MathePower |
Hallo Roughneck,
> Entschuldigt bitte, ich kenne mich noch nicht in dem Forum
> aus. Meine Mitteilung eben sollte eine Frage sein und ich
> finde nicht, wo ich dies ändern kann. Deshalb dieser
> Beitrag. Wie gesagt, entschuldigt bitte.
>
Ich habe Deine vorige Mitteilung in eine Frage umgewandelt.
Ändern kannst Du das, wenn Du selbst auf Deine eigene Mitteilung reagierst.
> Liebe Grüße.
Gruss
MathePower
|
|
|
|
|
Hallo!
> Also ich habe mir jetzt folgendes überlegt:
>
> Laut der Voraussetzung [mm](v_j[/mm] sind linear unabhängig) gilt:
> [mm]\exists \lambda_i \in\ \IR[/mm] mit i=1,2,..,n , so dass
> [mm]\lambda_1 v_1[/mm] + [mm]\lambda_2 v_2[/mm] + ... + [mm]\lambda_n v_n[/mm] = 0
> [mm]\Rightarrow \lambda_1[/mm] = [mm]\lambda_2[/mm] = ... = [mm]\lambda_n[/mm] = 0
> (*)
>
> <==> [mm]\lambda_1 \vektor{f_1(t_1) \\
.\\
.\\
.\\
f_1(t_n)}[/mm] + [mm]\lambda_2 \vektor{f_2(t_1) \\
.\\
.\\
.\\
f_2(t_n)}[/mm] + ... + [mm]\lambda_n \vektor{f_n(t_1) \\
.\\
.\\
.\\
f_n(t_n)}[/mm] = 0
> [mm]\Rightarrow \lambda_1[/mm] = [mm]\lambda_2[/mm] =...= [mm]\lambda_n[/mm] = 0
> <==> [mm]\vektor{\lambda_1 f_1(t_1) \\
.\\
.\\
.\\
\lambda_1 f_1(t_n)}[/mm] + [mm]\vektor{\lambda_2 f_2(t_1) \\
.\\
.\\
.\\
\lambda_2 f_2(t_n)}[/mm] + ... + [mm]\vektor{\lambda_n f_n(t_1) \\
.\\
.\\
.\\
\lambda_nf_n(t_n)}[/mm] = 0 = [mm]\vektor{0 \\
0 \\
.\\
.\\
0}[/mm]
>
> [mm]\Rightarrow[/mm] ? [mm]\vektor{\lambda_1 f_1\\
.\\
.\\
.\\
\lambda_1 f_1}[/mm] + [mm]\vektor{\lambda_2 f_2 \\
.\\
.\\
.\\
\lambda_2 f_2 }[/mm] + ... + [mm]\vektor{\lambda_n f_n \\
.\\
.\\
.\\
\lambda_nf_n}[/mm] = 0 = [mm]\vektor{0 \\
0 \\
.\\
.\\
0}[/mm]
Nein, dieser Schluß stimmt nicht.
Wenn die Funktion [mm] f_1(t_i)+...+f_n(t_i)=0 [/mm] ist an den n Stellen [mm] t_1,...,t_n, [/mm] dann ist [mm] f_1+...+f_n [/mm] noch lange nicht die Nullfunktion, also die Funktion, deren Funktionswert an jeder Stelle =0 ist.
Zäume das Pferd von der anderen Seite auf:
es seien [mm] \mu_i\in \IR [/mm] so, daß
[mm] \mu_1f_1+...+\mu_nf_n=Nullfunktion
[/mm]
(Nun mußt Du zeigen, wie hieraus folgt, daß die [mm] \mu_i [/mm] alle =0 sind.)
Wenn das die Nullfunktion ist, ist ihr Funktionswert an jeder Stelle =0
Für alle [mm] x\in \IR [/mm] gilt also
[mm] (\mu_1f_1+...+\mu_nf_n)(x)=0
[/mm]
<==> [mm] \mu_1f(x)+ [/mm] ...
Wenn dies für alle x gilt, gilt es insbesondere auch für [mm] t_1,...,t_n.
[/mm]
Also gilt:
1. ...
2. ...
3. ...
[mm] \vdots
[/mm]
n. ...
Und nun mach weiter.
Gruß v. Angela
|
|
|
|
|
Aber was ziehst du den dann aus der Vorraussetzung?
Weil über:
> es seien $ [mm] \mu_i\in \IR [/mm] $ so, daß
> $ [mm] \mu_1f_1+...+\mu_nf_n=Nullfunktion [/mm] $
Kann man ja keine Aussage machen, da es zu beweisen gilt.
Ich beschäftige mich auch derzeit mit dieser Aufgabe und
habe auch wie oben versucht Schlüsse aus der Vorrausetzung zu
ziehen.
mfg
oktollber
|
|
|
|
|
> Aber was ziehst du den dann aus der Vorraussetzung?
>
> Weil über:
>
> > es seien [mm]\mu_i\in \IR[/mm] so, daß
> > [mm]\mu_1f_1+...+\mu_nf_n=Nullfunktion[/mm]
> Kann man ja keine Aussage machen, da es zu beweisen gilt.
Hallo,
es ist doch so:
genau dann sind [mm] f_1,...,f_n [/mm] linear unabhängig, wenn aus [mm]\mu_1f_1+...+\mu_nf_n=Nullfunktion[/mm] folgt, daß die [mm] \mu_i [/mm] alle =0 sind.
Du mußt also jetzt aus [mm]\mu_1f_1+...+\mu_nf_n=Nullfunktion[/mm] "irgendwie" folgern, daß es nicht anders sein kann, als daß die [mm] \mu_i=0 [/mm] sind.
Die wesentlichen Dinge dazu habe ich im Thread hier bereits erklärt, glaube ich.
Aber auf die gefahr hin, mich zu wiederholen:
In [mm]\mu_1f_1+...+\mu_nf_n=Nullfunktion[/mm] hast Du links eine Funktion, nämlich [mm]\mu_1f_1+...+\mu_nf_n[/mm], und rechts die Nullfunktion.
Wann sind zwei Funktionen gleich? Wenn sie an jeder Stelle des Definitionsbereiches übereinstimmen.
Also folgt: für alle [mm] x\in\IR [/mm] gilt ....
Wenn dies so gilt, gilt es insbesondere für [mm] x=t_i, [/mm] i=1,2,...,n.
Also folgen die Gleichungen
1. ...
2. ...
[mm] \vdots
[/mm]
n. ...
Nun stell den Zusammenhang zu der Voraussetzung Deiner Aufgabe her.
Gruß v. Angela
>
> Ich beschäftige mich auch derzeit mit dieser Aufgabe und
> habe auch wie oben versucht Schlüsse aus der
> Vorrausetzung zu
> ziehen.
>
> mfg
> oktollber
|
|
|
|
|
Hallo,
[mm] \mu_1f_1+...+\mu_nf_n=Nullfunktion [/mm] punktweise betrachtet
mit x [mm] \in \IR [/mm] kann man ja folgendes sagen.
[mm] (\mu_1f_1+...+\mu_nf_n)(x)=Nullfunktion(x)
[/mm]
<=>
[mm] \mu_1f_1(x) [/mm] = 0
[mm] \mu_2f_2(x) [/mm] = 0
[mm] \mu_3f_3(x) [/mm] = 0
[mm] \mu_nf_n(x) [/mm] = 0
<=>
[mm] \sum_{i=1}^n \mu_i f_i(x) [/mm] = 0
<=> Da es für alle x [mm] \in \IR [/mm] gilt, gilt es auch für [mm] t_1,...,t_n
[/mm]
[mm] v_j [/mm] = [mm] \pmat{ f_{j}(t_{1}) \\ \vdots \\ f_{j}(t_{n}) }
[/mm]
Stimmt das so?
|
|
|
|
|
> Hallo,
>
> [mm]\mu_1f_1+...+\mu_nf_n=Nullfunktion[/mm] punktweise betrachtet
> mit für alle x [mm]\in \IR[/mm] kann man ja folgendes sagen.
> [mm](\mu_1f_1+...+\mu_nf_n)(x)=Nullfunktion(x)[/mm]
Hallo,
das bedeutet, daß folgt
[mm] (\mu_1f_1)(x)+...+(\mu_nf_n)(x)=0
[/mm]
<==> [mm] \mu_1f_1(x)+...+\mu_nf_n(x)=0
[/mm]
>
> <=>
>
> [mm]\mu_1f_1(x)[/mm] = 0
> [mm]\mu_2f_2(x)[/mm] = 0
> [mm]\mu_3f_3(x)[/mm] = 0
> [mm]\mu_nf_n(x)[/mm] = 0
Nein, dieser Schluß stimmt nicht.
Wenn eine Summe 0 ergibt, ist doch nicht jeder einzelne Summan zwingend =0.
Ich hatte doch gesagt, wie Du weitermachen kannst:
da [mm] \mu_1f_1(x)+...+\mu_nf_n(x)=0 [/mm] für alle [mm] x\in \IR [/mm] gilt, gilt es insbesondere für [mm] x=t_1, x=t_2,...,x=t_n.
[/mm]
Dies liefert Dir n Gleichungen, mit denen Du Dich dann der Voraussetzung der Aufgabe nähern kannst.
Gruß v. Angela
>
> <=>
>
> [mm]\sum_{i=1}^n \mu_i f_i(x)[/mm] = 0
>
> <=> Da es für alle x [mm]\in \IR[/mm] gilt, gilt es auch für
> [mm]t_1,...,t_n[/mm]
>
> [mm]v_j[/mm] = [mm]\pmat{ f_{j}(t_{1}) \\
\vdots \\
f_{j}(t_{n}) }[/mm]
>
> Stimmt das so?
>
|
|
|
|
|
Hallo,
1. [mm] \mu_1f_1(t_1)+...+\mu_1f_1(t_n)=0 [/mm]
2. [mm] \mu_2f_2(t_1)+...+\mu_2f_2(t_n)=0 [/mm]
3. [mm] \mu_3f_3(t_1)+...+\mu_3f_3(t_n)=0 [/mm]
...
j. [mm] \mu_jf_j(t_1)+...+\mu_jf_j(t_n)=0 [/mm]
<=> Das sind jetzt Linearkombinationen der Vektoren [mm] v_1,...,v_j
[/mm]
Diese kann ich dann mit dem Summenzeichen zusammenfassen
und dann habe ich die Vorrausetzung, oder?
Aber es müssen überall Äquivalenzpfeile stehen, weil der Beweis ja in beide Richtungen gilt?
mfg
oktollber
PS: Sorry, für die vielen Fragen, aber ich tue mir schwer mit der Abstraktion von Vektoren mit Funktionen als Werten.
|
|
|
|
|
Hallo!
>
> 1. [mm]\mu_1f_1(t_1)+...+\mu_1f_1(t_n)=0[/mm]
Wo - heiliger Strohsack! - kommen denn diese Gleichung und ihre Kollegen her?
Welche Gleichung stand zuvor da? Was bekommst Du, wenn Du [mm] x=t_1 [/mm] einsetzt?
(Arbeite sorgfältiger!)
> 2. [mm]\mu_2f_2(t_1)+...+\mu_2f_2(t_n)=0[/mm]
> 3. [mm]\mu_3f_3(t_1)+...+\mu_3f_3(t_n)=0[/mm]
> ...
> j. [mm]\mu_jf_j(t_1)+...+\mu_jf_j(t_n)=0[/mm]
>
> <=> Das sind jetzt Linearkombinationen der Vektoren
> [mm]v_1,...,v_j[/mm]
Seh ich nicht...
>
> Diese kann ich dann mit dem Summenzeichen zusammenfassen
> und dann habe ich die Vorrausetzung, oder?
>
> Aber es müssen überall Äquivalenzpfeile stehen,
Ich weiß nicht, was Du mit "überall" meinst.
> weil der
> Beweis ja in beide Richtungen gilt?
Prinzipiell ist bei diesem Beweis aber nur eine Richtung gefordert, nämlich [mm] (v_1,...,v_n [/mm] linear unabhängig) ==> [mm] (f_1,...,f_n [/mm] linear unabhängig)
Die umgekehrte Richtung müßte man auch erstmal gescheit formulieren, und dann darüber nachdenken. Ist hier aber nicht verlangt.
> PS: Sorry, für die vielen Fragen,
Für Fragen ist das Forum da, und wenn sie mit Eigenaktivität der Fragenden verbunden sind, ist alles okay für uns. Besser Fehler machen als nichts zu tun!
Gruß v. Angela
> aber ich tue mir schwer
> mit der Abstraktion von Vektoren mit Funktionen als
> Werten.
>
|
|
|
|
|
Hallo,
die sollten aus dem hier folgen
$ [mm] (\mu_1f_1+...+\mu_jf_j)(x)=Nullfunktion(x) [/mm] $
Aber ich habe gerade den Indexfehler gefunden.
Also nochmal von neu:
1. $ [mm] \mu_1f_1(x_1)+...+\mu_jf_j(x_1)=0 [/mm] $
2. $ [mm] \mu_1f_1(x_2)+...+\mu_jf_j(x_2)=0 [/mm] $
3. $ [mm] \mu_1f_1(x_3)+...+\mu_jf_j(x_3)=0 [/mm] $
...
j. $ [mm] \mu_1f_1(x_n)+...+\mu_jf_j(x_n)=0 [/mm] $
<=> Wenn es für alle x gilt, gilt es auch speziel für [mm] t_1,...,t_n
[/mm]
1. $ [mm] \mu_1f_1(t_1)+...+\mu_jf_j(t_1)=0 [/mm] $
2. $ [mm] \mu_1f_1(t_2)+...+\mu_jf_j(t_2)=0 [/mm] $
3. $ [mm] \mu_1f_1(t_3)+...+\mu_jf_j(t_3)=0 [/mm] $
...
j. $ [mm] \mu_1f_1(t_n)+...+\mu_jf_j(t_n)=0 [/mm] $
Das könnt man jetzt zu einer Summeformel umschreiben.
1. [mm] \summe_{j=1}^{n}\mu_jf_j(t_1)=0
[/mm]
2. [mm] \summe_{j=1}^{n}\mu_jf_j(t_2)=0
[/mm]
3. [mm] \summe_{j=1}^{n}\mu_jf_j(t_3)=0
[/mm]
...
n. [mm] \summe_{j=1}^{n}\mu_jf_j(t_n)=0
[/mm]
Kann man daraus folgern:
[mm] \summe_{j=1}^{n}\mu_jf_j=0
[/mm]
[mm] \mu_1,...,\mu_j [/mm] sind ja immernoch 0
Dann wäre das die Lineare Unabhängigkeit, die zu beweisen wäre?
|
|
|
|
|
Hallo,
> die sollten aus dem hier folgen
für alle [mm] x\in \IR [/mm] gilt
> [mm](\mu_1f_1+...+\mu_\red{n}f_\red{n})(x)=Nullfunktion(x)[/mm]
> Aber ich habe gerade den Indexfehler gefunden.
Gut:
>
> Also nochmal von neu:
>
Streichen:
> 1. [mm]\mu_1f_1(x_1)+...+\mu_\red{n}f_\red{n}(x_1)=0[/mm]
> 2. [mm]\mu_1f_1(x_2)+...+\mu_\red{n}f_\red{n}(x_2)=0[/mm]
> 3. [mm]\mu_1f_1(x_3)+...+\mu_\red{n}f_\red{n}(x_3)=0[/mm]
> ...
> j. [mm]\mu_1f_1(x_n)+...+\mu_\red{n}f_\red{n}(x_n)=0[/mm]
>
> <=> Wenn es für alle x gilt, gilt es auch speziel für
> [mm]t_1,...,t_n[/mm]
Das stimmt.
Aber hier ist eine Stelle, an welcher der Äquivalenzpfeil absolut fehl am Platze ist:
"wenn es für alle x gilt, gilt es für [mm] t_1,...,t_n [/mm] " ist richtig.
"Wenn es für [mm] t_1,...,t_n [/mm] gilt, gilt es für alle x" ist falsch!
>
> 1. [mm]\mu_1f_1(t_1)+...+\mu_\red{n}f_\red{n}(t_1)=0[/mm]
> 2. [mm]\mu_1f_1(t_2)+...+\mu_\red{n}f_\red{n}(t_2)=0[/mm]
> 3. [mm]\mu_1f_1(t_3)+...+\mu_\red{n}f_\red{n}(t_3)=0[/mm]
> ...
> [mm] \red{n}.[/mm] [mm]\mu_1f_1(t_n)+...+\mu_\red{n}f_\red{n}(t_n)=0[/mm]
>
> Das könnt man jetzt zu einer Summeformel umschreiben.
>
> 1. [mm]\summe_{j=1}^{n}\mu_jf_j(t_1)=0[/mm]
> 2. [mm]\summe_{j=1}^{n}\mu_jf_j(t_2)=0[/mm]
> 3. [mm]\summe_{j=1}^{n}\mu_jf_j(t_3)=0[/mm]
> ...
> n. [mm]\summe_{j=1}^{n}\mu_jf_j(t_n)=0[/mm]
>
> Kann man daraus folgern:
>
> [mm]\summe_{j=1}^{n}\mu_jf_j=0[/mm]
Nein.
Wenn eine Funktion an n Stellen =0 ist, ist es noch lange nicht die Nullfunktion.
Aber unser Ansatz war doch auch genau andersrum: wir haben gesagt, es sei [mm] $\summe_{j=1}^{n}\mu_jf_j=0$.
[/mm]
Daraus folgten die obigen n Gleichungen.
> [mm]\mu_1,...,\mu_j[/mm] sind ja immernoch 0
Die waren bisher nie =0. Wir wollen von ihnen doch erst zeigen, daß sie zwangsläufig =0 sein müssen.
> Dann wäre das die Lineare Unabhängigkeit, die zu
> beweisen wäre?
(Zur Erinnerung: wir wollen zeigen, daß aus [mm] \summe_{j=1}^{n}\mu_jf_j=0 [/mm] folgt, daß [mm] \mu_1=...=\mu_n=0. [/mm] Damit hätten wir die lineare Unabhängigkeit der [mm] f_1,..,f_n [/mm] gezeigt.)
Schau zurück zu dem Gleichungssystem mit den n Gleichungen.
Ich kann dies auch vektoriell schreiben:
[mm] \vektor{\mu_1f_1(t_1)+...+\mu_\red{n}f_\red{n}(t_1)\\\mu_1f_1(t_2)+...+\mu_\red{n}f_\red{n}(t_2\\\vdots\\\mu_1f_1(t_n)+...+\mu_\red{n}f_\red{n}(t_n)}=\vektor{0\\0\\\vdots\\0}
[/mm]
<==>
[mm] \mu_1*\vektor{...\\\vdots\\...}+\mu_2*\vektor{...\\\vdots\\...}+...+\mu_n*\vektor{...\\\vdots\\...}=\vektor{0\\\vdots\\0}.
[/mm]
Stelle jetzt den Zusammenhang zu den [mm] v_i [/mm] her und folgere, was zu folgern ist.
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) reagiert/warte auf Reaktion | Datum: | 12:30 Mo 21.11.2011 | Autor: | oktollber |
Hallo,
ja, dazu kann ich ja sagen, wie in meinem anderen Beitrag schon.
Die Gleichung ist erfüllt, wenn [mm] \mu_1,...,\mu_n [/mm] = 0 oder alle f die Nullfunktionen sind. (oder setzt die Aufgabenstellung stillschweigend
vorraus, dass die Funktionen nicht alle die Nullfunktion sein können?)
mfg
oktollber
|
|
|
|
|
> Hallo,
>
> ja, dazu kann ich ja sagen, wie in meinem anderen Beitrag
> schon.
>
> Die Gleichung ist erfüllt, wenn [mm]\mu_1,...,\mu_n[/mm] = 0 oder
> alle f die Nullfunktionen sind.
Hallo,
ich weiß überhaupt nicht, von welcher Gleichung Du gerade redest.
Außerdem habe ich den Eindruck, daß Du Dich nicht engehend mit dem, was ich geschrieben habe, auseinandergesetzt hast.
Ich sehe nicht, wie Du den Zusammenhang zu den [mm] v_i [/mm] hergestellt hast.
> (oder setzt die
> Aufgabenstellung stillschweigend
> vorraus, dass die Funktionen nicht alle die Nullfunktion
> sein können?)
Stillschweigend vorausgesetzt wird hier nichts. Vorausgesetzt wird das, was in der Aufgabenstellung als voraussetzung steht: die lineare Unabhängigkeit von [mm] v_1,...,v_n.
[/mm]
Und genau diese muß man im Verlauf des Beweises natürlich irgendwo einbringen. Wo, das habe ich ja gesagt.
Gruß v. Angela
P.S.: Ich bin dann mal weg. Nur daß Du Dich nicht wunderst, daß ich nicht mehr antworte.
>
> mfg
> oktollber
>
>
|
|
|
|
|
Hallo,
> Hallo,
>
> ja, dazu kann ich ja sagen, wie in meinem anderen Beitrag
> schon.
>
> Die Gleichung ist erfüllt, wenn $ [mm] \mu_1,...,\mu_n [/mm] $ = 0 oder
> alle f die Nullfunktionen sind.
Bezieht sich natürlich auf die von ihnen zu letzt geschriebene Gleichung.
$ [mm] \vektor{\mu_1f_1(t_1)+...+\mu_\red{n}f_\red{n}(t_1)\\\mu_1f_1(t_2)+...+\mu_\red{n}f_\red{n}(t_2\\\vdots\\\mu_1f_1(t_n)+...+\mu_\red{n}f_\red{n}(t_n)}=\vektor{0\\0\\\vdots\\0} [/mm] $
<==>
$ [mm] \mu_1\cdot{}\vektor{...\\\vdots\\...}+\mu_2\cdot{}\vektor{...\\\vdots\\...}+...+\mu_n\cdot{}\vektor{...\\\vdots\\...}=\vektor{0\\\vdots\\0}. [/mm] $
Mit bezug auf [mm] v_j [/mm] steht dort dann:
$ [mm] \mu_1\cdot{}\vektor{f_1(t_1)\\\vdots\\f_1(t_n)}+\mu_2\cdot{}\vektor{f_2(t_1)\\\vdots\\f_2(t_n)}+...+\mu_n\cdot{}\vektor{f_n(t_1)\\\vdots\\f_n(t_n)}=\vektor{0\\\vdots\\0}. [/mm] $
Es gilt aber [mm] v_1 [/mm] = [mm] \vektor{f_1(t_1)\\\vdots\\f_1(t_n)}, v_2 [/mm] = [mm] \vektor{f_2(t_1)\\\vdots\\f_2(t_n)}, v_n [/mm] = [mm] \vektor{f_n(t_1)\\\vdots\\f_n(t_n)}
[/mm]
=> [mm] \mu_1v_1 [/mm] + [mm] \mu_2v_2 [/mm] + ... + [mm] \mu_nv_n [/mm] = 0
=> Vorrausetzung [mm] v_1,...,v_n [/mm] sind linear unabhängig.
Deshalb folgt: [mm] \mu_1,...,\mu_n [/mm] sind 0?
|
|
|
|
|
Hallo,
ja, genau!
Gruß v. Angela
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 14:59 Di 22.11.2011 | Autor: | RoughNeck |
Naja, dann brauch ich ja nichts mehr dazu schreiben^^.
Vielen Dank Angela!!:) Echt super und
@ octollber. Schick mir bitte mal ne Email an fayeee1@web.de
Liebe Grüße,
euer Roughi> Hallo,
|
|
|
|