Lineare Unabhängigkeit zeigen < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Sei [mm]A[/mm] eine [mm]nxn[/mm]-Matrix und [mm]\lambda[/mm] ein Eigenwert von [mm]A[/mm]. Sei [mm]v_1,...,v_r[/mm] Eigenvektoren von [mm]A[/mm] zum Eigenwert [mm]\lambda[/mm], welche linear unabhängig sind.
Seien für jedes [mm]1 \leq i \leq r[/mm] eine Folge [mm]v_i = u_i^{(0)},u_1^{(1)},...,u_i^{(k_i)}[/mm] mit [mm]k_i \in \IN[/mm] gegeben, sodass für alle [mm]1 \leq s \leq k_i[/mm] gilt: [mm](A-\lambda*E_n)u_i^{(s)} = u_i^{(s-1)}[/mm],
d. h. für jedes [mm]1 \leq s \leq k_i[/mm] ist der Vektor [mm]u_i^{(s)}[/mm] ein Urbild des Vektors [mm]u_i^{(s-1)}[/mm] unter der Abbildung [mm]x \mapsto (A-\lambda*E_n)x[/mm].
Zeigen Sie:
Die Vektoren [mm]u_1^{(0)},u_1^{(1)},...,u_1^{(k_1)},u_2^{(0)},u_2^{(1)},...,u_2^{(k_2)},...,u_r^{(0)},u_r^{(1)},...,u_i^{(k_r)}[/mm] sind linear unabhängig.
Tipp: Untersuchen Sie zuerst den Spezialfall [mm]r=2, k_1=1, k_2=1[/mm] |
Hallo zusammen,
ich finde bei dieser Aufgabe leider keinen richtigen Anfang – ich weiß einfach nicht, wie ich das hier das geforderte zeigen soll.
Den Tipp aus der Aufgabe habe ich natürlich erst einmal dankbar aufgenommen.
Das heißt also:
[mm]r = 2, k_1 = 1, k_2 = 1[/mm]
[mm]v_1 = u_1^{(0)}, u_1^{(1)}[/mm] , [mm]v_2 = u_2^{(0)}, u_2^{(1)}[/mm]
[mm](A-\lambda*E_n)u_1^{(1)} = u_1^{(0)}[/mm] , [mm](A-\lambda*E_n)u_1^{(2)} = u_1^{(1)}[/mm]
[mm](A-\lambda*E_n)u_2^{(1)} = u_2^{(0)}[/mm] , [mm](A-\lambda*E_n)u_2^{(2)} = u_2^{(1)}[/mm]
Jetzt ist also zu zeigen, dass [mm]u_1^{(0)}, u_1^{(1)}, u_2^{(0)}, u_2^{(1)}[/mm] linear unabhängig sind.
Nun weiß ich ja, dass die Eigenvektoren [mm]v_1, v_2[/mm] linear unabhängig sind. Und diese Eigenvektoren sind hier als Folge definiert. Was sagt das jetzt über die einzelnen Folgenglieder aus?
Ich würde mich freuen, wenn Ihr mir hier auf die Sprünge helfen könntet.
Viele Grüße
Patrick
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 01:55 So 19.05.2013 | Autor: | tobit09 |
Hallo Patrick,
> ich finde bei dieser Aufgabe leider keinen richtigen Anfang
> – ich weiß einfach nicht, wie ich das hier das
> geforderte zeigen soll.
>
> Den Tipp aus der Aufgabe habe ich natürlich erst einmal
> dankbar aufgenommen.
> Das heißt also:
>
> [mm]r = 2, k_1 = 1, k_2 = 1[/mm]
>
> [mm]v_1 = u_1^{(0)}, u_1^{(1)}[/mm] , [mm]v_2 = u_2^{(0)}, u_2^{(1)}[/mm]
>
> [mm](A-\lambda*E_n)u_1^{(1)} = u_1^{(0)}[/mm] , [mm](A-\lambda*E_n)u_1^{(2)} = u_1^{(1)}[/mm]
>
> [mm](A-\lambda*E_n)u_2^{(1)} = u_2^{(0)}[/mm]
> , [mm](A-\lambda*E_n)u_2^{(2)} = u_2^{(1)}[/mm]
>
> Jetzt ist also zu zeigen, dass [mm]u_1^{(0)}, u_1^{(1)}, u_2^{(0)}, u_2^{(1)}[/mm] linear
> unabhängig sind.
Alles korrekt!
Arbeite mit der Definition der linearen Unabhängigkeit:
Gelte
(*) [mm] $\mu_1^{(0)}u_1^{(0)}+\mu_1^{(1)}u_1^{(1)}+\mu_2^{(0)}u_2^{(0)}+\mu_2^{(1)}u_2^{(1)}=0$
[/mm]
für gewisse Skalare [mm] $\mu_1^{(0)}, \mu_1^{(1)}, \mu_2^{(0)}, \mu_2^{(1)}$.
[/mm]
Zu zeigen ist [mm] $\mu_1^{(0)}=\mu_1^{(1)}=\mu_2^{(0)}=\mu_2^{(1)}=0$.
[/mm]
Lasse dazu mal den Endomorphismus [mm] $A-\lambda E_n$ [/mm] auf die Gleichung (*) los.
Viele Grüße
Tobias
|
|
|
|
|
Hallo Tobias,
danke für Deine Antwort.
> Arbeite mit der Definition der linearen Unabhängigkeit:
>
> Gelte
>
> (*)
> [mm]\mu_1^{(0)}u_1^{(0)}+\mu_1^{(1)}u_1^{(1)}+\mu_2^{(0)}u_2^{(0)}+\mu_2^{(1)}u_2^{(1)}=0[/mm]
>
> für gewisse Skalare [mm]\mu_1^{(0)}, \mu_1^{(1)}, \mu_2^{(0)}, \mu_2^{(1)}[/mm].
>
> Zu zeigen ist
> [mm]\mu_1^{(0)}=\mu_1^{(1)}=\mu_2^{(0)}=\mu_2^{(1)}=0[/mm].
>
>
> Lasse dazu mal den Endomorphismus [mm]A-\lambda E_n[/mm] auf die
> Gleichung (*) los.
Dann habe ich da
[mm]\mu_1^{(0)}(A-\lambda E_n)u_1^{(1)} + \mu_1^{(1)}(A-\lambda E_n)u_1^{(2)} + \mu_2^{(0)}(A-\lambda E_n)u_2^{(1)} + \mu_2^{(1)}(A-\lambda E_n)u_2^{(2)} = 0[/mm]
stehen.
Wobei sich der Endomorphismus jetzt (n-1)-mal erneut auf die Gleichung anwenden lässt.
Aber wohin soll das führen?
Viele Grüße
Patrick
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 15:22 So 19.05.2013 | Autor: | tobit09 |
> > Arbeite mit der Definition der linearen Unabhängigkeit:
> >
> > Gelte
> >
> > (*)
> >
> [mm]\mu_1^{(0)}u_1^{(0)}+\mu_1^{(1)}u_1^{(1)}+\mu_2^{(0)}u_2^{(0)}+\mu_2^{(1)}u_2^{(1)}=0[/mm]
> >
> > für gewisse Skalare [mm]\mu_1^{(0)}, \mu_1^{(1)}, \mu_2^{(0)}, \mu_2^{(1)}[/mm].
>
> >
> > Zu zeigen ist
> > [mm]\mu_1^{(0)}=\mu_1^{(1)}=\mu_2^{(0)}=\mu_2^{(1)}=0[/mm].
> >
> >
> > Lasse dazu mal den Endomorphismus [mm]A-\lambda E_n[/mm] auf die
> > Gleichung (*) los.
>
> Dann habe ich da
> [mm]\mu_1^{(0)}(A-\lambda E_n)u_1^{(1)} + \mu_1^{(1)}(A-\lambda E_n)u_1^{(2)} + \mu_2^{(0)}(A-\lambda E_n)u_2^{(1)} + \mu_2^{(1)}(A-\lambda E_n)u_2^{(2)} = 0[/mm]
>
> stehen.
Da bist du wohl mit den Indizes bei den [mm] $u_i^{(j)}$ [/mm] durcheinander gekommen.
Es müsste
[mm]\mu_1^{(0)}(A-\lambda E_n)u_1^{(0)} + \mu_1^{(1)}(A-\lambda E_n)u_1^{(1)} + \mu_2^{(0)}(A-\lambda E_n)u_2^{(0)} + \mu_2^{(1)}(A-\lambda E_n)u_2^{(1)} = 0[/mm]
heißen.
Nun gilt es, die linke Seite weiter zu vereinfachen.
Es gilt z.B. [mm] $(A-\lambda E_n)u_1^{(0)}=Au_1^{(0)}-\lambda u_1^{(0)}=\ldots$
[/mm]
(nutze nun aus, dass [mm] $u_1^{(0)}$ [/mm] ein Eigenvektor von $A$ zum Eigenwert [mm] $\lambda$ [/mm] ist).
[mm] $(A-\lambda E_n)u_1^{(1)}$ [/mm] ist nach Voraussetzung [mm] $=u_1^{(0)}$.
[/mm]
usw.
> Wobei sich der Endomorphismus jetzt (n-1)-mal erneut auf
> die Gleichung anwenden lässt.
Das ist in diesem Spezialfall gar nicht nötig. Einmalige Anwendung des Endomorphismus' genügt.
> Aber wohin soll das führen?
Zu einer Gleichung, aus der du schließen kannst, dass gewisse [mm] $\mu_i^{(j)}$ [/mm] (und damit letztendlich alle [mm] $\mu_i^{(j)}$) [/mm] =0 sind.
|
|
|
|
|
> Da bist du wohl mit den Indizes bei den [mm]u_i^{(j)}[/mm]
> durcheinander gekommen.
>
> Es müsste
>
> [mm]\mu_1^{(0)}(A-\lambda E_n)u_1^{(0)} + \mu_1^{(1)}(A-\lambda E_n)u_1^{(1)} + \mu_2^{(0)}(A-\lambda E_n)u_2^{(0)} + \mu_2^{(1)}(A-\lambda E_n)u_2^{(1)} = 0[/mm]
>
> heißen.
>
>
> Nun gilt es, die linke Seite weiter zu vereinfachen.
>
> Es gilt z.B. [mm](A-\lambda E_n)u_1^{(0)}=Au_1^{(0)}-\lambda u_1^{(0)}=\ldots[/mm]
>
> (nutze nun aus, dass [mm]u_1^{(0)}[/mm] ein Eigenvektor von [mm]A[/mm] zum
> Eigenwert [mm]\lambda[/mm] ist).
>
> [mm](A-\lambda E_n)u_1^{(1)}[/mm] ist nach Voraussetzung
> [mm]=u_1^{(0)}[/mm].
>
> usw.
Ich versuch's mal:
[mm]\mu_1^{(0)} (A u_1^{(0)} - \lambda u_1^{(0)}) + \mu_1^{(1)} u_1^{(0)} + \mu_2^{(0)} (A u_2^{(0)} - \lambda u_2^{(0)}) + \mu_2^{(1)} u_2^{(0)} = 0[/mm]
Da [mm]\lambda[/mm] ein Eigenwert und [mm]u[/mm] ein zugehöriger Eigenvektor von [mm]A[/mm] ist, gilt: [mm]Au = \lambda u[/mm]
[mm]\mu_1^{(0)} \underbrace{(\lambda u_1^{(0)} - \lambda u_1^{(0)})}_{= 0} + \mu_1^{(1)} u_1^{(0)} + \mu_2^{(0)} \underbrace{(\lambda u_2^{(0)} - \lambda u_2^{(0)})}_{= 0} + \mu_2^{(1)} u_2^{(0)} = 0[/mm]
[mm]\iff \mu_1^{(1)} u_1^{(0)} + \mu_2^{(1)} u_2^{(0)} = 0[/mm]
Allerdings gibt mir das jetzt keine Information mehr über [mm]\mu_1^{(0)}, \mu_2^{(0)}[/mm], oder sehe ich das falsch?
Viele Grüße
Patrick
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 13:00 Mo 20.05.2013 | Autor: | tobit09 |
> [mm]\mu_1^{(0)} (A u_1^{(0)} - \lambda u_1^{(0)}) + \mu_1^{(1)} u_1^{(0)} + \mu_2^{(0)} (A u_2^{(0)} - \lambda u_2^{(0)}) + \mu_2^{(1)} u_2^{(0)} = 0[/mm]
>
> Da [mm]\lambda[/mm] ein Eigenwert und [mm]u[/mm] ein zugehöriger
> Eigenvektor von [mm]A[/mm] ist, gilt: [mm]Au = \lambda u[/mm]
>
> [mm]\mu_1^{(0)} \underbrace{(\lambda u_1^{(0)} - \lambda u_1^{(0)})}_{= 0} + \mu_1^{(1)} u_1^{(0)} + \mu_2^{(0)} \underbrace{(\lambda u_2^{(0)} - \lambda u_2^{(0)})}_{= 0} + \mu_2^{(1)} u_2^{(0)} = 0[/mm]
>
> [mm]\iff \mu_1^{(1)} u_1^{(0)} + \mu_2^{(1)} u_2^{(0)} = 0[/mm]
Da [mm] $u_1^{(0)}$ [/mm] und [mm] $u_2^{(0)}$ [/mm] linear unabhängig sind somit [mm] $\mu_1^{(1)}=\mu_2^{(1)}=0$.
[/mm]
Das ist schon einmal die halbe Miete.
> Allerdings gibt mir das jetzt keine Information mehr
> über [mm]\mu_1^{(0)}, \mu_2^{(0)}[/mm], oder sehe ich das falsch?
Arbeite nun wieder mit der Ausgangsgleichung
$ [mm] \mu_1^{(0)}u_1^{(0)}+\mu_1^{(1)}u_1^{(1)}+\mu_2^{(0)}u_2^{(0)}+\mu_2^{(1)}u_2^{(1)}=0 [/mm] $.
Nutze [mm] $\mu_1^{(1)}=\mu_2^{(1)}=0$ [/mm] und dann erneut die lineare Unabhängigkeit von [mm] $u_1^{(0)}$ [/mm] und [mm] $u_2^{(0)}$.
[/mm]
|
|
|
|
|
> > Allerdings gibt mir das jetzt keine Information mehr
> > über [mm]\mu_1^{(0)}, \mu_2^{(0)}[/mm], oder sehe ich das falsch?
> Arbeite nun wieder mit der Ausgangsgleichung
>
> [mm]\mu_1^{(0)}u_1^{(0)}+\mu_1^{(1)}u_1^{(1)}+\mu_2^{(0)}u_2^{(0)}+\mu_2^{(1)}u_2^{(1)}=0 [/mm].
>
> Nutze [mm]\mu_1^{(1)}=\mu_2^{(1)}=0[/mm] und dann erneut die lineare
> Unabhängigkeit von [mm]u_1^{(0)}[/mm] und [mm]u_2^{(0)}[/mm].
Da ergibt sich dann:
[mm]\mu_1^{(0)} u_1^{(0)} + \mu_2^{(0)} u_2^{(0)} = 0[/mm]
Und da [mm]u_1^{(0)}[/mm] und [mm]u_2^{(0)}[/mm] linear unabhängig sind, ist auch [mm]\mu_1^{(0)} = \mu_2^{(0)} = 0[/mm]
Die lineare Unabhängig im Spezialfall ist damit ja gezeigt.
Der allgemeine Fall lässt sich doch prinzipiell genauso zeigen, oder?
Zu zeigen ist, dass die Vektorgleichung
[mm]\mu_1^{(0)} u_1^{(0)} + ... + \mu_1^{(k_1)} u_1^{(k_1)} + ... + \mu_i^{(k_r-1)} u_i^{(k_r-1)} + \mu_i^{(k_r)} u_i^{(k_r)} = 0[/mm]
nur erfüllt werden kann durch [mm]\mu_1^{(0)} = ... = \mu_1^{(k_1)} = ... = \mu_i^{(k_r-1)} = \mu_i^{(k_r)} = 0[/mm]
(Definition der linearen Unabhängigkeit von Vektoren)
Also:
[mm]\mu_1^{(0)} (A-\lambda E_n) u_1^{(0)} + ... + \mu_1^{(k_1)} (A-\lambda E_n) u_1^{(k_1)} + ... + \mu_i^{(0)} (A-\lambda E_n) u_i^{(0)} + ... + \mu_i^{(k_r)} (A-\lambda E_n) u_i^{(k_r)} = 0[/mm]
[mm]\iff \mu_1^{(0)} (\lambda u_1^{(0)} - \lambda u_1^{(0)}) + ... + \mu_1^{(k_1)} (\lambda u_1^{(k_1)} - \lambda u_1^{(k_1)}) + ... + \mu_i^{(0)} (\lambda u_i^{(0)} - \lambda u_i^{(0)}) + ... + \mu_i^{(k_r)} (\lambda u_i^{(k_r)} - \lambda u_i^{(k_r)}) = 0[/mm]
[mm]\iff \mu_1^{(1)} u_1^{(0)} + ... + \mu_i^{(k_2)} u_i^{(k_1)} + ... + \mu_i^{(k_r-1)} u_i^{(k_r-2)} = 0[/mm]
[mm]u_1^{(0)}, ..., u_i^{(k_r-2)}[/mm] sind linear unabhängig [mm]\Rightarrow \mu_1^{(1)} = ... = \mu_i^{(k_r-1)} = 0[/mm]
Also:
[mm]\mu_1^{(0)} u_1^{(0)} + ... + \mu_i^{(0)} u_i^{(0)} + ... + \mu_i^{(k_r-2)} u_i^{(k_r-2)} = 0[/mm]
[mm]u_1^{(0)}, ..., u_i^{(k_r-2)}[/mm] sind linear unabhängig [mm]\Rightarrow \mu_1^{(0)} = ... = \mu_i^{(k_r-2)} = 0[/mm]
Das lässt sich nun induktiv fortsetzen, sodass gilt: [mm]\mu_1^{(0)} = .... = \mu_i^{(k_r)} = 0[/mm]
Ist das so in Ordnung (sofern ich mich nirgends vertippt habe)?
Viele Grüße
Patrick
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 07:22 Di 21.05.2013 | Autor: | tobit09 |
> > Arbeite nun wieder mit der Ausgangsgleichung
> >
> >
> [mm]\mu_1^{(0)}u_1^{(0)}+\mu_1^{(1)}u_1^{(1)}+\mu_2^{(0)}u_2^{(0)}+\mu_2^{(1)}u_2^{(1)}=0 [/mm].
>
> >
> > Nutze [mm]\mu_1^{(1)}=\mu_2^{(1)}=0[/mm] und dann erneut die
> lineare
> > Unabhängigkeit von [mm]u_1^{(0)}[/mm] und [mm]u_2^{(0)}[/mm].
>
> Da ergibt sich dann:
>
> [mm]\mu_1^{(0)} u_1^{(0)} + \mu_2^{(0)} u_2^{(0)} = 0[/mm]
>
> Und da [mm]u_1^{(0)}[/mm] und [mm]u_2^{(0)}[/mm] linear unabhängig sind,
> ist auch [mm]\mu_1^{(0)} = \mu_2^{(0)} = 0[/mm]
>
> Die lineare Unabhängig im Spezialfall ist damit ja
> gezeigt.
Schön!
> Zu zeigen ist, dass die Vektorgleichung
> [mm]\mu_1^{(0)} u_1^{(0)} + ... + \mu_1^{(k_1)} u_1^{(k_1)} + ... + \mu_i^{(k_r-1)} u_i^{(k_r-1)} + \mu_i^{(k_r)} u_i^{(k_r)} = 0[/mm]
>
> nur erfüllt werden kann durch [mm]\mu_1^{(0)} = ... = \mu_1^{(k_1)} = ... = \mu_i^{(k_r-1)} = \mu_i^{(k_r)} = 0[/mm]
> (Definition der linearen Unabhängigkeit von Vektoren)
Die i's sollen wohl r's sein.
> Also:
Für jemanden, der unsere "Spezialfall-Lösung" nicht kennt, solltest du hier auf jeden Fall erläutern, dass du obige Gleichung mit [mm] $A-\lambda E_n$ [/mm] multiplizierst.
> [mm]\mu_1^{(0)} (A-\lambda E_n) u_1^{(0)} + ... + \mu_1^{(k_1)} (A-\lambda E_n) u_1^{(k_1)} + ... + \mu_i^{(0)} (A-\lambda E_n) u_i^{(0)} + ... + \mu_i^{(k_r)} (A-\lambda E_n) u_i^{(k_r)} = 0[/mm]
Ja.
> [mm]\iff \mu_1^{(0)} (\lambda u_1^{(0)} - \lambda u_1^{(0)}) + ... + \mu_1^{(k_1)} (\lambda u_1^{(k_1)} - \lambda u_1^{(k_1)}) + ... + \mu_i^{(0)} (\lambda u_i^{(0)} - \lambda u_i^{(0)}) + ... + \mu_i^{(k_r)} (\lambda u_i^{(k_r)} - \lambda u_i^{(k_r)}) = 0[/mm]
Nein. Nur die [mm] $u_j^{(0)}$ [/mm] sind als Eigenvektoren zum Eigenwert [mm] $\lambda$ [/mm] vorausgesetzt.
> [mm]\iff \mu_1^{(1)} u_1^{(0)} + ... + \mu_i^{(k_2)} u_i^{(k_1)} + ... + \mu_i^{(k_r-1)} u_i^{(k_r-2)} = 0[/mm]
Der erste Summand stimmt. Was meinst du hier mit $i$? Der zweite von dir explizit angegebene Summand stimmt i.A. nicht. Der letzte Summand fehlt bei dir.
Es empfiehlt sich die Arbeit mit Summenzeichen [mm] $\sum$
[/mm]
- aus Gründen der Übersichtlichkeit
- damit es nicht dem Leser überlassen bleibt, zu verstehen, welche Summanden genau gemeint sind
- um Spezialfälle wie [mm] $k_r=0$ [/mm] nicht auszuschließen.
> [mm]u_1^{(0)}, ..., u_i^{(k_r-2)}[/mm] sind linear
> unabhängig
(Welche Vektoren meinst du hier genau? Was meinst du hier mit $i$?)
Warum solltest du das schon wissen? (Sicher sind [mm] $u_1^{(0)},\ldots,u_r^{(0)}$ [/mm] linear unabhängig.)
> [mm]\Rightarrow \mu_1^{(1)} = ... = \mu_i^{(k_r-1)} = 0[/mm]
>
> Also:
>
> [mm]\mu_1^{(0)} u_1^{(0)} + ... + \mu_i^{(0)} u_i^{(0)} + ... + \mu_i^{(k_r-2)} u_i^{(k_r-2)} = 0[/mm]
Mir ist wieder unklar, welche Summanden genau gemeint sind.
> [mm]u_1^{(0)}, ..., u_i^{(k_r-2)}[/mm] sind linear
> unabhängig
Wieder die Frage: Woher willst du das wissen?
> [mm]\Rightarrow \mu_1^{(0)} = ... = \mu_i^{(k_r-2)} = 0[/mm]
>
> Das lässt sich nun induktiv fortsetzen, sodass
> gilt: [mm]\mu_1^{(0)} = .... = \mu_i^{(k_r)} = 0[/mm]
Ich kann noch kein allgemeines Schema erkennen, dass sich induktiv fortsetzen ließe.
> Ist das so in Ordnung (sofern ich mich nirgends vertippt
> habe)?
Die Grundidee ja, die Umsetzung nein.
Du benötigst unterwegs die lineare Unabhängigkeit gewisser Vektoren, bei denen es sich nicht nur um die Vektoren [mm] $u_1^{(0)},\ldots,u_r^{(0)}$ [/mm] handelt.
Daher würde ich einen wirklichen Induktionsbeweis vorschlagen, bei dem du die benötigte lineare Unabhängigkeit als Induktionsvoraussetzung erhältst.
Zeige die Behauptung im trivialen Fall $r=0$ separat und führe dann im Falle $r>0$ Induktion nach [mm] $\max(k_1,\ldots,k_r)$.
[/mm]
Induktionsanfang: [mm] $\max(k_1,\ldots,k_r)=0$, [/mm] also [mm] $k_1=\ldots=k_r=0$. [/mm] Dann: ...
Induktionsschritt: Sei [mm] $n\in\IN_0$ [/mm] und die Behauptung gelte im Falle [mm] $\max(k_1,\ldots,k_r)=n$. [/mm] Zu zeigen ist, dass die Behauptung im Falle [mm] $\max(k_1,\ldots,k_r)=n+1$ [/mm] gilt.
Jetzt bitte unbedingt mit Summenzeichen arbeiten!
Gelte also
[mm] $\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)}=0$
[/mm]
für Skalare [mm] $\mu_i^{(j)}$ ($i=1,\ldots,r$, $j=0,\ldots,k_i$).
[/mm]
Zu zeigen ist [mm] $\mu_i^{(j)}=0$ [/mm] für alle [mm] $i=1,\ldots,r$, $j=0,\ldots,k_i$.
[/mm]
|
|
|
|
|
> > [mm]\iff \mu_1^{(0)} (\lambda u_1^{(0)} - \lambda u_1^{(0)}) + ... + \mu_1^{(k_1)} (\lambda u_1^{(k_1)} - \lambda u_1^{(k_1)}) + ... + \mu_i^{(0)} (\lambda u_i^{(0)} - \lambda u_i^{(0)}) + ... + \mu_i^{(k_r)} (\lambda u_i^{(k_r)} - \lambda u_i^{(k_r)}) = 0[/mm]
>
> Nein. Nur die [mm]u_j^{(0)}[/mm] sind als Eigenvektoren zum
> Eigenwert [mm]\lambda[/mm] vorausgesetzt.
Stimmt …
Ich versuche mich dann besser direkt an der Induktion und der Schreibweise als doppelte Summe, wie Du empfiehlst. Bei den ganzen Indizes komme ich offen gesagt schon ziemlich durcheinander.
> Du benötigst unterwegs die lineare Unabhängigkeit
> gewisser Vektoren, bei denen es sich nicht nur um die
> Vektoren [mm]u_1^{(0)},\ldots,u_r^{(0)}[/mm] handelt.
>
> Daher würde ich einen wirklichen Induktionsbeweis
> vorschlagen, bei dem du die benötigte lineare
> Unabhängigkeit als Induktionsvoraussetzung erhältst.
>
>
> Zeige die Behauptung im trivialen Fall [mm]r=0[/mm] separat und
> führe dann im Falle [mm]r>0[/mm] Induktion nach
> [mm]\max(k_1,\ldots,k_r)[/mm].
>
> Induktionsanfang: [mm]\max(k_1,\ldots,k_r)=0[/mm], also
> [mm]k_1=\ldots=k_r=0[/mm]. Dann: ...
[mm]r=0[/mm] gibt es aber gar nicht, da laut Aufgabenstellung [mm]1 \leq i \leq r[/mm], oder?
Also muss ich bei [mm]r = 1[/mm] starten:
Dann ist zu zeigen: [mm]\mu_1^{(0)} u_1^{(0)} = 0[/mm] nur wenn [mm]\mu_1^{(0)} = 0[/mm]
[mm](A-\lambda*E_n)[/mm] angewandt: [mm]\mu_1^{(0)}(A-\lambda*E_n)u_1^{(0)} = 0[/mm]
Da [mm]Au = \lambda u[/mm]: [mm]\mu_1^{(0)}(\lambda u_1^{(0)} - \lambda u_1^{(0)}) = 0 \iff \mu_1^{(0)} = 0[/mm]
> Induktionsschritt: Sei [mm]n\in\IN_0[/mm] und die Behauptung gelte
> im Falle [mm]\max(k_1,\ldots,k_r)=n[/mm]. Zu zeigen ist, dass die
> Behauptung im Falle [mm]\max(k_1,\ldots,k_r)=n+1[/mm] gilt.
>
> Jetzt bitte unbedingt mit Summenzeichen arbeiten!
>
> Gelte also
>
> [mm]\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)}=0[/mm]
>
> für Skalare [mm]\mu_i^{(j)}[/mm] ([mm]i=1,\ldots,r[/mm], [mm]j=0,\ldots,k_i[/mm]).
>
> Zu zeigen ist [mm]\mu_i^{(j)}=0[/mm] für alle [mm]i=1,\ldots,r[/mm],
> [mm]j=0,\ldots,k_i[/mm].
Wenn ich jetzt wieder [mm](A-\lambda*E_n)[/mm] anwende:
[mm]\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)} = \sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)} = 0[/mm]
Dann kann ich für die [mm]u_i^{(0)}[/mm] ja schreiben: [mm]\mu_i^{(0)}(\lambda u_i^{(0)} - \lambda u_i^{(0)})[/mm]
Aber ich weiß nicht, wie ich das jetzt da einbauen kann …
Könnte ich da noch etwas Hilfe bekommen?
Viele Grüße
Patrick
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 06:53 Mi 22.05.2013 | Autor: | tobit09 |
> > Zeige die Behauptung im trivialen Fall [mm]r=0[/mm] separat und
> > führe dann im Falle [mm]r>0[/mm] Induktion nach
> > [mm]\max(k_1,\ldots,k_r)[/mm].
> >
> > Induktionsanfang: [mm]\max(k_1,\ldots,k_r)=0[/mm], also
> > [mm]k_1=\ldots=k_r=0[/mm]. Dann: ...
>
> [mm]r=0[/mm] gibt es aber gar nicht, da laut Aufgabenstellung [mm]1 \leq i \leq r[/mm],
> oder?
Leider schweigt sich die Aufgabenstellung darüber aus, ob [mm] $r\in\IN\setminus\{0\}$ [/mm] oder [mm] $r\in\IN_0$ [/mm] gelten soll. Die Formulierung "für jedes [mm] $1\le i\le [/mm] r$" schließt $r=0$ jedenfalls nicht aus (dann gibt es eben kein solches $i$).
Aber im Falle $r=0$ lautet die Behauptung ohnehin einfach, dass das leere System linear unabhängig ist. Und das dürfte ohnehin bekannt sein.
> Also muss ich bei [mm]r = 1[/mm] starten:
Ich sehe keine Notwendigkeit, den Fall $r=1$ separat zu behandeln. Die von mir vorgeschlagene Induktion ist keine Induktion nach $r$, sondern eine Induktion nach [mm] $\max(k_1,\ldots,k_r)$.
[/mm]
> Dann ist zu zeigen: [mm]\mu_1^{(0)} u_1^{(0)} = 0[/mm] nur
> wenn [mm]\mu_1^{(0)} = 0[/mm]
Also betrachtest du nun den Spezialfall $r=1$ und [mm] $k_1=0$.
[/mm]
[mm] $\mu_1^{(0)}=0$ [/mm] ist klar, denn das einelementige System [mm] $u_1^{(0)}$ [/mm] ist linear unabhängig.
> [mm](A-\lambda*E_n)[/mm]
> angewandt: [mm]\mu_1^{(0)}(A-\lambda*E_n)u_1^{(0)} = 0[/mm]
>
> Da [mm]Au = \lambda u[/mm]: [mm]\mu_1^{(0)}(\lambda u_1^{(0)} - \lambda u_1^{(0)}) = 0[/mm]
Zwar nicht verkehrt, aber hilft nicht weiter: Da steht also die Gleichung [mm] $\mu_1^{(0)}*0=0$.
[/mm]
> [mm]\iff \mu_1^{(0)} = 0[/mm]
Aus [mm] $\mu_1^{(0)}0=0$ [/mm] kannst du nicht so einfach auf [mm] $\mu_1^{(0)}=0$ [/mm] schließen.
> > Induktionsschritt: Sei [mm]n\in\IN_0[/mm] und die Behauptung gelte
> > im Falle [mm]\max(k_1,\ldots,k_r)=n[/mm]. Zu zeigen ist, dass
> die
> > Behauptung im Falle [mm]\max(k_1,\ldots,k_r)=n+1[/mm] gilt.
> >
> > Jetzt bitte unbedingt mit Summenzeichen arbeiten!
> >
> > Gelte also
> >
> > [mm]\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)}=0[/mm]
> >
> > für Skalare [mm]\mu_i^{(j)}[/mm] ([mm]i=1,\ldots,r[/mm],
> [mm]j=0,\ldots,k_i[/mm]).
> >
> > Zu zeigen ist [mm]\mu_i^{(j)}=0[/mm] für alle [mm]i=1,\ldots,r[/mm],
> > [mm]j=0,\ldots,k_i[/mm].
>
> Wenn ich jetzt wieder [mm](A-\lambda*E_n)[/mm] anwende:
>
> [mm]\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)} = \sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)} = 0[/mm]
>
> Dann kann ich für die [mm]u_i^{(0)}[/mm] ja
> schreiben: [mm]\mu_i^{(0)}(\lambda u_i^{(0)} - \lambda u_i^{(0)})[/mm]
Genau. Also [mm] $(A-\lambda E_n)u_i^{(j)}=0$ [/mm] im Falle $j=0$ für alle [mm] $i=1,\ldots,r$.
[/mm]
Somit kann man die entsprechenden Summanden in der Summe ersatzlos weglassen und erhält
[mm] $0=\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)}=\sum_{i=1}^r\sum_{j=1}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)}=\sum_{i=1}^r\sum_{j=1}^{k_i}\mu_i^{(j)}u_i^{j-1}=\sum_{i=1}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j=\sum_{\substack{i=1\\k_i-1\ge0}}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j$.
[/mm]
Nun wollen wir die Induktionsvoraussetzung ins Spiel bringen:
Das System [mm] $(v_i)_\substack{i=1,\ldots,r\\k_i-1\ge0}$ [/mm] ist ein endliches linear unabhängiges System von Eigenvektoren von $A$ zum Eigenwert [mm] $\lambda$.
[/mm]
Für jedes [mm] $1\le i\le k_i-1$ [/mm] mit [mm] $k_i':=k_i-1\ge0$ [/mm] betrachten wir die Folge [mm] $u_i^{(0)},\ldots,u_i^{(k_i')}$.
[/mm]
Für alle [mm] $1\le s\le k_i'$ [/mm] gilt [mm] $(A-\lambda\cdot{}E_n)u_i^{(s)} [/mm] = [mm] u_i^{(s-1)}$.
[/mm]
Es gilt [mm] $\max\{\underbrace{k_i'}_{=k_i-1}\;|\;i\in\{1,\ldots,r\},k_i-1\ge0\}=\max(k_1,\ldots,k_r)-1=n+1-1=n$.
[/mm]
Somit liefert die Induktionsvoraussetzung die lineare Unabhängigkeit von
[mm] $(u_i^{j})_\substack{i=1,\ldots,r\\k_i-1\ge0\\j=0,\ldots,k_i-1}$.
[/mm]
Also können wir aus
[mm] $0=\sum_{\substack{i=1\\k_i-1\ge0}}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j$
[/mm]
was schließen?
Mache dann weiter wie im Spezialfall $r=2$, [mm] $k_1=k_2=2$.
[/mm]
|
|
|
|
|
> > > Zeige die Behauptung im trivialen Fall [mm]r=0[/mm] separat und
> > > führe dann im Falle [mm]r>0[/mm] Induktion nach
> > > [mm]\max(k_1,\ldots,k_r)[/mm].
> > >
> > > Induktionsanfang: [mm]\max(k_1,\ldots,k_r)=0[/mm], also
> > > [mm]k_1=\ldots=k_r=0[/mm]. Dann: ...
> >
> > [mm]r=0[/mm] gibt es aber gar nicht, da laut Aufgabenstellung [mm]1 \leq i \leq r[/mm],
> > oder?
> Leider schweigt sich die Aufgabenstellung darüber aus, ob
> [mm]r\in\IN\setminus\{0\}[/mm] oder [mm]r\in\IN_0[/mm] gelten soll. Die
> Formulierung "für jedes [mm]1\le i\le r[/mm]" schließt [mm]r=0[/mm]
> jedenfalls nicht aus (dann gibt es eben kein solches [mm]i[/mm]).
So hab ich das noch gar nicht gesehen. Klingt aber plausibel.
> Aber im Falle [mm]r=0[/mm] lautet die Behauptung ohnehin einfach,
> dass das leere System linear unabhängig ist. Und das
> dürfte ohnehin bekannt sein.
Stimmt.
> Genau. Also [mm](A-\lambda E_n)u_i^{(j)}=0[/mm] im Falle [mm]j=0[/mm] für
> alle [mm]i=1,\ldots,r[/mm].
>
> Somit kann man die entsprechenden Summanden in der Summe
> ersatzlos weglassen und erhält
>
> [mm]0=\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)}=\sum_{i=1}^r\sum_{j=1}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)}=\sum_{i=1}^r\sum_{j=1}^{k_i}\mu_i^{(j)}u_i^{j-1}=\sum_{i=1}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j=\sum_{\substack{i=1\\k_i-1\ge0}}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j[/mm].
>
>
> Nun wollen wir die Induktionsvoraussetzung ins Spiel
> bringen:
>
> Das System [mm](v_i)_\substack{i=1,\ldots,r\\k_i-1\ge0}[/mm] ist ein
> endliches linear unabhängiges System von Eigenvektoren von
> [mm]A[/mm] zum Eigenwert [mm]\lambda[/mm].
>
> Für jedes [mm]1\le i\le k_i-1[/mm] mit [mm]k_i':=k_i-1\ge0[/mm] betrachten
> wir die Folge [mm]u_i^{(0)},\ldots,u_i^{(k_i')}[/mm].
> Für alle [mm]1\le s\le k_i'[/mm] gilt
> [mm](A-\lambda\cdot{}E_n)u_i^{(s)} = u_i^{(s-1)}[/mm].
>
> Es gilt
> [mm]\max\{\underbrace{k_i'}_{=k_i-1}\;|\;i\in\{1,\ldots,r\},k_i-1\ge0\}=\max(k_1,\ldots,k_r)-1=n+1-1=n[/mm].
>
> Somit liefert die Induktionsvoraussetzung die lineare
> Unabhängigkeit von
>
> [mm](u_i^{j})_\substack{i=1,\ldots,r\\k_i-1\ge0\\j=0,\ldots,k_i-1}[/mm].
>
Zu zeigen ist ja, dass [mm]\mu_i^{(j)} = 0 \quad \forall i=1,...,r, j=0,...,k_i[/mm]
Oben hast Du die Summen so äquivalent umgeformt, dass die innere Summe nur noch bis [mm]k_i-1[/mm] statt bis [mm]k_i[/mm] läuft.
Da die [mm]u_i^{(j)}[/mm] mit den genannten Werteeinschränkungen linear unabhängig sind, sind die zugehörigen Skalare [mm]\mu_i^{(j)}[/mm] nun doch "automatisch" gleich null, richtig?
>
> Also können wir aus
>
> [mm]0=\sum_{\substack{i=1\\k_i-1\ge0}}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j[/mm]
>
> was schließen?
Das besagte [mm]\mu[/mm] gleich null sind? (Siehe meine obige Überlebung)
Viele Grüße
Patrick
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 01:38 Do 23.05.2013 | Autor: | tobit09 |
> > Genau. Also [mm](A-\lambda E_n)u_i^{(j)}=0[/mm] im Falle [mm]j=0[/mm] für
> > alle [mm]i=1,\ldots,r[/mm].
> >
> > Somit kann man die entsprechenden Summanden in der
> Summe
> > ersatzlos weglassen und erhält
> >
> > [mm]0=\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)}=\sum_{i=1}^r\sum_{j=1}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)}=\sum_{i=1}^r\sum_{j=1}^{k_i}\mu_i^{(j)}u_i^{j-1}=\sum_{i=1}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j=\sum_{\substack{i=1\\k_i-1\ge0}}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j[/mm].
>
> >
> >
> > Nun wollen wir die Induktionsvoraussetzung ins Spiel
> > bringen:
> >
> > Das System [mm](v_i)_\substack{i=1,\ldots,r\\k_i-1\ge0}[/mm] ist
> ein
> > endliches linear unabhängiges System von Eigenvektoren
> von
> > [mm]A[/mm] zum Eigenwert [mm]\lambda[/mm].
> >
> > Für jedes [mm]1\le i\le k_i-1[/mm] mit [mm]k_i':=k_i-1\ge0[/mm]
> betrachten
> > wir die Folge [mm]u_i^{(0)},\ldots,u_i^{(k_i')}[/mm].
> > Für alle [mm]1\le s\le k_i'[/mm] gilt
> > [mm](A-\lambda\cdot{}E_n)u_i^{(s)} = u_i^{(s-1)}[/mm].
> >
> > Es gilt
> >
> [mm]\max\{\underbrace{k_i'}_{=k_i-1}\;|\;i\in\{1,\ldots,r\},k_i-1\ge0\}=\max(k_1,\ldots,k_r)-1=n+1-1=n[/mm].
> >
> > Somit liefert die Induktionsvoraussetzung die lineare
> > Unabhängigkeit von
> >
> >
> [mm](u_i^{j})_\substack{i=1,\ldots,r\\k_i-1\ge0\\j=0,\ldots,k_i-1}[/mm].
> >
>
> Zu zeigen ist ja, dass [mm]\mu_i^{(j)} = 0 \quad \forall i=1,...,r, j=0,...,k_i[/mm]
>
> Oben hast Du die Summen so äquivalent umgeformt, dass die
> innere Summe nur noch bis [mm]k_i-1[/mm] statt bis [mm]k_i[/mm] läuft.
>
> Da die [mm]u_i^{(j)}[/mm] mit den genannten Werteeinschränkungen
> linear unabhängig sind, sind die zugehörigen
> Skalare [mm]\mu_i^{(j)}[/mm] nun doch "automatisch" gleich null,
> richtig?
Die zugehörigen Skalare in der Summe
[mm] $\sum_{\substack{i=1\\k_i-1\ge0}}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j$,
[/mm]
ja.
Das sind die [mm] $\mu_i^{j+1}$ [/mm] für [mm] $i=1,\ldots,r$, $k_i-1\ge0$, $j=0,\ldots,k_i-1$.
[/mm]
Mit anderen Worten die [mm] $\mu_i^j$ [/mm] für [mm] $i=1,\ldots,r$, $j=1,\ldots,k_i$.
[/mm]
Diese [mm] $\mu_i^j$ [/mm] sind also zu 0 diskutiert. Bleiben noch die [mm] $\mu_i^0$ [/mm] zu 0 zu diskutieren.
Nutze dazu wie im Spezialfall $r=2$, [mm] $k_1=k_2=2$ [/mm] die Ausgangsgleichung
[mm] $\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)}=0$
[/mm]
und das Wissen, dass gewisse Skalare schon zu 0 diskutiert sind.
|
|
|
|
|
> Diese [mm]\mu_i^j[/mm] sind also zu 0 diskutiert. Bleiben noch die
> [mm]\mu_i^0[/mm] zu 0 zu diskutieren.
>
> Nutze dazu wie im Spezialfall [mm]r=2[/mm], [mm]k_1=k_2=2[/mm] die
> Ausgangsgleichung
>
> [mm]\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)}=0[/mm]
>
> und das Wissen, dass gewisse Skalare schon zu 0 diskutiert
> sind.
Für die Ausgangsgleichung gilt nun also die Vereinfachung:
[mm]\sum_{i=1}^r\mu_i^{(0)}u_i^{(0)}=0[/mm]
[mm]u_i^{(0)}[/mm] mit [mm]i=1,...,r[/mm] sind linear unabhängig, also sind die [mm]\mu_i^{(0)}[/mm] mit [mm]i=1,...,r[/mm] gleich 0.
Oder mache ich mir das jetzt zu einfach?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:12 Do 23.05.2013 | Autor: | tobit09 |
> > Diese [mm]\mu_i^j[/mm] sind also zu 0 diskutiert. Bleiben noch die
> > [mm]\mu_i^0[/mm] zu 0 zu diskutieren.
> >
> > Nutze dazu wie im Spezialfall [mm]r=2[/mm], [mm]k_1=k_2=2[/mm] die
> > Ausgangsgleichung
> >
> > [mm]\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)}=0[/mm]
> >
> > und das Wissen, dass gewisse Skalare schon zu 0
> diskutiert
> > sind.
>
> Für die Ausgangsgleichung gilt nun also die
> Vereinfachung:
>
> [mm]\sum_{i=1}^r\mu_i^{(0)}u_i^{(0)}=0[/mm]
>
> [mm]u_i^{(0)}[/mm] mit [mm]i=1,...,r[/mm] sind linear unabhängig, also
> sind die [mm]\mu_i^{(0)}[/mm] mit [mm]i=1,...,r[/mm] gleich 0.
> Oder mache ich mir das jetzt zu einfach?
Nein, alles bestens!
|
|
|
|