l.u. bei invertierbarer Matrix < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 16:13 Do 14.02.2008 | Autor: | timako |
Aufgabe | Sei [mm] M_{nn} [/mm] der Raum der n [mm] \times [/mm] n Matrizen. Seien die Vektoren [mm] \vec{\nu_{i}} \in \IR^{n}, 1\le i\le [/mm] n und sei A [mm] \in M_{nn} [/mm] invertierbar. Zeigen Sie:
[mm] \vec{\nu_{i}} (1\le i\le [/mm] n) linear unabhängig [mm] \gdw A\vec{\nu_{i}} (1\le i\le [/mm] n) linear unabhängig |
Hallo liebes Forum,
komme bei dieser Aufgabe nicht weiter...
A [mm] \in M_{nn} [/mm] invertierbar bedeutet ja dass detA [mm] \not= [/mm] 0
[mm] \vec{\nu_{i}} (1\le i\le [/mm] n) linear unabhängig
[mm] \Rightarrow
[/mm]
[mm] \summe_{i=1}^{n}\lambda_{i}\vec{\nu_{i}} [/mm] = [mm] \vec{0} \gdw \lambda_{i} [/mm] = 0 [mm] \forall 1\le i\le [/mm] n
[mm] \gdw
[/mm]
[mm] \lambda_{1}\vec{\nu_{1}} [/mm] + [mm] \lambda_{2}\vec{\nu_{2}} [/mm] + ... + [mm] \lambda_{n}\vec{\nu_{n}} [/mm] = [mm] \vec{0}
[/mm]
[mm] \gdw
[/mm]
[mm] \lambda_{1}\vektor{\nu_{11} \\ \nu_{12} \\ ... \\ \nu_{1n}} [/mm] + [mm] \lambda_{2}\vektor{\nu_{21} \\ \nu_{22} \\ ... \\ \nu_{2n}} [/mm] + ... + [mm] \lambda_{n}\vektor{\nu_{n1} \\ \nu_{n2} \\ ... \\ \nu_{nn}} [/mm] = [mm] \vec{0}
[/mm]
[mm] \gdw
[/mm]
[mm] \lambda_{1}\nu_{11} [/mm] + [mm] \lambda_{2}\nu_{21} [/mm] + ... + [mm] \lambda_{n}\nu_{n1} [/mm] = 0
[mm] \lambda_{1}\nu_{12} [/mm] + [mm] \lambda_{2}\nu_{22} [/mm] + ... + [mm] \lambda_{n}\nu_{n2} [/mm] = 0
...
[mm] \lambda_{1}\nu_{1n} [/mm] + [mm] \lambda_{2}\nu_{2n} [/mm] + ... + [mm] \lambda_{n}\nu_{nn} [/mm] = 0
[mm] \gdw
[/mm]
[mm] \pmat{ \nu_{11} & \nu_{21} & ... & \nu_{n1}\\ \nu_{12} & nu_{22} & ... & nu_{n2}\\ ... \\ nu_{1n} & nu_{2n} & ... & nu_{nn}} \vektor{\lambda_{1}\\ \lambda_{2} \\ ... \\ \lambda_{n}} [/mm] = [mm] \vec{0} \gdw \lambda_{i} [/mm] = [mm] \vec{0}
[/mm]
[mm] \Rightarrow
[/mm]
det [mm] (\nu_{ij})_{n,n} \not= [/mm] 0 da [mm] \vec{\nu_{i}} [/mm] linear unabhängig
[mm] \gdw
[/mm]
[mm] (\nu_{ij})_{n,n}^{-1} \exists [/mm]
Muß ich jetzt die inverse Matrix bilden? Oder ist eben die Inverse dann irgendeine Matrix, bei der allerdings dann gilt [mm] A\vec{\nu_{i}} [/mm] linear unabhängig (schön wärs... ;) ?
Gruß, T.
|
|
|
|
> Sei [mm]M_{nn}[/mm] der Raum der n [mm]\times[/mm] n Matrizen. Seien die
> Vektoren [mm]\vec{\nu_{i}} \in \IR^{n}, 1\le i\le[/mm] n und sei A
> [mm]\in M_{nn}[/mm] invertierbar. Zeigen Sie:
> [mm]\vec{\nu_{i}} (1\le i\le[/mm] n) linear unabhängig [mm]\gdw A\vec{\nu_{i}} (1\le i\le[/mm]
> n) linear unabhängig
> Hallo liebes Forum,
>
> komme bei dieser Aufgabe nicht weiter...
Hallo,
ich habe den Eidruck, daß Dir bei dieser Aufgabe nicht ganz klar ist, was Du gegeben hast, und was zu zeigen ist.
Gegeben hast Du irgendwelche i Vektoren [mm] v_j [/mm] und irgendeine beliebige invertierbare Matrix A.
Zu zeigen ist nun folgendes:
1. Wenn die Vektoren [mm] (v_1,...,v_i) [/mm] linear unabhängig sind, sind auch die Vektoren [mm] (Av_1, [/mm] ..., [mm] Av_i) [/mm] linear unabhängig.
2. Wenn die Vektoren [mm] (Av_1, [/mm] ..., [mm] Av_i) [/mm] linear unabhängig sind, sind auch die Vektoren [mm] (v_1,...,v_i) [/mm] linear unabhängig.
Für den Beweis zu 1. ein paar kleine Hinweise:
Es seien [mm] (v_1, ...v_i) [/mm] linear unabhängig, und die Matrix A sei invertierbar.
Was bedeutet das? Nur mit der trivialen Linearkombination kann man die Null aus [mm] (v_1, ...v_i) [/mm] erzeugen,
und s gibt eine Matrix [mm] A^{-1} [/mm] mit [mm] A^{-1}A=E.
[/mm]
Zeigen will man nun, daß die Vektoren [mm] (Av_1, [/mm] ..., [mm] Av_i) [/mm] linear unabhängig sind.
Sei also [mm] \lambda_1(Av_1) [/mm] + ... + [mm] \lambda_i (Av_i)=0.
[/mm]
Und nun mußt Du streng darauf zusteuern, daß dann alle [mm] \lambda_j [/mm] =0 sind.
Bediene Dich hierzu der Linearität der durch [mm] f_A(v):=Av [/mm] definierten Abbildung und der Tatsache, daß A ein Inverses hat.
Gruß v. Angela
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:36 Do 14.02.2008 | Autor: | timako |
Hallo Angela,
vielen Dank für deine Erläuterung, jetzt ist mir die Aufgabenstellung deutlich klarer!
Hier mein Lösungsansatz:
Sei [mm] \vec{\nu_{i}} (1\le i\le [/mm] n) linear unabhängig, und sei A [mm] \in M_{n,n} [/mm] invertierbar
[mm] \Rightarrow
[/mm]
[mm] \summe_{i=1}^{n}\lambda_{i}\vec{\nu_{i}} [/mm] = [mm] \vec{0} \gdw \lambda_{i} [/mm] = 0 [mm] \forall 1\le i\le [/mm] n
und
[mm] A^{-1} \exists [/mm] mit [mm] A^{-1}A [/mm] = E
zu zeigen: [mm] A\vec{\nu_{i}} [/mm] linear unabhängig
Beh.: [mm] A\vec{\nu_{i}} [/mm] linear unabhängig
[mm] \Rightarrow
[/mm]
[mm] \summe_{i=1}^{n}\lambda_{i}(A\vec{\nu_{i}}) [/mm] = [mm] \vec{0}
[/mm]
[mm] \gdw
[/mm]
[mm] \lambda_{1}(A\vec{\nu_{1}}) [/mm] + [mm] \lambda_{2}(A\vec{\nu_{2}}) [/mm] + ... + [mm] \lambda_{n}(A\vec{\nu_{n}}) [/mm] = 0
[mm] \gdw [/mm] (Linearität)
[mm] A(\lambda_{1}\vec{\nu_{1}} [/mm] + [mm] \lambda_{2}\vec{\nu_{2}} [/mm] + ... + [mm] \lambda_{n}\vec{\nu_{n}}) [/mm] = 0
[mm] \gdw
[/mm]
[mm] AA^{-1}(\lambda_{1}\vec{\nu_{1}} [/mm] + [mm] \lambda_{2}\vec{\nu_{2}} [/mm] + ... + [mm] \lambda_{n}\vec{\nu_{n}}) [/mm] = 0
[mm] \gdw
[/mm]
[mm] E(\lambda_{1}\vec{\nu_{1}} [/mm] + [mm] \lambda_{2}\vec{\nu_{2}} [/mm] + ... + [mm] \lambda_{n}\vec{\nu_{n}}) [/mm] = 0
[mm] \gdw
[/mm]
[mm] \lambda_{1}\vec{\nu_{1}} [/mm] + [mm] \lambda_{2}\vec{\nu_{2}} [/mm] + ... + [mm] \lambda_{n}\vec{\nu_{n}} [/mm] = 0
[mm] \gdw (\vec{\nu_{i}} [/mm] linear unabhängig)
[mm] \lambda_{i} [/mm] = 0 [mm] \forall 1\le i\le [/mm] n
[mm] \gdw [/mm] Beh.
Ist das so hinreichend?
Gruß, Timm
|
|
|
|
|
> vielen Dank für deine Erläuterung, jetzt ist mir die
> Aufgabenstellung deutlich klarer!
> Hier mein Lösungsansatz:
Das freut mich sehr, und daß Dir vieles klarer ist, sieht man ganz deutlich an Deinem Lösungsansatz, welcher im Groben in Ordnung ist.
Ich würde Dir raten, wirklich beide Richtungen getrennt zu zeigen, ich finde, es schreibt sich dann deutlich einfacher auf, so daß man letztendlich Zeit gewinnt.
>
> Sei [mm]\vec{\nu_{i}} (1\le i\le[/mm] n) linear unabhängig, und sei
> A [mm]\in M_{n,n}[/mm] invertierbar
>
> [mm]\Rightarrow[/mm]
>
> [mm]\summe_{i=1}^{n}\lambda_{i}\vec{\nu_{i}}[/mm] = [mm]\vec{0} \gdw \lambda_{i}[/mm]
> = 0 [mm]\forall 1\le i\le[/mm] n
>
> und
>
> [mm]A^{-1} \exists[/mm] mit [mm]A^{-1}A[/mm] = E
>
>
> zu zeigen: [mm]A\vec{\nu_{i}}[/mm] linear unabhängig
>
Beweis:
Es sei
> [mm]\summe_{i=1}^{n}\lambda_{i}(A\vec{\nu_{i}})[/mm] = [mm]\vec{0}[/mm]
>
==>
>
> [mm]\lambda_{1}(A\vec{\nu_{1}})[/mm] + [mm]\lambda_{2}(A\vec{\nu_{2}})[/mm] +
> ... + [mm]\lambda_{n}(A\vec{\nu_{n}})[/mm] = 0
>
==>
> (Linearität)
>
> [mm]A(\lambda_{1}\vec{\nu_{1}}[/mm] + [mm]\lambda_{2}\vec{\nu_{2}}[/mm] + ...
> + [mm]\lambda_{n}\vec{\nu_{n}})[/mm] = 0
>
==>
Vorsicht!!! Du mußt [mm] A^{-1} [/mm] vorne dran multiplizieren, also [mm] A^{-1}A(...)=...
[/mm]
>
> [mm]AA^{-1}(\lambda_{1}\vec{\nu_{1}}[/mm] + [mm]\lambda_{2}\vec{\nu_{2}}[/mm]
> + ... + [mm]\lambda_{n}\vec{\nu_{n}})[/mm] = 0
==>
>
> [mm]E(\lambda_{1}\vec{\nu_{1}}[/mm] + [mm]\lambda_{2}\vec{\nu_{2}}[/mm] + ...
> + [mm]\lambda_{n}\vec{\nu_{n}})[/mm] = 0
>
==>
>
> [mm]\lambda_{1}\vec{\nu_{1}}[/mm] + [mm]\lambda_{2}\vec{\nu_{2}}[/mm] + ... +
> [mm]\lambda_{n}\vec{\nu_{n}}[/mm] = 0
>
==> [mm] (\vec{\nu_{i}}[/mm] [/mm] linear unabhängig)
>
> [mm]\lambda_{i}[/mm] = 0 [mm]\forall 1\le i\le[/mm] n
>
Aus [mm] \summe_{i=1}^{n}\lambda_{i}(A\vec{\nu_{i}})[/mm] [/mm] = [mm][mm] \vec{0} [/mm] folgt [mm]\lambda_{i}[/mm] = 0 [mm]\forall 1\le i\le[/mm] n, also ist [mm] (Av_1,...Av_i) [/mm] linear unabhängig.
Dann die andere Richtung, welche wenig Neues bietet.
Gruß v. Angela
|
|
|
|