www.vorkurse.de
Ein Projekt von vorhilfe.de
Die Online-Kurse der Vorhilfe

E-Learning leicht gemacht.
Hallo Gast!einloggen | registrieren ]
Startseite · Mitglieder · Teams · Forum · Wissen · Kurse · Impressum
Forenbaum
^ Forenbaum
Status Mathe-Vorkurse
  Status Organisatorisches
  Status Schule
    Status Wiederholung Algebra
    Status Einführung Analysis
    Status Einführung Analytisc
    Status VK 21: Mathematik 6.
    Status VK 37: Kurvendiskussionen
    Status VK Abivorbereitungen
  Status Universität
    Status Lerngruppe LinAlg
    Status VK 13 Analysis I FH
    Status Algebra 2006
    Status VK 22: Algebra 2007
    Status GruMiHH 06
    Status VK 58: Algebra 1
    Status VK 59: Lineare Algebra
    Status VK 60: Analysis
    Status Wahrscheinlichkeitst

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Lineare Algebra" - nochmal Diagonalisierung
nochmal Diagonalisierung < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

nochmal Diagonalisierung: Frage (überfällig)
Status: (Frage) überfällig Status 
Datum: 20:00 So 26.08.2007
Autor: pusteblume86

Ich habe hier folgende matrizen und soll über Diagonalisierbarkeit urteilen:

[mm] A:=\pmat{ 0 & 1 \\ 1 & 0 } [/mm]
[mm] B:=\pmat{ 1 & -4 \\ 0 & 1 } [/mm]
[mm] C:=\pmat{ 0 & -4 \\ 0 & 0 } [/mm]

soo durch eigenraumbestimmung habe ich herausgefunden, dass

A Diagonalisierbar ist mit: [mm] \pmat{ 1/2 & 1/2 \\ -1/2 & 1/2 } *\pmat{ 0 & 1 \\ 1 & 0 }* \pmat{ 1 & -1 \\ 1 & 1 } [/mm] = [mm] \pmat{ 1 & 0 \\ 0 & -1} [/mm]

B ist nicht diagonalisierbar, weil es nur einen eigenwert mit algebraischer Vielfachheit 2 git, aber die diemsnion des Eigenraues nur 1 ist.

C ist auch nicht Diagonalisierbar, denn auch hier haben wir einen Eigenwert mit algebaischer Vielfachheit 0 und nur einen eindimensionalen Eigenraum.


Nun meine Frage: Gibt es bei so kleinen Matrizen auch eine Möglichkeit, dass vielleicht schon auf den ersten Blcik sehen zu können? Also ich könnte es zum Beispiel dann erkennen, wenn  [mm] (A-\lambdaE_n [/mm] ) zwei linear abhängige Spalten oder zeilen hat, weil dann det (A- [mm] \lambda e_n) [/mm] = 0 und das darf natürlich nicht sein, da ich dann kein charakt. polynom bestimmen kann...

Gibt es noch eine anschauliche Möglichkeit um Diagonalisierbarkeit sofort auszuschließen oder sofort zu erkennen?

Lg Sandra



        
Bezug
nochmal Diagonalisierung: Antwort
Status: (Antwort) fertig Status 
Datum: 20:18 So 26.08.2007
Autor: Somebody


> Ich habe hier folgende matrizen und soll über
> Diagonalisierbarkeit urteilen:
>  
> [mm]A:=\pmat{ 0 & 1 \\ 1 & 0 }[/mm]
>  [mm]B:=\pmat{ 1 & -4 \\ 0 & 1 }[/mm]
>  
> [mm]C:=\pmat{ 0 & -4 \\ 0 & 0 }[/mm]
>  
> soo durch eigenraumbestimmung habe ich herausgefunden, dass
>
> A Diagonalisierbar ist mit: [mm]\pmat{ 1/2 & 1/2 \\ -1/2 & 1/2 } *\pmat{ 0 & 1 \\ 1 & 0 }* \pmat{ 1 & -1 \\ 1 & 1 }[/mm]
> = [mm]\pmat{ 1 & 0 \\ 0 & -1}[/mm]

[ok]

>  
> B ist nicht diagonalisierbar, weil es nur einen eigenwert
> mit algebraischer Vielfachheit 2 git, aber die diemsnion
> des Eigenraues nur 1 ist.

[ok]

>  
> C ist auch nicht Diagonalisierbar, denn auch hier haben wir
> einen Eigenwert mit algebaischer Vielfachheit 0

Wohl kleiner Tippfehler: sollte 2 sein.

> und nur einen eindimensionalen Eigenraum.

[ok]

> Nun meine Frage: Gibt es bei so kleinen Matrizen auch eine
> Möglichkeit, dass vielleicht schon auf den ersten Blcik
> sehen zu können?

Habe gerade keine gute Idee.

> Also ich könnte es zum Beispiel dann
> erkennen, wenn  [mm](A-\lambdaE_n[/mm] ) zwei linear abhängige
> Spalten oder zeilen hat, weil dann det (A- [mm]\lambda e_n)[/mm] = 0

Wenn [mm] $\lambda$ [/mm] eine Nullstelle des charakteristischen Polynoms von $A$ ist, dann ist es sicher so, dass die Spalten (und daher auch die Zeilen) linear abhängig sind. Im 2-dim Fall ist also der Eigenraum eines Eigenwertes [mm] $\lambda$ [/mm] das orthogonale Komplement eines der beiden Zeilenvektoren (gleich welchen Zeilenvektors).

> und das darf natürlich nicht sein, da ich dann kein
> charakt. polynom bestimmen kann...

Mit dieser Überlegung hast Du mich glatt abgehängt...

>  
> Gibt es noch eine anschauliche Möglichkeit um
> Diagonalisierbarkeit sofort auszuschließen oder sofort zu
> erkennen?

Im 2-dim Fall gibt es ja zum Glück auch auf dem allgemeinen Weg nicht gar so viel zu rechnen...

Ich markiere Deine Frage mal als nur teilweise beantwortet: vielleicht hat jemand eine gute Idee zu Deiner eigentlichen Frage.

Gruss,
Christian

Bezug
                
Bezug
nochmal Diagonalisierung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 20:26 So 26.08.2007
Autor: pusteblume86

Also wenn ich bei det(A - [mm] \lambda E_n) [/mm] den erhaltenen Eigenwert einsetze, dann ergibt sich natürlich det [mm] (A-\lambda E_n) [/mm] = 0. da der eigenwert Nullstelle des charakt. Polynoms ist.

Aber wenn ich die matrix [mm] A-\lambda E_n [/mm] betrachte , bevor ich ein [mm] \lambda [/mm] ausgerechnet habe, und sie Spalten oder zeilen sind dann linear abhängig, kann ich det [mm] (A-\lambda E_n) [/mm] gar nicht ausrechnen.  

Bezug
                        
Bezug
nochmal Diagonalisierung: Antwort
Status: (Antwort) fertig Status 
Datum: 20:37 So 26.08.2007
Autor: Somebody


> Also wenn ich bei det(A - [mm]\lambda E_n)[/mm] den erhaltenen
> Eigenwert einsetze, dann ergibt sich natürlich det
> [mm](A-\lambda E_n)[/mm] = 0. da der eigenwert Nullstelle des
> charakt. Polynoms ist.
>  
> Aber wenn ich die matrix [mm]A-\lambda E_n[/mm] betrachte , bevor
> ich ein [mm]\lambda[/mm] ausgerechnet habe, und sie Spalten oder
> zeilen sind dann linear abhängig, kann ich det [mm](A-\lambda E_n)[/mm]
> gar nicht ausrechnen.

Natürlich gibt es Fälle, bei denen man die Diagonalisierbarkeit simpler ablesen kann. Wenn die Matrix $A$ schon diagonal ist, nur durch Vertauschen und eventuell zusätzlich einer Streckung der Basisvektoren entsteht oder wenn sie symmetrisch ist.
Aber im 2-dim Fall ist das Ausrechnen der Eigenwerte, ja sogar das Bestimmen der zugehörigen Eigenbasis, kein sooo grosses Problem - und hat den Vorteil, dass man bei einem solchen Vorgehen immer sogleich "loslegen" kann, statt lange zu zögern, ob es nicht vielleicht eine superschlaue Abkürzung gibt.

Bezug
        
Bezug
nochmal Diagonalisierung: Fälligkeit abgelaufen
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 20:20 Mi 29.08.2007
Autor: matux

$MATUXTEXT(ueberfaellige_frage)
Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorkurse.de
[ Startseite | Mitglieder | Teams | Forum | Wissen | Kurse | Impressum ]