www.vorhilfe.de
- Förderverein -
Der Förderverein.

Gemeinnütziger Verein zur Finanzierung des Projekts Vorhilfe.de.
Hallo Gast!einloggen | registrieren ]
Startseite · Mitglieder · Impressum
Forenbaum
^ Forenbaum
Status VH e.V.
  Status Vereinsforum

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Suchen
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Lineare Algebra - Eigenwerte" - Diagonalisierbarkeit
Diagonalisierbarkeit < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Eigenwerte"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Diagonalisierbarkeit: Dia - Triagonalisieren und Inv
Status: (Frage) beantwortet Status 
Datum: 13:27 Fr 03.08.2007
Autor: matt57

Aufgabe
Prüfen Sie ob die Matrix A= [mm] \pmat{ 0 & 1 \\ -1 & 0 } [/mm] diagonalisierbar oder triagonalisierbar in [mm] \IR^n,n [/mm] bzw. in [mm] \C^n,n [/mm] ist und bestimmen Sie eine invertierbare Matrix [mm] \in [/mm] Gl [mm] \IR [/mm] (n)  bzw.  Gl [mm] \IC [/mm] (n) und geben Sie eine Diagonal, bzw.
Dreiecksmatrix B [mm] \in \IR [/mm] bzw. [mm] \IC [/mm] an, so dass gilt:
[mm] TAT^{-1} [/mm] =B

Hallo
Ich gehe so vor, dass ich zunächst mal das char. Polynom aufstelle.
POl X=  detA= (0-x)*(0-x) - 1 = [mm] x^2-1 [/mm]

somit trigonalisierbar  in [mm] \C [/mm] und in [mm] \IR, [/mm]
da POl X komplett in Linearfaktoren zerfällt.
Richtig?

für [mm] \IC [/mm]
[mm] \lambda [/mm] 1, 2 = [mm] \pm [/mm] i
Richtig?


Eigenraumbestimmung
über [mm] \IC [/mm]
Lösung des LGS (Diagonalelemente von A - [mm] \lambda) [/mm]
[mm] \pm [/mm] i   [mm] \alpha [/mm] + [mm] \beta [/mm]  = 0
- [mm] \alpha \pm [/mm] i    [mm] \beta [/mm]  = 0
Eigenraum 1 für [mm] \IC [/mm]

... und hier verließen sie mich.


Eigenraum 2 für [mm] \IR [/mm]
[mm] \lambda [/mm] 1 = 1
LGS:
- 1 [mm] \alpha [/mm] + 1 [mm] \beta [/mm] = 0
- 1 [mm] \alpha [/mm] - 1 [mm] \beta [/mm] =0


[mm] \alpha [/mm] = 2, [mm] \beta=2 [/mm]
Richtig?

Eigenvektor v2 also [mm] \pmat{ 2 \\ 2 } [/mm]

Eigenraum also E2=  Menge aller  [mm] \vec{a}| \vec{a}t* \pmat{ 2 \\ 2 } [/mm] , t \ [mm] \IR [/mm]
Richtig?

Wenn mir an dieser Stelle jemand den Zusammenhangder "Ordnung" (ord) der Eigenvektoren und dem Rang erklären könnte, was bedeutet die Ordnung (ord) genau?

Diagonalmatrix wäre somit, vorausgesetzt es gibt sie: (irgendwie kann man das durch ord=rangA oder so ablesen...)

[mm] \pmat{ 2 & 0 \\ 0 & 2 } [/mm]

Oder  falsch?

Und wie finde ich nun die Matrix T?

Wer kann helfen?
Danke und Gruß

        
Bezug
Diagonalisierbarkeit: Antwort
Status: (Antwort) fertig Status 
Datum: 13:50 Fr 03.08.2007
Autor: angela.h.b.


> Prüfen Sie ob die Matrix A= [mm]\pmat{ 0 & 1 \\ -1 & 0 }[/mm]
> diagonalisierbar oder triagonalisierbar in [mm]\IR^n,n[/mm] bzw. in
> [mm]\C^n,n[/mm] ist und bestimmen Sie eine invertierbare Matrix [mm]\in[/mm]
> Gl [mm]\IR[/mm] (n)  bzw.  Gl [mm]\IC[/mm] (n) und geben Sie eine Diagonal,
> bzw.
> Dreiecksmatrix B [mm]\in \IR[/mm] bzw. [mm]\IC[/mm] an, so dass gilt:
>  [mm]TAT^{-1}[/mm] =B
>  Hallo
>  Ich gehe so vor, dass ich zunächst mal das char. Polynom
> aufstelle.
>  POl X=  detA= (0-x)*(0-x) - 1 = [mm]x^2-1[/mm]

Hallo,

das stimmt nicht. Das CP ist [mm] x^2+1. [/mm]

>  
> somit trigonalisierbar  in [mm]\C[/mm] und in [mm]\IR,[/mm]
> da POl X komplett in Linearfaktoren zerfällt.
> Richtig?

Es zerfällt doch über [mm] \IR [/mm] gar nicht in Linearfaktoren!

>  
> für [mm]\IC[/mm]
>  [mm]\lambda[/mm] 1, 2 = [mm]\pm[/mm] i
>  Richtig?

Ja. Üver [mm] \IC [/mm] ist [mm] x^2+1= [/mm] (x-i)(x+i)

Das CP zerfällt in Linearfaktoren und hat nur einfache Nullsteleln. Also ist A über [mm] \IC [/mm] diagonalisierbar.

Nun benötigst Du die Eigenvektoren, um eine Basis aus Eigenvektoren zu haben und damit die Transformationsmatrix T zu finden.
[mm] T^{-1} [/mm] ist die Matrix, welche in den Spalten die Eigenvektoren bzgl. der Standardbasis enthält.


>  
>
> Eigenraumbestimmung
> über [mm]\IC[/mm]

Um den Eigenraum zum EW zu bestimmen, mußt Du den Kern von [mm] A-\lambdaE [/mm] berechnen, in Deinem Falle also

Kern [mm] \pmat{ -i & 1 \\ -1 & -i } [/mm] und  Kern [mm] \pmat{i & 1 \\ -1 & i } [/mm]

(Der Kern einer Matrix B ist ja der Lösungsraum von Bx=0.)

>  Lösung des LGS (Diagonalelemente von A - [mm]\lambda)[/mm]
>  [mm]\pm[/mm] i   [mm]\alpha[/mm] + [mm]\beta[/mm]  = 0
>  - [mm]\alpha \pm[/mm] i    [mm]\beta[/mm]  = 0
>  Eigenraum 1 für [mm]\IC[/mm]
>  
> ... und hier verließen sie mich.
>  
>
> Eigenraum 2 für [mm]\IR[/mm]
>  [mm]\lambda[/mm] 1 = 1

Es ist 1 kein EW der Matrix. Schau Dir das (richtige) charakteristische Polynom an.
Also wirst Du keinen Eigenraum finden.


>  LGS:
>  - 1 [mm]\alpha[/mm] + 1 [mm]\beta[/mm] = 0
>  - 1 [mm]\alpha[/mm] - 1 [mm]\beta[/mm] =0
>  
>
> [mm]\alpha[/mm] = 2, [mm]\beta=2[/mm]
>  Richtig?
>  
> Eigenvektor v2 also [mm]\pmat{ 2 \\ 2 }[/mm]

Wie gesagt gibt es hier keinen Eigenvektor, weil es ja keinen Eigenwert gibt.

Berechne doch mal [mm] A\pmat{ 2 \\ 2 }. [/mm]  Und? Kommt ein Vielfaches von [mm] \pmat{ 2 \\ 2 } [/mm] heraus?

Schau Dir mal die Matrix an. Was macht die denn? Worauf wird die x-Achse abgebildet und worauf die y-Achse? Was ist das für eine Bewegung?
Läßt diese Bewegung eine Richtung in der xy-Ebene fest?

Gruß v. Angela


>  
> Eigenraum also E2=  Menge aller  [mm]\vec{a}| \vec{a}t* \pmat{ 2 \\ 2 }[/mm]
> , t \ [mm]\IR[/mm]
> Richtig?
>  
> Wenn mir an dieser Stelle jemand den Zusammenhangder
> "Ordnung" (ord) der Eigenvektoren und dem Rang erklären
> könnte, was bedeutet die Ordnung (ord) genau?
>  
> Diagonalmatrix wäre somit, vorausgesetzt es gibt sie:
> (irgendwie kann man das durch ord=rangA oder so
> ablesen...)
>  
> [mm]\pmat{ 2 & 0 \\ 0 & 2 }[/mm]
>  
> Oder  falsch?
>  
> Und wie finde ich nun die Matrix T?
>  
> Wer kann helfen?
>  Danke und Gruß


Bezug
                
Bezug
Diagonalisierbarkeit: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 13:59 Fr 03.08.2007
Autor: matt57

Hallo und Danke
Natürlich... CP ist ... +1. So kann man sich verrechenn, mit fatalen Folgen.
Ich sehe mir die Sache jetzt näher an, bei Fragen melde ich mich hier.


Bezug
                
Bezug
Diagonalisierbarkeit: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:45 Fr 03.08.2007
Autor: matt57


> > Prüfen Sie ob die Matrix A= [mm]\pmat{ 0 & 1 \\ -1 & 0 }[/mm]
> > diagonalisierbar oder triagonalisierbar in [mm]\IR^n,n[/mm] bzw. in
> > [mm]\C^n,n[/mm] ist und bestimmen Sie eine invertierbare Matrix [mm]\in[/mm]
> > Gl [mm]\IR[/mm] (n)  bzw.  Gl [mm]\IC[/mm] (n) und geben Sie eine Diagonal,
> > bzw.
> > Dreiecksmatrix B [mm]\in \IR[/mm] bzw. [mm]\IC[/mm] an, so dass gilt:
>  >  [mm]TAT^{-1}[/mm] =B
>  >  Hallo
>  >  Ich gehe so vor, dass ich zunächst mal das char.
> Polynom
> > aufstelle.
>  >  POl X=  detA= (0-x)*(0-x) - 1 = [mm]x^2-1[/mm]
>  
> Hallo,
>  
> das stimmt nicht. Das CP ist [mm]x^2+1.[/mm]
>  
> >  

> > somit trigonalisierbar  in [mm]\C[/mm] und in [mm]\IR,[/mm]
> > da POl X komplett in Linearfaktoren zerfällt.
> > Richtig?
>  
> Es zerfällt doch über [mm]\IR[/mm] gar nicht in Linearfaktoren!
>  
> >  

> > für [mm]\IC[/mm]
>  >  [mm]\lambda[/mm] 1, 2 = [mm]\pm[/mm] i
>  >  Richtig?
>  
> Ja. Üver [mm]\IC[/mm] ist [mm]x^2+1=[/mm] (x-i)(x+i)
>  
> Das CP zerfällt in Linearfaktoren und hat nur einfache
> Nullsteleln. Also ist A über [mm]\IC[/mm] diagonalisierbar.
>  
> Nun benötigst Du die Eigenvektoren, um eine Basis aus
> Eigenvektoren zu haben und damit die Transformationsmatrix
> T zu finden.
>  [mm]T^{-1}[/mm] ist die Matrix, welche in den Spalten die
> Eigenvektoren bzgl. der Standardbasis enthält.
>  
>
> >  

> >
> > Eigenraumbestimmung
> > über [mm]\IC[/mm]
>  
> Um den Eigenraum zum EW zu bestimmen, mußt Du den Kern von
> [mm]A-\lambdaE[/mm] berechnen, in Deinem Falle also
>
> Kern [mm]\pmat{ -i & 1 \\ -1 & -i }[/mm] und  Kern [mm]\pmat{i & 1 \\ -1 & i }[/mm]
>  
> (Der Kern einer Matrix B ist ja der Lösungsraum von Bx=0.)

Ich bekomme die GLS nicht umgeformt
-i+1 [mm] \beta [/mm] = 0
-1 - i [mm] \beta [/mm] =0 | *i, - I.

[mm] \Rightarrow [/mm]
-i 1 0
0 1 0

bzw.

i+1 [mm] \beta=0 [/mm]
-1 + i [mm] \beta=0 [/mm] |*i, + I.

[mm] \Rightarrow [/mm]
i   1  1
0 -1 0
Kann das stimmen?
Wie lese ich jetzt die Eigenvektoren ab?
Mit dem Rechenprogramm lauten die EV (1,i) bzw. (1,-i)
Ich würde jedoch gern die (richtigen) Umformungen bis zu den Einträgen kennen:

> >  Lösung des LGS (Diagonalelemente von A - [mm]\lambda)[/mm]

>  >  [mm]\pm[/mm] i   [mm]\alpha[/mm] + [mm]\beta[/mm]  = 0
>  >  - [mm]\alpha \pm[/mm] i    [mm]\beta[/mm]  = 0
>  >  Eigenraum 1 für [mm]\IC[/mm]
>  >  
> > ... und hier verließen sie mich.
>  >  
> >
> > Eigenraum 2 für [mm]\IR[/mm]
>  >  [mm]\lambda[/mm] 1 = 1
>  
> Es ist 1 kein EW der Matrix. Schau Dir das (richtige)
> charakteristische Polynom an.
>  Also wirst Du keinen Eigenraum finden.

Klar!

>
> >  LGS:

>  >  - 1 [mm]\alpha[/mm] + 1 [mm]\beta[/mm] = 0
>  >  - 1 [mm]\alpha[/mm] - 1 [mm]\beta[/mm] =0
>  >  
> >
> > [mm]\alpha[/mm] = 2, [mm]\beta=2[/mm]
>  >  Richtig?
>  >  
> > Eigenvektor v2 also [mm]\pmat{ 2 \\ 2 }[/mm]
>  
> Wie gesagt gibt es hier keinen Eigenvektor, weil es ja
> keinen Eigenwert gibt.
>
> Berechne doch mal [mm]A\pmat{ 2 \\ 2 }.[/mm]  Und? Kommt ein
> Vielfaches von [mm]\pmat{ 2 \\ 2 }[/mm] heraus?

Kein Vielfaches sonder 2x2 Matrix

>  
> Schau Dir mal die Matrix an. Was macht die denn? Worauf
> wird die x-Achse abgebildet und worauf die y-Achse? Was ist
> das für eine Bewegung?
>  Läßt diese Bewegung eine Richtung in der xy-Ebene fest?

Irgendwie scheint die MAtrix x und y nur zu vertauschen, richtig?

>  
> Gruß v. Angela

Grüße und Danke von Matthias

>
> >  

> > Eigenraum also E2=  Menge aller  [mm]\vec{a}| \vec{a}t* \pmat{ 2 \\ 2 }[/mm]
> > , t \ [mm]\IR[/mm]
> > Richtig?
>  >  

Frage besteht noch:

Wenn mir an dieser Stelle jemand den Zusammenhangder
"Ordnung" (ord) der Eigenvektoren und dem Rang erklären
könnte, was bedeutet die Ordnung (ord) genau?

>  >  Danke und Gruß  


Bezug
                        
Bezug
Diagonalisierbarkeit: Antwort
Status: (Antwort) fertig Status 
Datum: 16:41 Fr 03.08.2007
Autor: schachuzipus

Hallo Matt,

entschuldige, dass es so lange gedauert hat, aber

ich habe mir 2mal hintereinander den kompletten Text

aus Versehen weggelöscht und musste alles nochmal eintippeln :(

So nun aber:


> Ich bekomme die GLS nicht umgeformt
> -i+1 [mm]\beta[/mm] = 0
>  -1 - i [mm]\beta[/mm] =0 | *i, - I.
>  
> [mm]\Rightarrow[/mm]
>  -i 1 0
>  0 1 0
>  
> bzw.
>  
> i+1 [mm]\beta=0[/mm]
>  -1 + i [mm]\beta=0[/mm] |*i, + I.
>  
> [mm]\Rightarrow[/mm]
>  i   1  1
>  0 -1 0
>  Kann das stimmen? leider nicht

Du erhältst in beiden Fällen eine Nullzeile

>  Wie lese ich jetzt die Eigenvektoren ab?
> Mit dem Rechenprogramm lauten die EV (1,i) bzw. (1,-i)
>  Ich würde jedoch gern die (richtigen) Umformungen bis zu
> den Einträgen kennen:

Ich mach's mal für den Eigenwert [mm] \lambda=i [/mm] (in Matrixschreibweise wg. der besseren Übersichtlichkeit)

Also zu bestimmen ist [mm] Kern\pmat{ -i & 1 \\ -1 & -i } [/mm] (=Eigenraum zu [mm] \lambda=i) [/mm]

Dazu bringen wir [mm] \pmat{ -i & 1 \\ -1 & -i } [/mm]  in ZSF

Ich schlage folgende Umformung vor (deine tut's aber auch):

[mm] i\cdot{} [/mm] 1.Zeile liefert:

[mm] \pmat{ 1 & i \\ -1 & -i } [/mm] Nun 1.Zeile zur 2.Zeile addieren ergibt

[mm] \pmat{ 1 & i \\ 0 & 0 } [/mm]

Hier kannst du nun zB. [mm] x_1 [/mm] frei wählen, sagen wir [mm] x_1=t [/mm] mit [mm] t\in\IC [/mm]

Dann ist mit Zeile 1: [mm] t+ix_2=0\Rightarrow x_2=\frac{-t}{i}=\frac{(-t)(-i)}{i(-i)}=\frac{ti}{1}=ti [/mm]

Also ist der [mm] Kern\pmat{ -i & 1 \\ -1 & -i } =\langle \vektor{1\\i}\rangle [/mm]

Also ist ein Vektor aus dem [mm] Kern\pmat{ -i & 1 \\ -1 & -i } [/mm] der Gestalt: [mm] t\cdot{}\vektor{1\\i} [/mm]    

Für t=1 erhalten wir den Eigenvektor aus der Musterlösung [mm] \vektor{1\\i} [/mm]




> > Berechne doch mal [mm]A\pmat{ 2 \\ 2 }.[/mm]  Und? Kommt ein
> > Vielfaches von [mm]\pmat{ 2 \\ 2 }[/mm] heraus?
>  
> Kein Vielfaches sonder 2x2 Matrix [notok]

Autsch, das Produkt einer [mm] 2\times [/mm] 2-Matrix mit einer [mm] 2\times [/mm] 1-Matrix gibt eine [mm] 2\times [/mm] 1-Matrix!!!!

[mm] A\vektor{2\\2}=...=\vektor{2\\-2} [/mm] und das ist KEIN Vielfaches von [mm] \vektor{2\\2} [/mm]


Nun testen wir mal unseren "neuen" ;-) Eigenvektor:

[mm] A\vektor{1\\i}=\vektor{i\\-1}=i\cdot{}\vektor{1\\i} [/mm] also ein Vielfaches - puh ;-)






> Frage besteht noch:
>  
> Wenn mir an dieser Stelle jemand den Zusammenhangder
> "Ordnung" (ord) der Eigenvektoren und dem Rang erklären
> könnte, was bedeutet die Ordnung (ord) genau?


Hm, den Ausdruck habe ich noch nie gehört?
Ist damit vllt. die Dimension des Eigenraumes zu dem entsprechenden Eigenwert gemeint?



Gruß

schachuzipus


Bezug
                                
Bezug
Diagonalisierbarkeit: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:01 Fr 03.08.2007
Autor: matt57

Erstmal vielen Dank und sorry für das Fettnäpfchen... ist natürlich völliger Blödsinn, aus dem Produkt einer 2x2 mit 2x1 Matrix eine 2x2 Matrix zu bekommen.

Es geht in meiner letzten Frage um die Beziehung von algebr. Vielfachheit und die Dim. des Eigenraumes.
Wenn man dann irgendwie die Rang-Gleichung aufstellt, kann man wohl auf Diagonalisierbarkeit schließen. (In diesem Fall ist ja Diagonalisierbarkeit gegeben, wg. kompl. Lösungsraum. In diesen Fällen sind Diagonalmatrizen den Ausgagansmatrizen ähnlich... oder?) (Fundamentalsatz der Algebra?)
Grüße
Matthias

> Hallo Matt,
>  
> entschuldige, dass es so lange gedauert hat, aber
>  
> ich habe mir 2mal hintereinander den kompletten Text
>  
> aus Versehen weggelöscht und musste alles nochmal
> eintippeln :(
>  
> So nun aber:
>  
>
> > Ich bekomme die GLS nicht umgeformt
> > -i+1 [mm]\beta[/mm] = 0
>  >  -1 - i [mm]\beta[/mm] =0 | *i, - I.
>  >  
> > [mm]\Rightarrow[/mm]
>  >  -i 1 0
>  >  0 1 0
>  >  
> > bzw.
>  >  
> > i+1 [mm]\beta=0[/mm]
>  >  -1 + i [mm]\beta=0[/mm] |*i, + I.
>  >  
> > [mm]\Rightarrow[/mm]
>  >  i   1  1
>  >  0 -1 0
>  >  Kann das stimmen? leider nicht
>  
> Du erhältst in beiden Fällen eine Nullzeile
>  
> >  Wie lese ich jetzt die Eigenvektoren ab?

> > Mit dem Rechenprogramm lauten die EV (1,i) bzw. (1,-i)
>  >  Ich würde jedoch gern die (richtigen) Umformungen bis
> zu
> > den Einträgen kennen:
>  
> Ich mach's mal für den Eigenwert [mm]\lambda=i[/mm] (in
> Matrixschreibweise wg. der besseren Übersichtlichkeit)
>  
> Also zu bestimmen ist [mm]Kern\pmat{ -i & 1 \\ -1 & -i }[/mm]
> (=Eigenraum zu [mm]\lambda=i)[/mm]
>  
> Dazu bringen wir [mm]\pmat{ -i & 1 \\ -1 & -i }[/mm]  in ZSF
>  
> Ich schlage folgende Umformung vor (deine tut's aber
> auch):
>  
> [mm]i\cdot{}[/mm] 1.Zeile liefert:
>  
> [mm]\pmat{ 1 & i \\ -1 & -i }[/mm] Nun 1.Zeile zur 2.Zeile addieren
> ergibt
>  
> [mm]\pmat{ 1 & i \\ 0 & 0 }[/mm]
>  
> Hier kannst du nun zB. [mm]x_1[/mm] frei wählen, sagen wir [mm]x_1=t[/mm] mit
> [mm]t\in\IC[/mm]
>  
> Dann ist mit Zeile 1: [mm]t+ix_2=0\Rightarrow x_2=\frac{-t}{i}=\frac{(-t)(-i)}{i(-i)}=\frac{ti}{1}=ti[/mm]
>  
> Also ist der [mm]Kern\pmat{ -i & 1 \\ -1 & -i } =\langle \vektor{1\\i}\rangle[/mm]
>  
> Also ist ein Vektor aus dem [mm]Kern\pmat{ -i & 1 \\ -1 & -i }[/mm]
> der Gestalt: [mm]t\cdot{}\vektor{1\\i}[/mm]    
>
> Für t=1 erhalten wir den Eigenvektor aus der Musterlösung
> [mm]\vektor{1\\i}[/mm]
>  
>
>
>
> > > Berechne doch mal [mm]A\pmat{ 2 \\ 2 }.[/mm]  Und? Kommt ein
> > > Vielfaches von [mm]\pmat{ 2 \\ 2 }[/mm] heraus?
>  >  
> > Kein Vielfaches sonder 2x2 Matrix [notok]
>  
> Autsch, das Produkt einer [mm]2\times[/mm] 2-Matrix mit einer
> [mm]2\times[/mm] 1-Matrix gibt eine [mm]2\times[/mm] 1-Matrix!!!!
>  
> [mm]A\vektor{2\\2}=...=\vektor{2\\-2}[/mm] und das ist KEIN
> Vielfaches von [mm]\vektor{2\\2}[/mm]
>  
>
> Nun testen wir mal unseren "neuen" ;-) Eigenvektor:
>  
> [mm]A\vektor{1\\i}=\vektor{i\\-1}=i\cdot{}\vektor{1\\i}[/mm] also
> ein Vielfaches - puh ;-)
>  
>
>
>
>
>
> > Frage besteht noch:
>  >  
> > Wenn mir an dieser Stelle jemand den Zusammenhangder
> > "Ordnung" (ord) der Eigenvektoren und dem Rang erklären
> > könnte, was bedeutet die Ordnung (ord) genau?
>  
>
> Hm, den Ausdruck habe ich noch nie gehört?
>  Ist damit vllt. die Dimension des Eigenraumes zu dem
> entsprechenden Eigenwert gemeint?
>  
>
>
> Gruß
>  
> schachuzipus
>  


Bezug
                                        
Bezug
Diagonalisierbarkeit: Antwort
Status: (Antwort) fertig Status 
Datum: 20:21 Fr 03.08.2007
Autor: angela.h.b.


> Es geht in meiner letzten Frage um die Beziehung von
> algebr. Vielfachheit und die Dim. des Eigenraumes.
> Wenn man dann irgendwie die Rang-Gleichung aufstellt, kann
> man wohl auf Diagonalisierbarkeit schließen.

Hallo,

ich glaube, daß Du folgendens meinst:

Du hast eine Matrix A und ihr zerfallendes charakteristisches Polynom [mm] X_A(x)=(x-\lambda_1)^{p_1}*...*(x-\lambda_k)^{p_k}. [/mm]

Die algebraische Vielfalt der [mm] \lambda_i [/mm] beträgt hier [mm] p_i. [/mm]

Diagonalisierbar ist die Matrix, wenn die geometrische Vielfalt eines jeden Eigenvektors, also die Dimension  des entsprechenden Eigenraumes, gleich der algebraischen Vielfachheit ist. Dann hast Du nämlich eine Basis aus Eigenvektoren und kannst somit diagonalisieren.  Also ist die Matrix A einer Diagonalmatrix ähnlich.

Einer nxn-Matrix, welche n verschiedene (!) Eigenwerte hat, bleibt also überhaupt nichts anderes übrig als diagonalisierbar zu sein.

Gruß v. Angela


Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Eigenwerte"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
ev.vorhilfe.de
[ Startseite | Mitglieder | Impressum ]