Cayley Hamilton < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 15:18 Di 21.09.2004 | Autor: | Oche |
Hallo, kann mir einer den Satz von Cayley Hamilton erklären, bzw den beweis etwas verständlich machen. Zu zeigen ist ja, dass das char Polynom von einer quadratischen matrix A = 0 ist.
ich wäre dafür echt dankbar.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 18:52 Di 21.09.2004 | Autor: | Stefan |
Hallo Oche!
Wir können den Beweis morgen gerne zusammen durchgehen. Hast du den "Fischer"? Dann nehmen wir den Beweis aus diesem Buch. Hast du Interesse daran?
Um sich den Satz plausibel zu machen, nehmen wir mal an, dass $A$ diagonalisierbar ist. Dann gibt es eine Basis [mm] $\{x_1,\ldots,x_n\}$ [/mm] aus Eigenvektoren von $A$. Sei $X$ ein beliebiger Vektor. Dann lässt sich $x$ in der Form [mm] $\sum\limits_{i=1}^n \lambda_i x_i$ [/mm] darstellen. Aus
(*) [mm] $[CP(A)]x_i=0$ [/mm] für alle [mm] $i=1,\ldots,n$ [/mm] (beachte: $CP(A)$ ist eine Matrix!)
würde dann auch
$[CP(A)]x = [CP(A)] [mm] \left( \sum\limits_{i=1}^n \lambda_i x_i \right) [/mm] = [mm] \sum\limits_{i=1}^n \lambda_i [CP(A)]x_i [/mm] = 0$
folgen, also (da $x$ beliebig war):
$CP(A)=0$.
Zu zeigen bleibt also (*). Es gilt aber, wenn [mm] $\lambda_i$ [/mm] der Eigenwert von [mm] $x_i$ [/mm] ist:
[mm] $[CP(A)]x_i [/mm] = [mm] [CP(\lambda_i)] \cdot x_i [/mm] = 0$ (ist dir klar, dass [mm] $[CP(A)]x_i [/mm] = [mm] [CP(\lambda_i)] \cdot x_i$ [/mm] gilt?)
wegen [mm] $CP(\lambda_i)=0$ [/mm] (die Eigenwerte sind ja gerade die Nullstellen des charakteristischen Polynoms).
Für diagonalisierbare Matrizen ist der Beweis also einfach zu führen. Er gilt aber für beliebige Matrizen, und dies ist nicht mehr so einfach zu zeigen. Das ist die Aussage des Satzes von Cayley-Hamilton. Morgen mehr dazu, wenn du magst (melde dich dann bitte).
Melde dich auch, wenn du Fragen zu dem obigen Beweis für diagonalisierbare Matrizen hast.
Liebe Grüße
Stefan
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 19:53 Di 21.09.2004 | Autor: | Oche |
Hallo stefan,
ich würde sehr gerne mit dir den beweis durchgehen.allerdings bin ich morgen (mittwoch) leider den ganzen tag in münchen.
ich werde mir donnerstag den fischer aber einmal holen und den beweis mir anschauen. wenn du dann immer noch lust und natürlich zeit hast mir dabei zu helfen, wäre das super. ich habe einen beweis aus der uni, den wir wohl auch so lernen sollen, da ich diesen aber eventuell mündlich vortragen muss, müsste ich diesen auch bis ins kleinste verstehen. allerdings scheitere ich noch daran. wenn du magst schicke ich dir gerne einmal den beweis zu. als newbie kann ich dir aber leider keine dateien an deine email-adresse schicken.
also schonmal besten dank für dein Interesse und deine hilfe. ich bin für jeder form der hilfe dankbar.
melde dich, wenn du magst direkt an danmarburger@aol.com , das bin ich.
danke und schönen abend, tag ...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 19:59 Di 21.09.2004 | Autor: | Stefan |
Hallo!
Mit Trottel fällt gerade ein, dass ich morgen eh nicht da bin. Erst muss ich bei der Kölner-Rückversicherung vortragen, und dann bin ich auf einem Kolloquium.
Naja, umso besser, dass du auch nicht kannst.
Schicke mir den Beweis einfach per Email, ich schaue ihn mir dann am Donnerstag an und wir gehen ihn dann zusammen am Donnerstag oder Freitag in Ruhe durch. Es ist besser euren Beweis zu nehmen als den im Fischer, klar.
Liebe Grüße
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 13:00 So 26.09.2004 | Autor: | Micha |
Hallo Stefan!
Kannst du bitte noch angeben, wo sich der Beweis im Fischer (ich habe die 14. Auflage hier) befindet? Kapitel oder sowas?
Das wäre sehr lieb, weil ich zu dumm bin das zu finden irgendwie, lol.
Gruß Micha
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:16 So 26.09.2004 | Autor: | Stefan |
Lieber Micha!
In meiner 11. Auflage steht er auf Seite 241 (Kapitel 4: Eigenwerte, Abschnitt 4.5: Potenzen eines Endomorphismus, 4.5.3).
Aber vielleicht ist es ja in der 14. Auflage rausgenommen worden (ich habe eh gehört, dass die 14. Auflage ziemlich schlecht sein soll, da sich zahlreiche Fehler eingeschlichen haben, die seltsamerweise in den alten Auflagen vorher nicht vorhanden waren).
Liebe Grüße
Stefan
|
|
|
|
|
Hallo Oche!
Da ich heute Vordiplom in LA hatte, und diesen Satz nicht beweisen musste werde ich das mal spontan hier versuchen
Was man für den Beweis, wie wir ihn in der Vorlesung behandelt haben braucht, sind folgende Sätze:
1) Jede komplexe $nxn$ Matrix ist ähnlich zu einer oberen Dreiecksmatrix
2) für $p [mm] \in \IK[\lambda], [/mm] A [mm] \in GL_n(\IK)$ [/mm] und $C [mm] \in M_n(\IK)$ [/mm] gilt: [mm] $p(A^{-1}CA)=A^{-1}p(C)A$
[/mm]
Also gut. Zu zeigen ist: [mm] $\chi_C(C)=0$ [/mm] für $C [mm] \in M_n(\IK)$.
[/mm]
Nach 1) ist $C$ ähnlich zu einer oberen Dreiecksmatrix $D$, also [mm] $C=A^{-1}DA$, [/mm] wobei $D$ dann von der Form [mm] $D=\pmat{d_1 & \* & \* \\ 0 & \ddots & \* \\ 0 & 0 & d_n}$ [/mm] ist.
Und weil nach 2) [mm] $\chi_C(C)=\chi_C(A^{-1}DA)=A^{-1}\chi_C(D)A$ [/mm] gilt, genügt es, die Behauptung für obere Dreiecksmatrizen zu beweisen.
Man kann also annehmen, dass die Matrix in der Form
[mm] $D=\pmat{d_1 & \* & \* \\ 0 & \ddots & \* \\ 0 & 0 & d_n}$ [/mm] vorliegt.
Das charakteristische Polynom ist dann von der Form
[mm] $\chi_D(\lambda)=(d_1-\lambda)\ctimes(d_2-\lambda)\ctimes\cdots(d_n-\lambda)$
[/mm]
bzw.
[mm] $\chi_D(D)=(d_1E-D)\ctimes(d_2E-D)\ctimes\cdots(d_nE-D)$
[/mm]
Jetzt kann man per Induktion zeigen, dass die ersten $k$ Spalten der Matrix [mm] $(d_1E-D)\ctimes\cdots\ctimes(d_kE-D)$ [/mm] Nullspalten sind, also [mm] $(d_1E-D)\ctimes\cdots\ctimes(d_kE-D)$ [/mm] = [mm] $\pmat{0 & 0 & \* \\ 0 & 0 & \* \\ 0 & 0 & d_n}$. [/mm] Für $k=n$ ergibt sich dann die Behauptung.
Dies lässt sich auch so ausdrücken
(*) [mm] $(d_1E-D)\ctimes\cdots\ctimes(d_kE-D)e_i=0$ [/mm] für [mm] $i=1,\cdots,k$.
[/mm]
und ist zugleich unsere Induktionsannahme.
Induktionsbeweis
Induktionsanfang:
$k=1$: [mm] $(d_1E-D)=\pmat{d_1 & 0 & 0 \\ 0 & d_1 & 0 \\ 0 & 0 & d_1}-\pmat{d_1 & \* & \* \\ 0 & \ddots & \* \\ 0 & 0 & d_n}=\pmat{0 & \* & \* \\ 0 & d_1-d_2 & \* \\ 0 & 0 & \ddots}$.
[/mm]
Induktionssschritt:
$k [mm] \to [/mm] k+1$: für $i=k+1$ ist [mm] $(d_{k+1}E-D)e_{k+1}=\pmat{d_{k+1}-d_1 & \* & \* & \* \\ 0 & \ddots & \* & \* \\ 0 & 0 & d_{k+1}-d_{k+1} & \* \\ 0 & 0 & 0 & \ddots}e_{k+1}=\vektor{\* \\ \* \\ 0 \\ 0}$.
[/mm]
Das heißt, die ${k+1}$te Spalte hat die Form [mm] $\vektor{\* \\ \* \\ 0 \\ 0}$ [/mm] und lässt sich somit als Linearkombination der [mm] $e_i$s, $i=1\cdots [/mm] k$ schreiben: [mm] $\vektor{\* \\ \* \\ 0 \\ 0} [/mm] = [mm] \summe_{i=1}^{k}a_ie_i$. [/mm] Nun ist ja nach (*)
[mm] $(d_1E-D)\ctimes\cdots\ctimes(d_kE-D)(d_{k+1}E-D)e_{k+1}=(d_1E-D)\cdots\ctimes\cdots(d_kE-D)\summe_{i=1}^{k}a_ie_i=0$
[/mm]
und somit der Satz bewiesen.
Ich hoffe dass ich dir damit helfen konnte bzw. dass der Beweis so "durchgeht"
Viele Grüße,
Steffen
|
|
|
|