Vielfachheiten Geo u. Algebr. < Abbildungen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 21:20 Di 17.04.2018 | Autor: | Takota |
Hallo,
anbei ein Link in dem u.a. der Satz (Seite 6, links unten) steht:
Satz (a) "Die geometrische Vielfachheit eines Eigenwerts ist stets kleiner oder gleich der algebraischen Vielfachheit."
und
Zur symmetrischen Matrix
Satz (c), Seite 8 rechts unten: "Für jeden Eigenwert von A ist die geometrische Vielfachheit gleich der algebraischen Vielfachheit."
bewiesen wird.
Meine Fragen:
Zu (a). Mir ist es nicht ganz ersichtlich im Beweis, warum die algebraische Vielfachheit von [mm] \lambda [/mm] 'mindestens' der geometrischen Vielfachheit ist - es geht mir hier um das mindestens ?
Zu (c). Hier ist mir die Begründung am Schluß nicht ganz klar: "Dies widerspricht aber der Voraussetzung.....usw."
Könnte mir bitte jemand mir das mit anderen Worten vielleicht erklären?
LINK:
https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=3&ved=0ahUKEwjT4vjd_cHaAhUBIsAKHazgA6IQFgg8MAI&url=http%3A%2F%2Fhilbert.math.uni-mannheim.de%2F~seiler%2FMI11%2FAnhang.pdf&usg=AOvVaw16HC5DTh5ooAQ7LLgWlcEO
LG
Takota
|
|
|
|
Hiho,
> Meine Fragen:
> Zu (a). Mir ist es nicht ganz ersichtlich im Beweis,
> warum die algebraische Vielfachheit von [mm]\lambda[/mm]
> 'mindestens' der geometrischen Vielfachheit ist - es geht
> mir hier um das mindestens ?
Es wird angenommen, dass die geometrische Vielfachheit von [mm] $\lambda$ [/mm] gleich $r [mm] \in \IN$ [/mm] ist.
Dann wird gezeigt, dass das charakteristische Polynom der Ausgangsmatrix die Form [mm] $(\lambda [/mm] - [mm] x)^r*K$ [/mm] mit $K = [mm] \text{det}(C [/mm] - [mm] xE_{n-r})$
[/mm]
Die Frage ist nun: Wie groß ist die algebraische Vielfachheit von [mm] $\lambda$, [/mm] d.h. die maximale Potenz $n [mm] \in \IN$ [/mm] so dass [mm] $(\lambda [/mm] - [mm] x)^n$ [/mm] das charakteristische Polynom teilt, also: Was ist das höchste $n [mm] \in \IN$ [/mm] so dass [mm] $(\lambda [/mm] - [mm] x)^n \big| (\lambda [/mm] - [mm] x)^r*K$ [/mm] gilt.
Offensichtlich teilt [mm] $(\lambda [/mm] - [mm] x)^r$ [/mm] das charakteristische Polynom, aber wenn bspw. auch $K$ durch [mm] $(\lambda [/mm] - x)$ teilbar wäre, würde schon sofort folgen, dass [mm] $(\lambda [/mm] - [mm] x)^{r+1} \big| (\lambda [/mm] - [mm] x)^r*K$
[/mm]
Und damit wäre die algebraische Vielfachheit schon mindestens $r+1$.
Zusammengefasst lässt sich also sagen: Ist [mm] $(\lambda [/mm] -x)$ auch Teiler von $K = [mm] \text{det}(C [/mm] - [mm] xE_{n-r})$, [/mm] so ist die algebraische Vielfachheit echt größer als die geometrische.
> Zu (c). Hier ist mir die Begründung am Schluß nicht ganz
> klar: "Dies widerspricht aber der Voraussetzung.....usw."
Die Beweisidee mal von hinten aufgerollt:
Wir betrachten zu Beginn ja eine Basis [mm] $b_1,\ldots,b_r$ [/mm] des Eigenraums zu [mm] $\lambda$, [/mm] d.h. eine maximale linear unabhängige Menge von Vektoren.
Das bedeutet insbesondere: Es gibt keinen weiteren zu den [mm] $b_1,\ldots,b_r$ [/mm] linear unabhängigen Vektor im Eigenraum, da unsere Menge sonst nicht maximal wäre.
Nun wird in dem Beweis unter Annahme, die algebraische Vielfachheit sei echt größer als die geometrische, einfach ein Vektor $v = [mm] \vektor{0 \\ \vdots \\ 0 \\ w_{r-1} \\ \vdots \\ w_n}$ [/mm] konstruiert, der im Eigenraum liegt und linear unabhängig zu [mm] $b_1,\ldots,b_r$ [/mm] ist.
Das ist aber ein Widerspruch zu obigem, dass die Basis des Eigenraums eine maximale linear unabhängige Menge von Vektoren ist.
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 19:13 Mi 18.04.2018 | Autor: | Takota |
Hall Gono,
danke für die Rückmeldung.
Zu (c):
1) Wie kommst Du auf die Bedingung: "... maximale linear unabhängige Menge..." ?
2) Im Pinzip haben ja (a) und (c) am Ende die gleiche Aussage: det(C-xE) = [mm] (\lambda [/mm] - [mm] x)^r [/mm] det(M-xEn-r ) ;
K = det(M-xEn-r )
Für K war es legitim anzunehmen, das [mm] \lambda [/mm] ein Eigenwert auch von M sein darf, aber bei (c) führt das zu einem Widerspruch, warum bei (a) nicht?
Hängt das mit den Matrizen (Symmetrisch oder nicht) zusammen? Seite 9, links unten, im PDF steht was über eine zusätzliche Annahme, was für eine Annahme ist da gemeint?
LG
Taktoa
|
|
|
|
|
Hiho,
> 1) Wie kommst Du auf die Bedingung: "... maximale linear
> unabhängige Menge..." ?
Die [mm] $b_1,\ldots,b_r$ [/mm] bilden eine Basis des Eigenraums. Jetzt solltest du den Begriff einer Basis nochmal nachschlagen, denn eine Basis ist "eine maximale linear unabhängige Menge…"
> 2) Im Pinzip haben ja (a) und (c) am Ende die gleiche
> Aussage: det(C-xE) = [mm](\lambda[/mm] - [mm]x)^r[/mm] det(M-xEn-r ) ;
Wobei es bei c) nach der Aussage noch weiter geht!
In beiden Fällen wird mit dieser Aussage gezeigt, dass die algebraische Vielfachheit größer gleich $r [mm] \in \IN$ [/mm] ist.
In c) geht es aber noch weiter, dort zeigt man dann, dass die algebraische Vielfachheit nicht echt größer als $r [mm] \in \IN$ [/mm] sein kann. Damit ist die dann genau r.
> Für K war es legitim anzunehmen, das [mm]\lambda[/mm] ein Eigenwert
> auch von M sein darf, aber bei (c) führt das zu einem
> Widerspruch, warum bei (a) nicht?
Und jetzt schau dir mal die Form von C in beiden Fällen genau an, insbesondere der Block über der Matrix M!
Im Fall von c) besteht der außschließlich aus Nullen, wobei der im Fall von a) beliebig ist! Und ja, das hängt mit der zusätzlichen Annahme zusammen.
Und aufgrund dieser besonderen Form folgt eben sofort das auf Seite 11 unten stehende, dass für jeden Eigenvektor [mm] $\omega$ [/mm] von M der "oben" mit Nullen aufgefüllte Vektor $v = [mm] \vektor{ 0 \\ \vdots \\ 0 \\ \omega}$ [/mm] ein Eigenvektor von C ist.
Im Fall von a) muss $v$ eben kein Eigenvektor von C sein!
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 10:38 Do 19.04.2018 | Autor: | Takota |
Hallo Gono,
wenn ich es richtig verstehe, ist der Knackpunkt hier, die Frage, ob der Eigenvektor aus der Matrix "m" lin. unab. zu den Basisvektoren des Eigenraums von [mm] \lambda [/mm] ist?
Dazu habe ich mal ein kleines Bsp. skizziert, wie ich mir das gerade vorstelle:
Zu (a):
[mm] \begin{pmatrix}
\lambda & 0 & 0 & 0 \\
0 & \lambda & 0 & 0 \\
0 & 0 & \lambda & 0 \\
0 & 0 & 0 & w4 \\
0 & 0 & 0 & w5 \\
\end{pmatrix} [/mm] = [mm] \begin{pmatrix} 0 \\ 0\\ 0 \\ 0 \\ 0\end{pmatrix} \gdw \begin{pmatrix}
\lambda & 0 & 0 & 0 \\
0 & \lambda & 0 & 0 \\
0 & 0 & \lambda & 0 \\
0 & 0 & 0 & w4 \\
0 & 0 & 0 & 0 \\
\end{pmatrix} [/mm] = [mm] \begin{pmatrix} 0 \\ 0\\ 0 \\ 0 \\ 0\end{pmatrix} \Rightarrow j_{1}= j_{2}= j_{3}= j_{4}= j_{5}=0 [/mm] ; d.h., alle Linearfaktoren [mm] j_i [/mm] sind Null. Somit sind alle Eigenvektoren lin. unabhängig.
Zu (b)
[mm] \begin{pmatrix}
\lambda & 0 & 0 & a \\
0 & \lambda & 0 & b \\
0 & 0 & \lambda & c \\
0 & 0 & 0 & w4 \\
0 & 0 & 0 & w5 \\
\end{pmatrix} [/mm] = [mm] \begin{pmatrix} 0 \\ 0\\ 0 \\ 0 \\ 0\end{pmatrix} \gdw \begin{pmatrix}
\lambda & 0 & 0 &a \\
0 & \lambda & 0 & b \\
0 & 0 & \lambda & c \\
0 & 0 & 0 & w4 \\
0 & 0 & 0 & 0 \\
\end{pmatrix} [/mm] = [mm] \begin{pmatrix} 0 \\ 0\\ 0 \\ 0 \\ 0\end{pmatrix} \Rightarrow j_{1}= j_{2}= j_{3}= j_{4}= j_{5}=0 [/mm] ; d.h., alle Linearfaktoren [mm] j_i [/mm] sind Null. Somit sind alle Eigenvektoren lin. unabhängig.
Also kommt das gleiche raus, das kann ja aber nicht sein. Ich vermute, das der Eigenvektor, so wie ich ihn konstruiert habe nicht stimmt?
[mm] \vektor{a \\ b \\ c \\ w4 \\ w5 }
[/mm]
LG
Takota
|
|
|
|
|
Hiho,
> wenn ich es richtig verstehe, ist der Knackpunkt hier, die
> Frage, ob der Eigenvektor aus der Matrix "m" lin. unab. zu
> den Basisvektoren des Eigenraums von [mm]\lambda[/mm] ist?
Du meinst das richtige, die Formulierung ist aber falsch.
Der Eigenvektor von M hat natürlich eine andere Dimension als die Basisvektoren des Eigenraums, da die Matrix M von der Form $(n-r) [mm] \times [/mm] (n-r)$ ist.
Wenn du oben "m" durch "den oben mit Nullen aufgefüllten Eigenvektor aus der Matrix M" ersetzt, dann stimmt es.
So hast du es unten ja auch dann verwendet..
> Dazu habe ich mal ein kleines Bsp. skizziert, wie ich mir
> das gerade vorstelle:
> Also kommt das gleiche raus, das kann ja aber nicht sein.
Doch.
> Ich vermute, das der Eigenvektor, so wie ich ihn
> konstruiert habe nicht stimmt?
>
> [mm]\vektor{a \\ b \\ c \\ w4 \\ w5 }[/mm]
Doch, der Knackpunkt ist aber ein kleines bisschen anders.
Was du jetzt gezeigt hast: Gibt es einen Eigenvektor $w$ von M, so ist $v = [mm] \vektor{0 \\ \vdots \\ 0 \\ w}$ [/mm] linear unabhängig von den Basisvektoren des Eigenraums [mm] $b_1,\ldots,b_r$.
[/mm]
Das stimmt tatsächlich immer… der Knackpunkt ist, ob $v$ selbst auch ein Eigenvektor von C ist(!) und damit im Eigenraum liegt(!) und damit eine Linearkombination von [mm] $b_1,\ldots,b_r$ [/mm] sein müsste (da das eine Basis des Eigenraums ist!).
Und das ist tatsächlich nur dann der Fall, wenn A resp. C symmetrisch / hermitisch ist!
Denn:
Im symmetrischen Fall haben wir ja
$C = [mm] \pmat [/mm] { [mm] \lambda [/mm] & 0 & [mm] \ldots [/mm] & 0 & 0 [mm] &\ldots [/mm] & 0 [mm] \\ [/mm] 0 & [mm] \lambda [/mm] & [mm] \ldots [/mm] & 0 & 0 [mm] &\ldots [/mm] & 0 [mm] \\ \vdots [/mm] & [mm] \; [/mm] & [mm] \ddots [/mm] & [mm] \; [/mm] & [mm] \vdots [/mm] & [mm] \ddots [/mm] & [mm] \vdots \\ [/mm] 0 & 0 & [mm] \ldots [/mm] & [mm] \lambda [/mm] & 0 & [mm] \ldots [/mm] & 0 [mm] \\ [/mm] 0 & 0 & [mm] \ldots [/mm] & 0 & [mm] \; [/mm] & & [mm] \; \\ \vdots [/mm] & [mm] \; [/mm] & [mm] \ddots [/mm] & [mm] \; [/mm] & & [mm] \big [/mm] M & [mm] \\ [/mm] 0 & 0 & [mm] \ldots [/mm] & 0 & & & }$
Und damit ist $Cv = [mm] C\vektor{0 \\ \vdots \\ 0 \\ w} [/mm] = [mm] \vektor{0 \\ \vdots \\ 0 \\ Mw} [/mm] = [mm] \vektor{0 \\ \vdots \\ 0 \\ w} [/mm] = v$
d.h. v ist ein Eigenvektor von C.
Im NICHT-symmetrischen Fall steht da aber bspw. sowas wie:
$C = [mm] \pmat [/mm] { [mm] \lambda [/mm] & 0 & [mm] \ldots [/mm] & 0 & [mm] a_{r+1} &\ldots [/mm] & [mm] a_n \\ [/mm] 0 & [mm] \lambda [/mm] & [mm] \ldots [/mm] & 0 & [mm] b_{r+1} &\ldots [/mm] & [mm] b_{n} \\ \vdots [/mm] & [mm] \; [/mm] & [mm] \ddots [/mm] & [mm] \; [/mm] & [mm] \vdots [/mm] & [mm] \ddots [/mm] & [mm] \vdots \\ [/mm] 0 & 0 & [mm] \ldots [/mm] & [mm] \lambda [/mm] & [mm] c_{r+1}&\ldots [/mm] & [mm] c_{n} \\ [/mm] 0 & 0 & [mm] \ldots [/mm] & 0 & [mm] \; [/mm] & & [mm] \; \\ \vdots [/mm] & [mm] \; [/mm] & [mm] \ddots [/mm] & [mm] \; [/mm] & & [mm] \big [/mm] M & [mm] \\ [/mm] 0 & 0 & [mm] \ldots [/mm] & 0 & & & }$
Und damit wäre:
$Cv = [mm] C\vektor{0 \\ \vdots \\ 0 \\ w} [/mm] = [mm] \vektor{\sum\limits_{k=r+1}^n a_kw_k \\ \vdots \\ \sum\limits_{k=r+1}^n c_kw_k \\ Mw} [/mm] = [mm] \vektor{\sum\limits_{k=r+1}^n a_kw_k \\ \vdots \\ \sum\limits_{k=r+1}^n c_kw_k \\ w} \not= [/mm] v$
|
|
|
|