hauptraum -neu- < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
edit: also ich versuch das problem noch zu präzisieren.
wir haben das lemma von fitting:
sei G [mm] \in [/mm] End(V)
d := min{l mit [mm] kerG^{l} [/mm] = [mm] kerG^{l+1} [/mm] }
r := [mm] \mu(P_{G}, [/mm] 0) (vielfachheit)
dann gilt:
d = min{l mit [mm] imG^{l}=imG^{l+1} [/mm] }
[mm] kerG^{d+i}=kerG^{d} [/mm] und [mm] imG^{d+i}=imG^{d} [/mm] für alle i [mm] \in \IN
[/mm]
[mm] kerG^{d}=U [/mm] und [mm] imG^{d}=W [/mm] sind G-invariant
[mm] (G|U)^{d}=0 [/mm] und G|W:W->W ist isomorph
das minimalpolynom von G|U ist [mm] t^{d}
[/mm]
V=U [mm] \oplus [/mm] W mit dimU=r [mm] \ge [/mm] d und dimW=n-r
so, jetzt haben wir ein F [mm] \in [/mm] End(V) mit [mm] P_{F}=(t [/mm] - [mm] \lambda_{1})^{r_{1}}...(t [/mm] - [mm] \lambda_{k})^{r_{k}} [/mm] mit paarweise versch. EW [mm] \lambda_{1}...\lambda_{k}.
[/mm]
wir def. G:=(F - [mm] \lambda [/mm] id) zu einem EW [mm] \lambda [/mm] mit der vielfachheit r. ich weiß, dass [mm] \mu(P_{G}, [/mm] 0)=r. folgt daraus schon, dass [mm] V=kerG^{r} \oplus [/mm] W und [mm] kerG^{r} [/mm] und W F-invariant, da G-invariant.
wenn nicht, wie kann ich zeigen, dass r=min{l mit [mm] kerG^{l}=kerG^{l+1} [/mm] }
bin verwirrt...
noch genauer siehe mitteilung
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:48 Fr 25.03.2005 | Autor: | calabi-yau |
ok ich werde die frage jetzt vollkommen präzisieren:
es soll gezeigt werden:
sei F [mm] \in End_{K}(V) [/mm] und [mm] P_{F}=(\lambda_{1}-t)^{r_{1}} [/mm] ... [mm] (\lambda_{k}-t)^{r_{k}} [/mm] das char. polynom. die lambdas sin paarweise verschieden. [mm] V_{i}=ker(F [/mm] - [mm] \lambda_{i} id)^{r_{i}}
[/mm]
dann gilt:
1) [mm] F(V_{i}) \subseteq V_{i}
[/mm]
2) [mm] V=V_{1} \oplus [/mm] ... [mm] \oplus V_{k}
[/mm]
...
dann haben wir das lemma von fitting (siehe oben).
dann heißt es:
beweis durch induktion über k [mm] \ge [/mm] 1. zu einem EW [mm] \lambda [/mm] (genauer 1, ich lass die 1 aber hier immer weg) definieren wir: G:=(F - [mm] \lambda [/mm] id).
dann ist: [mm] \mu(P_{G}, 0)=\mu(P_{F}, \lambda)=r.
[/mm]
das ist mir noch klar. dann kommt aber:
nach dem lemma von fitting gilt jetzt: V = [mm] kerG^{r} \oplus [/mm] W ...
aber ich seh nicht warum, steh ich auf dem schlauch?
|
|
|
|
|
Grüße!
Laß Dich nicht von der Notation abschrecken... eigentlich ist das gar nicht so schwierig.
Das Lemma von Fitting sagt (unter anderem), dass gegeben ein Endomorphismus $G$ eines endlich dimensionalen Vektorraumes ein $r [mm] \in \IN$ [/mm] existiert mit $ker [mm] \; G^r [/mm] = ker [mm] \; G^k$ [/mm] für alle $k [mm] \geq [/mm] r$. Weiter kann man dann den Vektorraum in zwei $G$-invariante Unterräume zerlegen, wobei der eine Teil gerade obiger Kern ist, dass $G$ ist darauf eingeschränkt also nilpotent. Auf dem anderen Teil ist es bijektiv.
Und das benutzt man jetzt zur Klassifikation von Endomorphismen $F$, deren charakteristisches Polynom in Linearfaktoren zerfällt. Man greift sich einen Eigenwert [mm] $\lambda$ [/mm] von $F$ heraus und betrachtet dann $G = (F - [mm] \lambda \; [/mm] id)$. Der Eigenraum zu [mm] $\lambda$ [/mm] ist nach Konstruktion der Kern von $G$ - aber wenn $F$ nicht diagonalisierbar ist, dann reicht die Summe der Eigenräume nicht aus, um ganz $V$ zu erhalten. Also kommt man auf die Idee, nicht nur den Kern von $G$ zu betrachten, sondern $G$ mehrfach anzuwenden und sich den Teil herauszugreifen, auf dem das $G$ nilpotent ist (also "irgendwann" mal 0 wird). Das nennt man dann "Hauptraum zu [mm] $\lambda$".
[/mm]
Das Lemma von Fitting liefert jetzt, dass diese Haupträume alle $G$, also auch $F$-invariant sind ($F$ und $G$ unterscheiden sich ja nur durch Addition des Vielfachen eines Vektors!) und in der direkten Summe ganz $V$ bilden (das folgt mit Induktion).
Um es klarer zu machen: das $ker [mm] \; G^r$ [/mm] aus dem Beweis ist das $U$ aus dem Lemma von Fitting.
Der Clou ist einfach, dass nilpotente Endomorphismen klassifiziert sind und man jetzt das $V$ in handliche Häppchen (die Haupträume) zerlegt und darauf durch leichte Modifikation das $F$ nilpotent bekommt, also schöne Basen dieser Haupträume findet. Und schon erhält man die Jordansche Normalform.
Alles klar? Ungefähr?
Lars
|
|
|
|
|
danke mal für die antwort, aber leider hilft sie mir nicht weiter, denn das ist mir alles klar. aber bevor ich das lemma von fitting anwenden kann, muss ich wissen, dass r=min{l: [mm] kerG^{l}=kerG^{l+1} [/mm] } mit G=(F - [mm] \lambda [/mm] id) und r= [mm] \mu(P_{F}, \lambda)= \mu(P_{G}, [/mm] 0). das ist mir nämlich a priori nicht klar.
ich habe schon gezeigt das [mm] kerG^{r}=kerG^{r+1}.
[/mm]
beweis: [mm] \subseteq [/mm] ist klar
sei also [mm] G^{r+1}(v)=0 [/mm] dann ist zu zeigen, dass [mm] G^{r}(v)=0
[/mm]
es gilt: [mm] P_{G}=t^{r}Q [/mm] und Q [mm] \in [/mm] K[t] und Q(0) [mm] \not= [/mm] 0
und: [mm] P_{G}(G)=0 [/mm] nach cayley-hamilton
also: 0 = [mm] G^{r}Q(G)
[/mm]
dabei muss Q von der form sein: [mm] Q(G)=a_{m}G^{m}...a_{0}id_{V} [/mm] mit m=n-r und [mm] a_{0} \not= [/mm] 0
insgesamt muss für alle v [mm] \in kerG^{r+1} [/mm] gelten:
[mm] Q(G)(G^{r}(v))=0
[/mm]
also: [mm] a_{0}G^{r}(v)=0
[/mm]
[mm] =>G^{r}(v)=0 [/mm] für alle v [mm] \in kerG^{r+1}
[/mm]
um das lemma von fitting anwenden zu können, muss man noch zeigen:
[mm] \forall [/mm] i [mm] \in [/mm] {1,...,r-1}: [mm] kerG^{i} \not= kerG^{i+1}
[/mm]
dazu genügt es zu zeigen (wieder für alle i): [mm] \exists [/mm] v [mm] \in kerG^{i+1} [/mm] mit [mm] G^{i}(v) \not= [/mm] 0
ich müsste nur wissen, wie der beweis für ein i geht, für die anderen müsste er analog gehen, aber ich komm einfach nicht drauf...
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 18:15 Mo 28.03.2005 | Autor: | mjp |
Hallo.
> danke mal für die antwort, aber leider hilft sie mir nicht
> weiter, denn das ist mir alles klar. aber bevor ich das
> lemma von fitting anwenden kann, muss ich wissen, dass
> r=min{l: [mm] kerG^{l}=kerG^{l+1} [/mm] } mit G=(F - [mm]\lambda[/mm] id) und
> r= [mm]\mu(P_{F}, \lambda)= \mu(P_{G},[/mm] 0). das ist mir nämlich
> a priori nicht klar.
Dann setzen wir doch mal hier an.
Fuer ein [mm]\varphi \in End(V)[/mm] und dim V =n gilt:
[mm]{0} \subseteq Kern\varphi \subseteq Kern\varphi^2...[/mm]
[mm]V \supseteq \varphi(V) \supseteq \varphi^{2}(V)...[/mm]
Fuer ein [mm]v \in Kern\varphi^{j}[/mm] ist [mm]\varphi^{j}(v) = 0[/mm]
=> [mm]\varphi^{j+1}(v) = \varphi(\varphi^{j}(v)) = \varphi(0) = 0[/mm]
Nimmt man jetzt an, dass [mm]Kern \varphi^{j} = Kern \varphi^{j+1}[/mm] ist, folgt , dass
[mm]Kern \varphi^{j+k} = Kern \varphi^{j}[/mm] ist.
Die Inklusionsbeziehung [mm]Kern \varphi^{j} \subset Kern \varphi^{j+1}[/mm] kann aus Dimensionsgruenden
ja hoechstens n (bzw. dim(!)) mal in der obigen Kette der Kerne auftauchen.
Sehr aehnlich fuer die andere Kette.
Eine Annahme, die dem hier
r=min{l: [mm] kerG^{l}=kerG^{l+1} [/mm] }
widerspricht, fuehrt dimensionstechnisch relativ schnell zu einem Widerspruch zu
den Aussagen des Satzes ueber die Hauptzerlegung.
> um das lemma von fitting anwenden zu können, muss man noch zeigen:
> [mm] \forall [/mm] i [mm] \in [/mm] {1,...,r-1}: [mm] kerG^{i} \not= kerG^{i+1}
[/mm]
> dazu genügt es zu zeigen (wieder für alle i): [mm] \exists [/mm] v [mm] \in kerG^{i+1} [/mm] mit [mm] G^{i}(v) \not= [/mm] 0
> ich müsste nur wissen, wie der beweis für ein i geht, für die anderen müsste er analog gehen, aber ich komm einfach nicht drauf...
Wir haben ja Linearfaktoren.
Angenommen, es sei [mm] P_{F} [/mm] = (x-[mm]\lambda[/mm][mm] )^k
[/mm]
G=(F - [mm]\lambda[/mm] id)
=> G hat das Minimalpolynom [mm] x^k [/mm] mit EW = 0.
=> Der Eigenraum [mm]E_G(0)[/mm] ist eindimensional.
Ich hoffe, es war etwas dabei, das Dir nuetzt.
Gruss,
Monika.
|
|
|
|
|
hi!
zu 1) leider will ich mit dem lemma den zerlegungssatz beweisen, ihn also anzuwenden (wegen dem WID) wäre deshalb nicht ratsam.
zu 2) hmm, ich kann damit nicht wirklich was anfangen. weißt du wie man das beweisen kann? ich bin inzwischen an einem punkt angekommen, bei dem mir eine lösung ganz gut tun würde.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:37 Di 29.03.2005 | Autor: | mjp |
Hallo.
> zu 1) leider will ich mit dem lemma den zerlegungssatz
> beweisen, ihn also anzuwenden (wegen dem WID) wäre deshalb
> nicht ratsam.
Ok, das sehe ich ein.
Entschuldige, da war ich etwas unaufmerksam.
Da ich gestehen muss, dass ich mir immer noch nicht ganz sicher bin,
ob ich Dein Problem richtig erfasse, kann ich nur hoffen, dass ich
mit Folgendem richtig liege.
Du schriebst:
> um das lemma von fitting anwenden zu können, muss man noch zeigen:
> [mm] \forall [/mm] i [mm] \in [/mm] {1,...,r-1}: [mm] kerG^{i} \not= kerG^{i+1}
[/mm]
> dazu genügt es zu zeigen (wieder für alle i): [mm] \exists [/mm] v [mm] \in kerG^{i+1} [/mm] mit [mm] G^{i}(v) \not= [/mm] 0
> ich müsste nur wissen, wie der beweis für ein i geht, für die anderen müsste er analog gehen,
> aber ich komm einfach nicht drauf...
Sei [mm] U_v [/mm] der kleinste G-invariante Unterraum von V (dim(V) = n), der v enthaelt.
Man kann zeigen:
1.) Hat [mm] P_G [/mm] den Grad k, so hat [mm] U_v [/mm] die Dimension [mm] \le [/mm] r
2.) Wenn zudem G nilpotent ist (was es ja ist) und die Dimension
von [mm] U_v [/mm] r ist, dann ist [mm](v, G(v), G^{2}(v),...,G^{r-1}(v))[/mm] eine
Basis von [mm] U_v [/mm] und [mm]G^{r}(v) = 0[/mm].
Es ist [mm] P_G [/mm] = [mm] \summe_{i=0}^{r}a_ix^i. [/mm] (normiertes Minimalpolynom)
[mm] P_G(G) [/mm] = 0, [mm] a^r [/mm] = 1
[mm] \summe_{i=1}^{r}a_iG^i [/mm] = 0
[mm]G^r = - \summe_{i=0}^{r-1}a_iG^i[/mm] und damit
[mm]G^r(v) = - \summe_{i=0}^{r-1}a_iG^i(v) := U[/mm]
was erzeugt wird von [mm](v, G(v), G^{2}(v),...,G^{r-1}(v))[/mm]
Vollstaendige Induktion liefert [mm]G^j(v) \in U[/mm] fuer alle j und
weil daher [mm]U_v \subseteq U[/mm] und [mm]U \subseteq U_v[/mm] ist [mm]U = U_v[/mm]
Sei [mm] U_v [/mm] = U und dim(U) = r.
Da G nilpotent, ist [mm] P_G [/mm] = [mm] x^n.
[/mm]
[mm] P_G|U [/mm] teilt [mm] P_G [/mm] und ist [mm] x^r.
[/mm]
Nach Cayley-Hamilton ist [mm] (G|U)^r [/mm] = 0 und [mm] G^j(v) [/mm] = [mm] (G|U)^j(v) [/mm] = 0
also [mm] G^j(v) [/mm] = 0 fuer alle j [mm] \ge [/mm] r und U wird erzeugt von
[mm](v, G(v), G^{2}(v),...,G^{r-1}(v))[/mm], was wegen dim(U) = r
also eine Basis von U ist.
Daher gilt: [mm] \forall [/mm] i [mm] \in [/mm] {1,...,r-1}: [mm] kerG^{i} \not= kerG^{i+1}
[/mm]
Gruss,
Monika.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 12:58 Mi 30.03.2005 | Autor: | calabi-yau |
G ist nicht nilpotent. mein problem war (steht oben), ist F [mm] \in [/mm] End(V) und sei das char(!) polynom von F [mm] P_{F}=(\lambda_{1} [/mm] - [mm] t)^{r_{1}}...(\lambda_{k} [/mm] - [mm] t)^{r_{k}} [/mm] mit paarweise versch. lambdas und sei G=F - [mm] \lambda [/mm] id für einen EW [mm] \lambda [/mm] mit der vielfachheit r in [mm] P_{F}, [/mm] so sei zu zeigen:
r=min{l: [mm] kerG^{l}=kerG^{l+1} [/mm] }
also:
1) [mm] kerG^{r}=kerG^{r+1}
[/mm]
2) [mm] kerG^{i} \not= kerG^{i+1} [/mm] für alle i [mm] \in [/mm] {1,...,r-1}
1) hab ich schon gezeigt
wäre hier G nilpotent, wäre zwangsweise [mm] kerG^{r}=V [/mm] also [mm] dimG^{r}=dimV [/mm] und die hauptraumszerlegung würde gar nicht mehr funktionieren...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:51 Mi 30.03.2005 | Autor: | mjp |
> G ist nicht nilpotent.
Eingeschraenkt auf den Teilraum ist es das.
> mein problem war (steht oben), ist F
> [mm]\in[/mm] End(V) und sei das char(!) polynom von F
> [mm]P_{F}=(\lambda_{1}[/mm] - [mm]t)^{r_{1}}...(\lambda_{k}[/mm] - [mm]t)^{r_{k}}[/mm]
> mit paarweise versch. lambdas und sei G=F - [mm]\lambda[/mm] id für
> einen EW [mm]\lambda[/mm] mit der vielfachheit r in [mm]P_{F},[/mm] so sei zu
> zeigen:
> r=min{l: [mm] kerG^{l}=kerG^{l+1} [/mm] }
> also:
> 1) [mm]kerG^{r}=kerG^{r+1}[/mm]
> 2) [mm]kerG^{i} \not= kerG^{i+1}[/mm] für alle i [mm]\in[/mm] {1,...,r-1}
>
> 1) hab ich schon gezeigt
>
> wäre hier G nilpotent, wäre zwangsweise [mm]kerG^{r}=V[/mm] also
> [mm]dimG^{r}=dimV[/mm] und die hauptraumszerlegung würde gar nicht
> mehr funktionieren...
Da es aber eingeschraenkt auf U nilpotent ist, ist quasi zwangsweise
[mm] ker(G^{r})=U.
[/mm]
Darauf wollte ich hinaus, jedoch...
Mir ist jetzt klar, wieso Dir das nicht einleuchtet.
Aussage 1) ist klar, das klappt.
Wenn jedoch r die Vielfachheit im charakteristischen Polynom
sein soll, dann ist:
a) r=min{l: [mm] kerG^{l}=kerG^{l+1}}
[/mm]
2) [mm]kerG^{i} \not= kerG^{i+1}[/mm] für alle i [mm]\in[/mm] {1,...,r-1}
...beides im Allgemeinen falsch.
Du bestimmst so die Vielfachheit im Minimalpolynom bei gegebenem
charakteristischen, nicht im charakteristischen.
Gegenbeispiel: F = diag(2,1,1,1) hat das charakteristische Polynom [mm] (x-1)^3*(x-2).
[/mm]
Nimmt man jetzt das G zum Eigenwert 1, dann ist bereits Kern(G) = [mm] Kern(G^2)
[/mm]
Und siehe da: Minimalpolynom von F ist (x-1)(x-2).
Gruss,
Monika.
|
|
|
|
|
oje ,oje, dann ist mir schon klar warum mich das so verwirrt, jetzt werd ich bald verrückt :(
ok dann letzter versuch, mein problem zu lösen, und ich versuch jetzt mein problem so authentisch wie möglich zu erklären, d.h. so gut wie keine vorüberlegungen:
ich hab hier mein buch. ich bin in diesem buch zu dem kapitel jordansche normalform gelangt. am anfang will der autor den satz über die hauptraumzerlegung beweisen (siehe mitteilung: fortsetzung). er fängt mit dem lemma von fitting an und beweist es (siehe hauptpost). dann will er den satz über die hauptraumzerlegung beweisen. der erste teil lautet 1:1:
Nun beweisen wir den satz über die hauptraumzerlegung durch induktion über die zahl k [mm] \ge [/mm] 1 der versch. EW. Zu [mm] \lambda_{1} [/mm] definieren wir [mm] G:=(F-\lambda_{1} id_{V}). [/mm] Dann ist
[mm] P_{G}(t-\lambda_{1})=P_{F}(t), [/mm] also [mm] \mu(P_{G}; 0)=\mu(P_{F}; \lambda_{1})=r_{1}
[/mm]
Nach Lemma von Fitting ist [mm] V=kerG^r_{1} \oplus [/mm] W und die beiden summanden sind wegen [mm] F=G+\lambda_{1} id_{V} [/mm] auch F-invariant. Weiter gilt
[mm] P_{F|W}= \pm (t-\lambda_{2})^{r_{2}} [/mm] ... [mm] (t-\lambda_{k})^{r_{k}}
[/mm]
also können wir auf F|W die induktionsannnahme anwenden, daraus folgen 1 und 2.
...
aber ich sehe nicht wo und wie ich das lemma von fitting hier anwenden kann um daraus weitere schlüsse zu ziehen. *seufz*
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:37 Mi 30.03.2005 | Autor: | mjp |
Hallo.
> oje ,oje, dann ist mir schon klar warum mich das so
> verwirrt, jetzt werd ich bald verrückt :(
Ist doch super, dass Dich das verwirrt hat.
Das bedeutet, dass mit Deiner Intuition alles stimmt.
Es tut mir leid, dass ich da nicht schon frueher drauf gekommen
bin, hab irgendwie ziemlich uebel gefiltert, was Du schriebst.
Aber verrueckt zu werden ist nicht gut.
Nicht aufgeben, das ist alles nicht so schwierig.
Fangen wir doch mal mit der Anschauung an, vielleicht kannst
Du es Dir dann besser vorstellen.
Sollte Dir das alles total klar sein, dann ueberlies es, ich will
Dich nicht irgendwie beleidigen.
Nimm mal dieses einfache Beispiel A:= Diag(2,1,1,1).
Die Eigenwerte sind ja 1 und 2.
[mm]\mu_A(x) = (x-1)(x-2)[/mm]
[mm]\chi_A(x) = (x-1)^3(x-2)[/mm]
Was passiert jetzt, wenn Du [mm]B:=(A - \lambda*I)[/mm]
betrachtest?
Fuer [mm]\lambda=1[/mm] hat der Eigenraum die Dimension 3,
fuer [mm]\lambda=2[/mm] die Dimension 1.
Es gibt also eine Eigenvektorbasis, die Matrix ist diagonalisierbar
(ist ja auch schon diagonal).
Wenn Du jetzt versuchst, die Potenzen der Bs zu bilden,
merkst Du, dass sich da nicht mehr viel veraendert.
Der Kern bleibt gleich.
Jetzt gibt es aber Matrizen, die nicht diagonalisierbar sind.
Was passiert da, wenn Du das obige machst?
Nehmen wir uns mal so eine:
[mm] \pmat{ 1 & 0 & 0 & 0 \\ 1 & 2 & 1 & 1 \\ 1 & 0 & 3 & 0 \\ 1 & 0 & 1 & 1}
[/mm]
[mm]\mu_A(x) = (x-1)^2(x-2)(x-3)[/mm]
[mm]\chi_A(x) = (x-1)^2(x-2)(x-3)[/mm]
Zum Eigenwert 1 erhalten wir:
[mm] \pmat{ 0 & 0 & 0 & 0 \\ 1 & 1 & 1 & 1 \\ 1 & 0 & 2 & 0 \\ 1 & 0 & 1 & 0}
[/mm]
Mit eindimensionalem Kern und damit auch eindimensionalem
Eigenraum.
Der Eigenwert ist also derart in die Abbildung "verstrickt", dass
er eine Diagonalisierung verunmoeglicht.
Bildet man [mm] B^2, [/mm] dann zeigt sich seine ganze "Wirkung".
> ok dann letzter versuch, mein problem zu lösen, und ich
> versuch jetzt mein problem so authentisch wie möglich zu
> erklären, d.h. so gut wie keine vorüberlegungen:
>
> ich hab hier mein buch. ich bin in diesem buch zu dem
> kapitel jordansche normalform gelangt. am anfang will der
> autor den satz über die hauptraumzerlegung beweisen (siehe
> mitteilung: fortsetzung). er fängt mit dem lemma von
> fitting an und beweist es (siehe hauptpost). dann will er
> den satz über die hauptraumzerlegung beweisen. der erste
> teil lautet 1:1:
> Nun beweisen wir den satz über die hauptraumzerlegung
> durch induktion über die zahl k [mm]\ge[/mm] 1 der versch. EW. Zu
> [mm]\lambda_{1}[/mm] definieren wir [mm]G:=(F-\lambda_{1} id_{V}).[/mm] Dann
> ist
> [mm]P_{G}(t-\lambda_{1})=P_{F}(t),[/mm] also [mm]\mu(P_{G}; 0)=\mu(P_{F}; \lambda_{1})=r_{1}[/mm]
> Nach Lemma von Fitting ist [mm]V=kerG^r_{1} \oplus[/mm] W und die
> beiden summanden sind wegen [mm]F=G+\lambda_{1} id_{V}[/mm] auch
> F-invariant. Weiter gilt
> [mm]P_{F|W}= \pm (t-\lambda_{2})^{r_{2}}[/mm] ...
> [mm](t-\lambda_{k})^{r_{k}}[/mm]
> also können wir auf F|W die induktionsannnahme anwenden,
> daraus folgen 1 und 2.
> ...
Es ist so (das fliesst da ein):
Seien [mm]f,g[/mm] teilerfremde Polynome und [mm]\varphi \in End(V)[/mm].
Dann ist [mm]U = Kern(f*g)(\varphi)=U_1 \oplus U_2[/mm] mit [mm]U_1 = Kern(f(\varphi))[/mm] und [mm]U_2 = Kern(g(\varphi))[/mm]
und beide[mm]\varphi[/mm]-invariant.
Das ist unter anderem auch eine Aussage des Lemmas von Fitting,
und das benutzt Du hier.
Was in dem Beweis jetzt gemacht wird, ist Folgendes:
Der Raum wird sukzessive in direkte Summanden zerlegt.
Du spaltest einen Faktor ab. Dieser ist klarerweise
teilerfremd zu dem Rest.
Nach Lemma von Fitting folgt jetzt, dass der Kern dieses
Faktors mit dem Kern des Restpolynoms eine direkte
Summenzerlegung des Raums bildet.
Im naechsten Schritt hast Du noch das Restpolynom.
[mm]P_{F|W}= \pm (t-\lambda_{2})^{r_{2}}[/mm]... [mm](t-\lambda_{k})^{r_{k}}[/mm]
Davon spaltest Du wieder einen Faktor ab und bekommst
eine direkte Summenzerlegung von F|W.
Zusammen mit dem, was Du vorher abgespalten hast, hast
Du wieder eine direkte Summenzerlegung des ganzen Raums.
Das machst Du solange, bis keine Faktoren mehr uebrig sind
und hast dann das, was Du wolltest.
Ich hoffe, das hilft Dir ein wenig.
Gruss,
Monika.
|
|
|
|
|
Hallo,
ich bin nicht sicher, ob ich Dein Problem verstehe, aber ich versuche es mal:
Wir haben also V, F, G, [mm] \lambda, [/mm] r wie beschrieben und wollen verstehen, wieso man das Lemma von Fittings anwenden kann, um zu zeigen, daß es eine F-invariante Zerlegung $V=(ker [mm] G^{r})\oplus [/mm] W$ gibt.
Nun, nach der von Dir zitierten Version des Lemmas (mit den dortigen Bezeichnungen) haben wir eine G- (und also F-) invariante Zerlegung
$V=(ker [mm] G^{d})\oplus [/mm] W$ mit $dim [mm] G^{d}=r\ge [/mm] d$ und
$ker [mm] G^{d}=ker G^{d+i}$ [/mm] für alle nichtnegativen i. Wegen [mm] r\ge [/mm] d können wir das auf i=r-d anwenden (es ist im allgemeinen falsch, daß d=r),
und erhalten $ker [mm] G^{d}=ker G^{r}$, [/mm] d.h. [mm] $V=\underbrace{ker G^{r}}_{=ker G^{d}}\oplus [/mm] W$ - fertig!
Oder sehe ich Deinen Punkt nicht?
Viele Grüße - Lars
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 12:22 Do 31.03.2005 | Autor: | calabi-yau |
ohje jetzt ist mir ein licht aufgegangen, es reicht ja schon, dass ich [mm] kerG^r=kerG^{r+1} [/mm] gezeigt hab um das lemma verwenden zu können, wegen [mm] kerG^d=kerG^{d+i} [/mm] und r [mm] \ge [/mm] d für alle i [mm] \in \IN [/mm] (bzw. muss ich nicht mal das zeigen, wenn ich [mm] r=\mu(P_{G}, [/mm] 0) gezeigt hab, nach lars'schem antwortsatz).
danke an mjp und lars :) :) :)
|
|
|
|