www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Vorhilfe
  Status Geisteswiss.
    Status Erdkunde
    Status Geschichte
    Status Jura
    Status Musik/Kunst
    Status Pädagogik
    Status Philosophie
    Status Politik/Wirtschaft
    Status Psychologie
    Status Religion
    Status Sozialwissenschaften
  Status Informatik
    Status Schule
    Status Hochschule
    Status Info-Training
    Status Wettbewerbe
    Status Praxis
    Status Internes IR
  Status Ingenieurwiss.
    Status Bauingenieurwesen
    Status Elektrotechnik
    Status Maschinenbau
    Status Materialwissenschaft
    Status Regelungstechnik
    Status Signaltheorie
    Status Sonstiges
    Status Technik
  Status Mathe
    Status Schulmathe
    Status Hochschulmathe
    Status Mathe-Vorkurse
    Status Mathe-Software
  Status Naturwiss.
    Status Astronomie
    Status Biologie
    Status Chemie
    Status Geowissenschaften
    Status Medizin
    Status Physik
    Status Sport
  Status Sonstiges / Diverses
  Status Sprachen
    Status Deutsch
    Status Englisch
    Status Französisch
    Status Griechisch
    Status Latein
    Status Russisch
    Status Spanisch
    Status Vorkurse
    Status Sonstiges (Sprachen)
  Status Neuerdings
  Status Internes VH
    Status Café VH
    Status Verbesserungen
    Status Benutzerbetreuung
    Status Plenum
    Status Datenbank-Forum
    Status Test-Forum
    Status Fragwürdige Inhalte
    Status VH e.V.

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Lineare Algebra" - Invarianter Unterraum
Invarianter Unterraum < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Invarianter Unterraum: Frage
Status: (Frage) beantwortet Status 
Datum: 00:25 Fr 08.04.2005
Autor: Maiko

Hallo!

Ich habe folgende Frage zur Lösung folgender Aufgabe:

Bestimme von der folgenden Matrize die Eigenwerte und ein maximales System linear unabhängiger Eigenvektoren:

Hier ist die Lösung:
[Dateianhang nicht öffentlich]

Bei der Berechnung des ersten Eigenvektors hatte ich keine Probleme. Auch bei der Berechnung des Eigenvektors für Lambda = 1 komme ich auf diesselben Ergebnisse wie in der Lösungsangabe.
Warum muss ich aber
(A - [mm] 1E)^2 [/mm] * x2 = 0

quadrieren??
Ich kann mich erinnern, dass wir in unserer Übung bereits eine ähnliche Aufgabe gerechnet haben. Da hatten wir ebenfalls ein mehrfaches Lambda. Bei der Berechnung des Eigenvektors bekamen wir eine Eigenebene heraus. Dort haben wir allerdings nicht (A - 1E) * x2 = 0 quadriert.

Kann mir das jmd. erklären??
Was ist eigentlich ein invarianter Unterraum und was ist mit maximalen System in der Aufgabenstellung gemeint?
Könnte das jmd bitte populärwissenschaftlich erklären, sodass ich das nachvollziehen kann?

Ich wäre wirklich sehr dankbar.


Dateianhänge:
Anhang Nr. 1 (Typ: jpg) [nicht öffentlich]
        
Bezug
Invarianter Unterraum: Antwort
Status: (Antwort) fertig Status 
Datum: 08:45 Fr 08.04.2005
Autor: Gnometech

Guten Morgen!

Ich werde es versuchen. Und zwar werde ich das am Beispiel einer kleinen nilpotenten Matrix tun.

Also, wir schauen uns mal zwei Matrizen an: $A = [mm] \pmat{ 0 & 0 \\ 0 & 0}$ [/mm] und $B = [mm] \pmat{ 0 & 1 \\ 0 & 0}$. [/mm] Beide Matrizen haben das gleiche charakteristische Polynom, nämlich [mm] $T^2$, [/mm] das heißt in beiden Fällen haben wir eine doppelte Nullstelle bei 0.

Trotzdem verhalten sich die Matrizen höchst unterschiedlich. Der Eigenraum zu 0 ist ja der Kern der Abbildung und die Matrix $A$ als Nullmatrix hat den gesamten Vektorraum als Kern. Bei $A$ haben wir also einen Eigenraum der Dimension 2 und finden problemslos eine Basis aus Eigenvektoren - $A$ ist also diagonalisierbar (Kunststück: $A$ ist ja schon diagonal ;-) ).

Bei $B$ ist die Lage aber anders. Obwohl wir eine doppelte Nullstelle haben, ist der Eigenraum nur 1-dimensional! In der Standardbasis betrachtet tut die Matrix $B$ als Abbildung aufgefaßt ja folgendes: [mm] $e_1$ [/mm] wird auf 0 geschickt (das ist ein Eigenvektor zum Eigenwert 0) und [mm] $e_2$ [/mm] wird auf [mm] $e_1$ [/mm] geschickt. [mm] $e_2$ [/mm] ist also noch kein Eigenvektor, aber nach einmaliger Anwendung ist es einer. Man könnte auch sagen, [mm] $e_2$ [/mm] liegt zwar nicht im Kern von $B$, aber im Kern von [mm] $B^2$. [/mm]

Und das überträgt sich auf die allgemeine Theorie. Ist [mm] $\lambda$ [/mm] eine Nullstelle des charakteristischen Polynoms einer allgemeinen Matrix $A$, so gibt es einen Eigenvektor mit Eigenwert [mm] $\lambda$. [/mm] Schön wäre es, wenn der Eigenraum immer die gleiche Dimension hätte, wie die Nullstelle im charakteristischen Polynom vorkommt, dann nämlich ist die Matrix diagonalisierbar. Das obige Beispiel zeigt aber, dass es nicht immer so schön zugeht.
Statt dessen kann es Dir passieren, dass Vektoren zwar nicht im Eigenraum zu [mm] $\lambda$, [/mm] also im Kern von $A - [mm] \lambda [/mm] E$ liegen, wohl aber "dahinter", es also Vektoren gibt, die erst nach und nach in den Kern rutschen - sprich Vektoren im Kern von $(A - [mm] \lambda E)^2$. [/mm]

Diese Erkenntnis führt schließlich zur Jordanschen Normalform, die besagt, dass man eine Matrix deren charakteristisches Polynom in Linearfaktoren zerfällt zwar nicht unbedingt diagonalisieren kann, aber man kann zumindest etwas ähnliches erreichen: außer auf der Diagonalen stehen lediglich auf einer der Nebendiagonalen noch einige 1en.

Alles klar? Wenn nicht, frag einfach nochmal nach.

Lars

Bezug
                
Bezug
Invarianter Unterraum: Frage
Status: (Frage) beantwortet Status 
Datum: 10:59 Mi 13.04.2005
Autor: Maiko

Entschuldige meine verspätete Antwort, aber ich musste erst Zeit finden, um mich selbst nochmal mit dem Problem zu beschäftigen.

Ich bin zu folgender Schlussfolgerung gekommen und würde dich bitten, diese auf Wahrheit zu überpüfen:

Wenn ich von einer bestimmten Matrix A die Eigenwerte ermittele, dann bekomme ich, wenn A eine 3x3-Matrix war,
3 Eigenwerte heraus. Nehmen wir einmal an, dass diese
[mm] \lambda [/mm] 1=1
[mm] \lambda [/mm] 2=1
[mm] \lambda [/mm] 3=3
lauten.

Wenn ich nun den ersten Eigenvektor zu [mm] \lambda [/mm] 1 berechne und einen Vektor rausbekomme, der 1-dimensional ist, dann muss ich die ganze Berechnung noch einmal durchführen
-  mit [mm] (A-\lambda [/mm] * [mm] E)^2 [/mm] = 0 -
da ich einen Eigenvektor/Eigenraum benötige, der die gleiche Dimension besitzt, mit welcher Anzahl/Vielfachheit [mm] \lambda [/mm] 1 auftritt.

Bekomme ich allerdings gleich einen 2-dimensionalen Vektor heraus (Ebene), dann habe ich bereits den Eigenvektor für [mm] \lambda [/mm] 1,2= 1 gefunden, da dieser diesselbe Dimension entsprechend der Anzahl der Vielfachheit von [mm] \lambda [/mm] 1 besitzt.

Ist dies korrekt?

Bezug
                        
Bezug
Invarianter Unterraum: Exakt
Status: (Antwort) fertig Status 
Datum: 11:42 Mi 13.04.2005
Autor: Gnometech

Gruß!

Es stimmt so, bis auf die Formulierung, die ist etwas unglücklich...

Wenn der Wert 1 als doppelte Nullstelle im charakteristischen Polynom vorkommst, dann bestimmst Du die Lösungsmenge des Gleichungssystems $(A - 1 [mm] \cdot E_n) [/mm] = 0$. Die bildet ja immer einen Vektorraum - wenn der zweidimensional ist, dann ist die Welt in Ordnung, dann kann man zwei linear unabhängige Eigenvektoren finden.

Ist der Raum nur eindimensional, dann muss der zweite Vektor eben aus $(A - 1 [mm] \cdot E_n)^2 [/mm] = 0$ geholt werden. Man kann in diesem Fall die Basis so wählen, dass die Matrix wenn auch nicht diagonal, dann doch zumindest "beinahe" diagonal ist: $A$ ist ähnlich zu $B$ mit

$B = [mm] \pmat{1 & 1 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2}$ [/mm]

Man handelt sich also noch eine 1 auf der Nebendiagonalen ein.

Verallgemeinert heißt diese Form, die man erreichen kann, die Jordansche Normalform.

Alles klar? :-)

Lars

Bezug
        
Bezug
Invarianter Unterraum: Frage
Status: (Frage) beantwortet Status 
Datum: 12:12 Mi 13.04.2005
Autor: Maiko

OK, es ist alles klar, nur an meiner Formulierung finde ich nichts unglückliches ;-)

Ganz kurz nochmal zu dem maximalen System linear unabhängiger Eigenvektoren. Damit ist doch sicherlich eine Basis gemeint, die othogonal ist, also jeder Vektor steht senkrecht auf dem anderen.
Die Basis bildet also ein Orthogonalsystem, richtig?

Bezug
                
Bezug
Invarianter Unterraum: Antwort
Status: (Antwort) fertig Status 
Datum: 13:44 Mi 13.04.2005
Autor: Julius

Hallo Maiko!

> OK, es ist alles klar, nur an meiner Formulierung finde ich
> nichts unglückliches ;-)

Doch diese Formulierung hier von dir ist sehr unglücklich:

Wenn ich nun den ersten Eigenvektor zu [mm] \lambda [/mm] 1 berechne und einen Vektor rausbekomme, der 1-dimensional ist, dann muss ich die ganze Berechnung noch einmal durchführen
-  mit [mm] (A-\lambda [/mm] * [mm] E)^2 [/mm] = 0 -
da ich einen Eigenvektor/Eigenraum benötige, der die gleiche Dimension besitzt, mit welcher Anzahl/Vielfachheit [mm] \lambda [/mm] 1 auftritt.


Die Lösungen von [mm] $(A-\lambda\cdot [/mm] E)^2x=0$ sind eben im Allgemeinen keine Eigenvektoren, sondern nur verallgemeinerte Eigenvektoren. Man kann dadurch also keine zusätzlichen Eigenvektoren finden als die, die man schon durch das Lösen von [mm] $(A-\lambda \cdot [/mm] E)x=0$ gefunden hätte.

> Ganz kurz nochmal zu dem maximalen System linear
> unabhängiger Eigenvektoren. Damit ist doch sicherlich eine
> Basis gemeint, die othogonal ist, also jeder Vektor steht
> senkrecht auf dem anderen.
>  Die Basis bildet also ein Orthogonalsystem, richtig?

Nein, im Allgemeinen nicht. Nur bei symmetrischen Matrizen sind die Eigenvektoren zu verschiedenen Eigenwerten orthogonal zueinander, im Allgemeinen sind sie nur linear unabhängig. Gesucht ist einfach die größte linear unabhägige Menge von Eigenvektoren der Matrix.

Viele Grüße
Julius


Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorhilfe.de