www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Vorhilfe
  Status Geisteswiss.
    Status Erdkunde
    Status Geschichte
    Status Jura
    Status Musik/Kunst
    Status Pädagogik
    Status Philosophie
    Status Politik/Wirtschaft
    Status Psychologie
    Status Religion
    Status Sozialwissenschaften
  Status Informatik
    Status Schule
    Status Hochschule
    Status Info-Training
    Status Wettbewerbe
    Status Praxis
    Status Internes IR
  Status Ingenieurwiss.
    Status Bauingenieurwesen
    Status Elektrotechnik
    Status Maschinenbau
    Status Materialwissenschaft
    Status Regelungstechnik
    Status Signaltheorie
    Status Sonstiges
    Status Technik
  Status Mathe
    Status Schulmathe
    Status Hochschulmathe
    Status Mathe-Vorkurse
    Status Mathe-Software
  Status Naturwiss.
    Status Astronomie
    Status Biologie
    Status Chemie
    Status Geowissenschaften
    Status Medizin
    Status Physik
    Status Sport
  Status Sonstiges / Diverses
  Status Sprachen
    Status Deutsch
    Status Englisch
    Status Französisch
    Status Griechisch
    Status Latein
    Status Russisch
    Status Spanisch
    Status Vorkurse
    Status Sonstiges (Sprachen)
  Status Neuerdings
  Status Internes VH
    Status Café VH
    Status Verbesserungen
    Status Benutzerbetreuung
    Status Plenum
    Status Datenbank-Forum
    Status Test-Forum
    Status Fragwürdige Inhalte
    Status VH e.V.

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Lineare Algebra - Eigenwerte" - Diagonalisierbarkeit
Diagonalisierbarkeit < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Eigenwerte"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Diagonalisierbarkeit: Dia - Triagonalisieren und Inv
Status: (Frage) beantwortet Status 
Datum: 13:27 Fr 03.08.2007
Autor: matt57

Aufgabe
Prüfen Sie ob die Matrix A= [mm] \pmat{ 0 & 1 \\ -1 & 0 } [/mm] diagonalisierbar oder triagonalisierbar in [mm] \IR^n,n [/mm] bzw. in [mm] \C^n,n [/mm] ist und bestimmen Sie eine invertierbare Matrix [mm] \in [/mm] Gl [mm] \IR [/mm] (n)  bzw.  Gl [mm] \IC [/mm] (n) und geben Sie eine Diagonal, bzw.
Dreiecksmatrix B [mm] \in \IR [/mm] bzw. [mm] \IC [/mm] an, so dass gilt:
[mm] TAT^{-1} [/mm] =B

Hallo
Ich gehe so vor, dass ich zunächst mal das char. Polynom aufstelle.
POl X=  detA= (0-x)*(0-x) - 1 = [mm] x^2-1 [/mm]

somit trigonalisierbar  in [mm] \C [/mm] und in [mm] \IR, [/mm]
da POl X komplett in Linearfaktoren zerfällt.
Richtig?

für [mm] \IC [/mm]
[mm] \lambda [/mm] 1, 2 = [mm] \pm [/mm] i
Richtig?


Eigenraumbestimmung
über [mm] \IC [/mm]
Lösung des LGS (Diagonalelemente von A - [mm] \lambda) [/mm]
[mm] \pm [/mm] i   [mm] \alpha [/mm] + [mm] \beta [/mm]  = 0
- [mm] \alpha \pm [/mm] i    [mm] \beta [/mm]  = 0
Eigenraum 1 für [mm] \IC [/mm]

... und hier verließen sie mich.


Eigenraum 2 für [mm] \IR [/mm]
[mm] \lambda [/mm] 1 = 1
LGS:
- 1 [mm] \alpha [/mm] + 1 [mm] \beta [/mm] = 0
- 1 [mm] \alpha [/mm] - 1 [mm] \beta [/mm] =0


[mm] \alpha [/mm] = 2, [mm] \beta=2 [/mm]
Richtig?

Eigenvektor v2 also [mm] \pmat{ 2 \\ 2 } [/mm]

Eigenraum also E2=  Menge aller  [mm] \vec{a}| \vec{a}t* \pmat{ 2 \\ 2 } [/mm] , t \ [mm] \IR [/mm]
Richtig?

Wenn mir an dieser Stelle jemand den Zusammenhangder "Ordnung" (ord) der Eigenvektoren und dem Rang erklären könnte, was bedeutet die Ordnung (ord) genau?

Diagonalmatrix wäre somit, vorausgesetzt es gibt sie: (irgendwie kann man das durch ord=rangA oder so ablesen...)

[mm] \pmat{ 2 & 0 \\ 0 & 2 } [/mm]

Oder  falsch?

Und wie finde ich nun die Matrix T?

Wer kann helfen?
Danke und Gruß

        
Bezug
Diagonalisierbarkeit: Antwort
Status: (Antwort) fertig Status 
Datum: 13:50 Fr 03.08.2007
Autor: angela.h.b.


> Prüfen Sie ob die Matrix A= [mm]\pmat{ 0 & 1 \\ -1 & 0 }[/mm]
> diagonalisierbar oder triagonalisierbar in [mm]\IR^n,n[/mm] bzw. in
> [mm]\C^n,n[/mm] ist und bestimmen Sie eine invertierbare Matrix [mm]\in[/mm]
> Gl [mm]\IR[/mm] (n)  bzw.  Gl [mm]\IC[/mm] (n) und geben Sie eine Diagonal,
> bzw.
> Dreiecksmatrix B [mm]\in \IR[/mm] bzw. [mm]\IC[/mm] an, so dass gilt:
>  [mm]TAT^{-1}[/mm] =B
>  Hallo
>  Ich gehe so vor, dass ich zunächst mal das char. Polynom
> aufstelle.
>  POl X=  detA= (0-x)*(0-x) - 1 = [mm]x^2-1[/mm]

Hallo,

das stimmt nicht. Das CP ist [mm] x^2+1. [/mm]

>  
> somit trigonalisierbar  in [mm]\C[/mm] und in [mm]\IR,[/mm]
> da POl X komplett in Linearfaktoren zerfällt.
> Richtig?

Es zerfällt doch über [mm] \IR [/mm] gar nicht in Linearfaktoren!

>  
> für [mm]\IC[/mm]
>  [mm]\lambda[/mm] 1, 2 = [mm]\pm[/mm] i
>  Richtig?

Ja. Üver [mm] \IC [/mm] ist [mm] x^2+1= [/mm] (x-i)(x+i)

Das CP zerfällt in Linearfaktoren und hat nur einfache Nullsteleln. Also ist A über [mm] \IC [/mm] diagonalisierbar.

Nun benötigst Du die Eigenvektoren, um eine Basis aus Eigenvektoren zu haben und damit die Transformationsmatrix T zu finden.
[mm] T^{-1} [/mm] ist die Matrix, welche in den Spalten die Eigenvektoren bzgl. der Standardbasis enthält.


>  
>
> Eigenraumbestimmung
> über [mm]\IC[/mm]

Um den Eigenraum zum EW zu bestimmen, mußt Du den Kern von [mm] A-\lambdaE [/mm] berechnen, in Deinem Falle also

Kern [mm] \pmat{ -i & 1 \\ -1 & -i } [/mm] und  Kern [mm] \pmat{i & 1 \\ -1 & i } [/mm]

(Der Kern einer Matrix B ist ja der Lösungsraum von Bx=0.)

>  Lösung des LGS (Diagonalelemente von A - [mm]\lambda)[/mm]
>  [mm]\pm[/mm] i   [mm]\alpha[/mm] + [mm]\beta[/mm]  = 0
>  - [mm]\alpha \pm[/mm] i    [mm]\beta[/mm]  = 0
>  Eigenraum 1 für [mm]\IC[/mm]
>  
> ... und hier verließen sie mich.
>  
>
> Eigenraum 2 für [mm]\IR[/mm]
>  [mm]\lambda[/mm] 1 = 1

Es ist 1 kein EW der Matrix. Schau Dir das (richtige) charakteristische Polynom an.
Also wirst Du keinen Eigenraum finden.


>  LGS:
>  - 1 [mm]\alpha[/mm] + 1 [mm]\beta[/mm] = 0
>  - 1 [mm]\alpha[/mm] - 1 [mm]\beta[/mm] =0
>  
>
> [mm]\alpha[/mm] = 2, [mm]\beta=2[/mm]
>  Richtig?
>  
> Eigenvektor v2 also [mm]\pmat{ 2 \\ 2 }[/mm]

Wie gesagt gibt es hier keinen Eigenvektor, weil es ja keinen Eigenwert gibt.

Berechne doch mal [mm] A\pmat{ 2 \\ 2 }. [/mm]  Und? Kommt ein Vielfaches von [mm] \pmat{ 2 \\ 2 } [/mm] heraus?

Schau Dir mal die Matrix an. Was macht die denn? Worauf wird die x-Achse abgebildet und worauf die y-Achse? Was ist das für eine Bewegung?
Läßt diese Bewegung eine Richtung in der xy-Ebene fest?

Gruß v. Angela


>  
> Eigenraum also E2=  Menge aller  [mm]\vec{a}| \vec{a}t* \pmat{ 2 \\ 2 }[/mm]
> , t \ [mm]\IR[/mm]
> Richtig?
>  
> Wenn mir an dieser Stelle jemand den Zusammenhangder
> "Ordnung" (ord) der Eigenvektoren und dem Rang erklären
> könnte, was bedeutet die Ordnung (ord) genau?
>  
> Diagonalmatrix wäre somit, vorausgesetzt es gibt sie:
> (irgendwie kann man das durch ord=rangA oder so
> ablesen...)
>  
> [mm]\pmat{ 2 & 0 \\ 0 & 2 }[/mm]
>  
> Oder  falsch?
>  
> Und wie finde ich nun die Matrix T?
>  
> Wer kann helfen?
>  Danke und Gruß


Bezug
                
Bezug
Diagonalisierbarkeit: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 13:59 Fr 03.08.2007
Autor: matt57

Hallo und Danke
Natürlich... CP ist ... +1. So kann man sich verrechenn, mit fatalen Folgen.
Ich sehe mir die Sache jetzt näher an, bei Fragen melde ich mich hier.


Bezug
                
Bezug
Diagonalisierbarkeit: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:45 Fr 03.08.2007
Autor: matt57


> > Prüfen Sie ob die Matrix A= [mm]\pmat{ 0 & 1 \\ -1 & 0 }[/mm]
> > diagonalisierbar oder triagonalisierbar in [mm]\IR^n,n[/mm] bzw. in
> > [mm]\C^n,n[/mm] ist und bestimmen Sie eine invertierbare Matrix [mm]\in[/mm]
> > Gl [mm]\IR[/mm] (n)  bzw.  Gl [mm]\IC[/mm] (n) und geben Sie eine Diagonal,
> > bzw.
> > Dreiecksmatrix B [mm]\in \IR[/mm] bzw. [mm]\IC[/mm] an, so dass gilt:
>  >  [mm]TAT^{-1}[/mm] =B
>  >  Hallo
>  >  Ich gehe so vor, dass ich zunächst mal das char.
> Polynom
> > aufstelle.
>  >  POl X=  detA= (0-x)*(0-x) - 1 = [mm]x^2-1[/mm]
>  
> Hallo,
>  
> das stimmt nicht. Das CP ist [mm]x^2+1.[/mm]
>  
> >  

> > somit trigonalisierbar  in [mm]\C[/mm] und in [mm]\IR,[/mm]
> > da POl X komplett in Linearfaktoren zerfällt.
> > Richtig?
>  
> Es zerfällt doch über [mm]\IR[/mm] gar nicht in Linearfaktoren!
>  
> >  

> > für [mm]\IC[/mm]
>  >  [mm]\lambda[/mm] 1, 2 = [mm]\pm[/mm] i
>  >  Richtig?
>  
> Ja. Üver [mm]\IC[/mm] ist [mm]x^2+1=[/mm] (x-i)(x+i)
>  
> Das CP zerfällt in Linearfaktoren und hat nur einfache
> Nullsteleln. Also ist A über [mm]\IC[/mm] diagonalisierbar.
>  
> Nun benötigst Du die Eigenvektoren, um eine Basis aus
> Eigenvektoren zu haben und damit die Transformationsmatrix
> T zu finden.
>  [mm]T^{-1}[/mm] ist die Matrix, welche in den Spalten die
> Eigenvektoren bzgl. der Standardbasis enthält.
>  
>
> >  

> >
> > Eigenraumbestimmung
> > über [mm]\IC[/mm]
>  
> Um den Eigenraum zum EW zu bestimmen, mußt Du den Kern von
> [mm]A-\lambdaE[/mm] berechnen, in Deinem Falle also
>
> Kern [mm]\pmat{ -i & 1 \\ -1 & -i }[/mm] und  Kern [mm]\pmat{i & 1 \\ -1 & i }[/mm]
>  
> (Der Kern einer Matrix B ist ja der Lösungsraum von Bx=0.)

Ich bekomme die GLS nicht umgeformt
-i+1 [mm] \beta [/mm] = 0
-1 - i [mm] \beta [/mm] =0 | *i, - I.

[mm] \Rightarrow [/mm]
-i 1 0
0 1 0

bzw.

i+1 [mm] \beta=0 [/mm]
-1 + i [mm] \beta=0 [/mm] |*i, + I.

[mm] \Rightarrow [/mm]
i   1  1
0 -1 0
Kann das stimmen?
Wie lese ich jetzt die Eigenvektoren ab?
Mit dem Rechenprogramm lauten die EV (1,i) bzw. (1,-i)
Ich würde jedoch gern die (richtigen) Umformungen bis zu den Einträgen kennen:

> >  Lösung des LGS (Diagonalelemente von A - [mm]\lambda)[/mm]

>  >  [mm]\pm[/mm] i   [mm]\alpha[/mm] + [mm]\beta[/mm]  = 0
>  >  - [mm]\alpha \pm[/mm] i    [mm]\beta[/mm]  = 0
>  >  Eigenraum 1 für [mm]\IC[/mm]
>  >  
> > ... und hier verließen sie mich.
>  >  
> >
> > Eigenraum 2 für [mm]\IR[/mm]
>  >  [mm]\lambda[/mm] 1 = 1
>  
> Es ist 1 kein EW der Matrix. Schau Dir das (richtige)
> charakteristische Polynom an.
>  Also wirst Du keinen Eigenraum finden.

Klar!

>
> >  LGS:

>  >  - 1 [mm]\alpha[/mm] + 1 [mm]\beta[/mm] = 0
>  >  - 1 [mm]\alpha[/mm] - 1 [mm]\beta[/mm] =0
>  >  
> >
> > [mm]\alpha[/mm] = 2, [mm]\beta=2[/mm]
>  >  Richtig?
>  >  
> > Eigenvektor v2 also [mm]\pmat{ 2 \\ 2 }[/mm]
>  
> Wie gesagt gibt es hier keinen Eigenvektor, weil es ja
> keinen Eigenwert gibt.
>
> Berechne doch mal [mm]A\pmat{ 2 \\ 2 }.[/mm]  Und? Kommt ein
> Vielfaches von [mm]\pmat{ 2 \\ 2 }[/mm] heraus?

Kein Vielfaches sonder 2x2 Matrix

>  
> Schau Dir mal die Matrix an. Was macht die denn? Worauf
> wird die x-Achse abgebildet und worauf die y-Achse? Was ist
> das für eine Bewegung?
>  Läßt diese Bewegung eine Richtung in der xy-Ebene fest?

Irgendwie scheint die MAtrix x und y nur zu vertauschen, richtig?

>  
> Gruß v. Angela

Grüße und Danke von Matthias

>
> >  

> > Eigenraum also E2=  Menge aller  [mm]\vec{a}| \vec{a}t* \pmat{ 2 \\ 2 }[/mm]
> > , t \ [mm]\IR[/mm]
> > Richtig?
>  >  

Frage besteht noch:

Wenn mir an dieser Stelle jemand den Zusammenhangder
"Ordnung" (ord) der Eigenvektoren und dem Rang erklären
könnte, was bedeutet die Ordnung (ord) genau?

>  >  Danke und Gruß  


Bezug
                        
Bezug
Diagonalisierbarkeit: Antwort
Status: (Antwort) fertig Status 
Datum: 16:41 Fr 03.08.2007
Autor: schachuzipus

Hallo Matt,

entschuldige, dass es so lange gedauert hat, aber

ich habe mir 2mal hintereinander den kompletten Text

aus Versehen weggelöscht und musste alles nochmal eintippeln :(

So nun aber:


> Ich bekomme die GLS nicht umgeformt
> -i+1 [mm]\beta[/mm] = 0
>  -1 - i [mm]\beta[/mm] =0 | *i, - I.
>  
> [mm]\Rightarrow[/mm]
>  -i 1 0
>  0 1 0
>  
> bzw.
>  
> i+1 [mm]\beta=0[/mm]
>  -1 + i [mm]\beta=0[/mm] |*i, + I.
>  
> [mm]\Rightarrow[/mm]
>  i   1  1
>  0 -1 0
>  Kann das stimmen? leider nicht

Du erhältst in beiden Fällen eine Nullzeile

>  Wie lese ich jetzt die Eigenvektoren ab?
> Mit dem Rechenprogramm lauten die EV (1,i) bzw. (1,-i)
>  Ich würde jedoch gern die (richtigen) Umformungen bis zu
> den Einträgen kennen:

Ich mach's mal für den Eigenwert [mm] \lambda=i [/mm] (in Matrixschreibweise wg. der besseren Übersichtlichkeit)

Also zu bestimmen ist [mm] Kern\pmat{ -i & 1 \\ -1 & -i } [/mm] (=Eigenraum zu [mm] \lambda=i) [/mm]

Dazu bringen wir [mm] \pmat{ -i & 1 \\ -1 & -i } [/mm]  in ZSF

Ich schlage folgende Umformung vor (deine tut's aber auch):

[mm] i\cdot{} [/mm] 1.Zeile liefert:

[mm] \pmat{ 1 & i \\ -1 & -i } [/mm] Nun 1.Zeile zur 2.Zeile addieren ergibt

[mm] \pmat{ 1 & i \\ 0 & 0 } [/mm]

Hier kannst du nun zB. [mm] x_1 [/mm] frei wählen, sagen wir [mm] x_1=t [/mm] mit [mm] t\in\IC [/mm]

Dann ist mit Zeile 1: [mm] t+ix_2=0\Rightarrow x_2=\frac{-t}{i}=\frac{(-t)(-i)}{i(-i)}=\frac{ti}{1}=ti [/mm]

Also ist der [mm] Kern\pmat{ -i & 1 \\ -1 & -i } =\langle \vektor{1\\i}\rangle [/mm]

Also ist ein Vektor aus dem [mm] Kern\pmat{ -i & 1 \\ -1 & -i } [/mm] der Gestalt: [mm] t\cdot{}\vektor{1\\i} [/mm]    

Für t=1 erhalten wir den Eigenvektor aus der Musterlösung [mm] \vektor{1\\i} [/mm]




> > Berechne doch mal [mm]A\pmat{ 2 \\ 2 }.[/mm]  Und? Kommt ein
> > Vielfaches von [mm]\pmat{ 2 \\ 2 }[/mm] heraus?
>  
> Kein Vielfaches sonder 2x2 Matrix [notok]

Autsch, das Produkt einer [mm] 2\times [/mm] 2-Matrix mit einer [mm] 2\times [/mm] 1-Matrix gibt eine [mm] 2\times [/mm] 1-Matrix!!!!

[mm] A\vektor{2\\2}=...=\vektor{2\\-2} [/mm] und das ist KEIN Vielfaches von [mm] \vektor{2\\2} [/mm]


Nun testen wir mal unseren "neuen" ;-) Eigenvektor:

[mm] A\vektor{1\\i}=\vektor{i\\-1}=i\cdot{}\vektor{1\\i} [/mm] also ein Vielfaches - puh ;-)






> Frage besteht noch:
>  
> Wenn mir an dieser Stelle jemand den Zusammenhangder
> "Ordnung" (ord) der Eigenvektoren und dem Rang erklären
> könnte, was bedeutet die Ordnung (ord) genau?


Hm, den Ausdruck habe ich noch nie gehört?
Ist damit vllt. die Dimension des Eigenraumes zu dem entsprechenden Eigenwert gemeint?



Gruß

schachuzipus


Bezug
                                
Bezug
Diagonalisierbarkeit: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:01 Fr 03.08.2007
Autor: matt57

Erstmal vielen Dank und sorry für das Fettnäpfchen... ist natürlich völliger Blödsinn, aus dem Produkt einer 2x2 mit 2x1 Matrix eine 2x2 Matrix zu bekommen.

Es geht in meiner letzten Frage um die Beziehung von algebr. Vielfachheit und die Dim. des Eigenraumes.
Wenn man dann irgendwie die Rang-Gleichung aufstellt, kann man wohl auf Diagonalisierbarkeit schließen. (In diesem Fall ist ja Diagonalisierbarkeit gegeben, wg. kompl. Lösungsraum. In diesen Fällen sind Diagonalmatrizen den Ausgagansmatrizen ähnlich... oder?) (Fundamentalsatz der Algebra?)
Grüße
Matthias

> Hallo Matt,
>  
> entschuldige, dass es so lange gedauert hat, aber
>  
> ich habe mir 2mal hintereinander den kompletten Text
>  
> aus Versehen weggelöscht und musste alles nochmal
> eintippeln :(
>  
> So nun aber:
>  
>
> > Ich bekomme die GLS nicht umgeformt
> > -i+1 [mm]\beta[/mm] = 0
>  >  -1 - i [mm]\beta[/mm] =0 | *i, - I.
>  >  
> > [mm]\Rightarrow[/mm]
>  >  -i 1 0
>  >  0 1 0
>  >  
> > bzw.
>  >  
> > i+1 [mm]\beta=0[/mm]
>  >  -1 + i [mm]\beta=0[/mm] |*i, + I.
>  >  
> > [mm]\Rightarrow[/mm]
>  >  i   1  1
>  >  0 -1 0
>  >  Kann das stimmen? leider nicht
>  
> Du erhältst in beiden Fällen eine Nullzeile
>  
> >  Wie lese ich jetzt die Eigenvektoren ab?

> > Mit dem Rechenprogramm lauten die EV (1,i) bzw. (1,-i)
>  >  Ich würde jedoch gern die (richtigen) Umformungen bis
> zu
> > den Einträgen kennen:
>  
> Ich mach's mal für den Eigenwert [mm]\lambda=i[/mm] (in
> Matrixschreibweise wg. der besseren Übersichtlichkeit)
>  
> Also zu bestimmen ist [mm]Kern\pmat{ -i & 1 \\ -1 & -i }[/mm]
> (=Eigenraum zu [mm]\lambda=i)[/mm]
>  
> Dazu bringen wir [mm]\pmat{ -i & 1 \\ -1 & -i }[/mm]  in ZSF
>  
> Ich schlage folgende Umformung vor (deine tut's aber
> auch):
>  
> [mm]i\cdot{}[/mm] 1.Zeile liefert:
>  
> [mm]\pmat{ 1 & i \\ -1 & -i }[/mm] Nun 1.Zeile zur 2.Zeile addieren
> ergibt
>  
> [mm]\pmat{ 1 & i \\ 0 & 0 }[/mm]
>  
> Hier kannst du nun zB. [mm]x_1[/mm] frei wählen, sagen wir [mm]x_1=t[/mm] mit
> [mm]t\in\IC[/mm]
>  
> Dann ist mit Zeile 1: [mm]t+ix_2=0\Rightarrow x_2=\frac{-t}{i}=\frac{(-t)(-i)}{i(-i)}=\frac{ti}{1}=ti[/mm]
>  
> Also ist der [mm]Kern\pmat{ -i & 1 \\ -1 & -i } =\langle \vektor{1\\i}\rangle[/mm]
>  
> Also ist ein Vektor aus dem [mm]Kern\pmat{ -i & 1 \\ -1 & -i }[/mm]
> der Gestalt: [mm]t\cdot{}\vektor{1\\i}[/mm]    
>
> Für t=1 erhalten wir den Eigenvektor aus der Musterlösung
> [mm]\vektor{1\\i}[/mm]
>  
>
>
>
> > > Berechne doch mal [mm]A\pmat{ 2 \\ 2 }.[/mm]  Und? Kommt ein
> > > Vielfaches von [mm]\pmat{ 2 \\ 2 }[/mm] heraus?
>  >  
> > Kein Vielfaches sonder 2x2 Matrix [notok]
>  
> Autsch, das Produkt einer [mm]2\times[/mm] 2-Matrix mit einer
> [mm]2\times[/mm] 1-Matrix gibt eine [mm]2\times[/mm] 1-Matrix!!!!
>  
> [mm]A\vektor{2\\2}=...=\vektor{2\\-2}[/mm] und das ist KEIN
> Vielfaches von [mm]\vektor{2\\2}[/mm]
>  
>
> Nun testen wir mal unseren "neuen" ;-) Eigenvektor:
>  
> [mm]A\vektor{1\\i}=\vektor{i\\-1}=i\cdot{}\vektor{1\\i}[/mm] also
> ein Vielfaches - puh ;-)
>  
>
>
>
>
>
> > Frage besteht noch:
>  >  
> > Wenn mir an dieser Stelle jemand den Zusammenhangder
> > "Ordnung" (ord) der Eigenvektoren und dem Rang erklären
> > könnte, was bedeutet die Ordnung (ord) genau?
>  
>
> Hm, den Ausdruck habe ich noch nie gehört?
>  Ist damit vllt. die Dimension des Eigenraumes zu dem
> entsprechenden Eigenwert gemeint?
>  
>
>
> Gruß
>  
> schachuzipus
>  


Bezug
                                        
Bezug
Diagonalisierbarkeit: Antwort
Status: (Antwort) fertig Status 
Datum: 20:21 Fr 03.08.2007
Autor: angela.h.b.


> Es geht in meiner letzten Frage um die Beziehung von
> algebr. Vielfachheit und die Dim. des Eigenraumes.
> Wenn man dann irgendwie die Rang-Gleichung aufstellt, kann
> man wohl auf Diagonalisierbarkeit schließen.

Hallo,

ich glaube, daß Du folgendens meinst:

Du hast eine Matrix A und ihr zerfallendes charakteristisches Polynom [mm] X_A(x)=(x-\lambda_1)^{p_1}*...*(x-\lambda_k)^{p_k}. [/mm]

Die algebraische Vielfalt der [mm] \lambda_i [/mm] beträgt hier [mm] p_i. [/mm]

Diagonalisierbar ist die Matrix, wenn die geometrische Vielfalt eines jeden Eigenvektors, also die Dimension  des entsprechenden Eigenraumes, gleich der algebraischen Vielfachheit ist. Dann hast Du nämlich eine Basis aus Eigenvektoren und kannst somit diagonalisieren.  Also ist die Matrix A einer Diagonalmatrix ähnlich.

Einer nxn-Matrix, welche n verschiedene (!) Eigenwerte hat, bleibt also überhaupt nichts anderes übrig als diagonalisierbar zu sein.

Gruß v. Angela


Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Eigenwerte"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorhilfe.de