exp(A) < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Hallo Leute
Ich habe eine hermitesche Matrix A gegeben von der ich die Eigenwerte (EW) und Eigenvektoren (EV) bestimmen soll.
Mein erste Frage dazu. Ich dachte, die Eigenvektoren zu hermiteschen Matrizen sind stets orthogonal. Ist das so? Bei mir sind es nur die zu verschiedenen EW.
Danach sollen wir die Matrixdarstellung von U = exp(iA) bestimmen und anschließend die EW und EV bestimmen. Welche Regel gibt es da um die Sache einfach zu machen? Denn letztlich kommen die EW nach einen ziemlich eindeutigen Schema raus.
Wenn [mm] \lambda [/mm] ein EW von A ist, dann ist [mm] i*e^{\lambda } [/mm] EW von U.
Könnt ihr mir weiter helfen?
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:23 Mi 07.10.2009 | Autor: | felixf |
Hallo!
> Ich habe eine hermitesche Matrix A gegeben von der ich die
> Eigenwerte (EW) und Eigenvektoren (EV) bestimmen soll.
> Mein erste Frage dazu. Ich dachte, die Eigenvektoren zu
> hermiteschen Matrizen sind stets orthogonal. Ist das so?
> Bei mir sind es nur die zu verschiedenen EW.
Nun, von den Eigenraeumen zu einem Eigenwert gibt es natuerlich auch Basen, die nicht orthogonal sind. Du kannst aber zu jedem Eigenwert eine ON-Basis des Eigenraumes waehlen, und wenn du die ON-Basen von den verschiedenen Eigenwerten zusammentust, erhaelst du wieder eine ON-Basis (da die Eigenvektoren zu paarweise verschiedenen Eigenwerten orthogonal sind)
> Danach sollen wir die Matrixdarstellung von U = exp(iA)
> bestimmen und anschließend die EW und EV bestimmen. Welche
> Regel gibt es da um die Sache einfach zu machen?
Zwei Tricks:
1) Ist $S$ invertierbar, so gilt [mm] $\exp(S^{-1} [/mm] A S) = [mm] S^{-1} \exp(A) [/mm] S$;
2) Ist $D = [mm] diag(\lambda_1, \dots, \lambda_n)$ [/mm] eine Diagonalmatrix, so ist [mm] $\exp(D) [/mm] = [mm] diag(\exp(\lambda_1), \dots, \exp(\lambda_n))$.
[/mm]
Sprich: du musst die Matrix diagonalisieren.
> Wenn [mm]\lambda[/mm] ein EW von A ist, dann ist [mm]i*e^{\lambda }[/mm] EW
> von U.
Ja.
LG Felix
|
|
|
|
|
Ok, danke für deine schnelle Antwort
Die Regeln für exp(iA) habe ich schon alle angewendet. Da bekomme ich dann eine komplizierte Matrix raus, wenn ich S*diag(...) [mm] S^{-1} [/mm] ausmultipliziere. Davon aber die EW zu bestimmen, ist müssig. Gibt es dafür einen Trick?
|
|
|
|
|
Hallo,
> Ok, danke für deine schnelle Antwort
>
> Die Regeln für exp(iA) habe ich schon alle angewendet. Da
> bekomme ich dann eine komplizierte Matrix raus, wenn ich
> S*diag(...) [mm]S^{-1}[/mm] ausmultipliziere. Davon aber die EW zu
> bestimmen, ist müssig. Gibt es dafür einen Trick?
Vllt. postest du mal deine Matrix und deine bisherigen Versuche, dann ist das Helfen sicher einfacher ...
LG
schachuzipus
>
|
|
|
|
|
Hallo,
ich denke, dass meine Frage unabhängig von einer konkreten Aufgabe beantwortet werden kann. In meiner ersten Frage steckt meine Beobachtung und falls jemand einen Zusammenhang sieht, würde der mich interessieren.
Viele Grüße
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 23:05 Mi 07.10.2009 | Autor: | Herby |
Hallo Woodstock,
> Hallo,
>
> ich denke, dass meine Frage unabhängig von einer konkreten
> Aufgabe beantwortet werden kann.
ich würde hier aber auch (d)ein Beispiel bevorzugen.
Lg
Herby
|
|
|
|
|
Folgende Aufgabe:
A = [mm] \pmat{ 1 & i & 2 \\ -i & 1 & -2i \\ 2 & 2i & 4 }
[/mm]
Die erste Aufgabe war die EW und EV zu finden. Ich habe als EW:
[mm] \lambda_{1}= [/mm] 0 mit alg. Vielfachheit 2
[mm] \lambda_{2}= [/mm] 6 mit alg. Vielfachheit 1
S = [mm] \pmat{ 2 & 0 & 1 \\ 0 & 2 & -i \\ -1 & -i & 2 }
[/mm]
[mm] S^{-1} [/mm] ist die inverse dazu, so das gilt
A = S * diag(0,0,6) [mm] *S^{-1}
[/mm]
Nun soll ich U = exp(iA) bestimmen:
U = S * [mm] diag(e^{0}, e^{0}, e^{6}) [/mm] * [mm] S^{-1}
[/mm]
So wenn man jetzt das ausmultiplitziert, kommt eine größer Matrix raus, deren EW aber nun [mm] i*e^{\lambda_{1}} [/mm] und [mm] i*e^{\lambda_{2}} [/mm] sind und meine Frage war, ob es eine Regel gibt, so, dass man EW von A nimmt und darüber die EW von U bestimmt? Und vielleicht auch, wie die heißt?
Viele Grüße
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 01:47 Do 08.10.2009 | Autor: | felixf |
Hallo!
> Folgende Aufgabe:
>
> A = [mm]\pmat{ 1 & i & 2 \\ -i & 1 & -2i \\ 2 & 2i & 4 }[/mm]
>
> Die erste Aufgabe war die EW und EV zu finden. Ich habe als
> EW:
> [mm]\lambda_{1}=[/mm] 0 mit alg. Vielfachheit 2
> [mm]\lambda_{2}=[/mm] 6 mit alg. Vielfachheit 1
>
> S = [mm]\pmat{ 2 & 0 & 1 \\ 0 & 2 & -i \\ -1 & -i & 2 }[/mm]
> [mm]S^{-1}[/mm]
> ist die inverse dazu, so das gilt
> A = S * diag(0,0,6) [mm]*S^{-1}[/mm]
> Nun soll ich U = exp(iA) bestimmen:
> U = S * [mm]diag(e^{0}, e^{0}, e^{6})[/mm] * [mm]S^{-1}[/mm]
Da fehlen ein paar $i$s, oder? Also $U = S * [mm] diag(e^{i 0}, e^{i 0}, e^{i 6}) [/mm] * [mm] S^{-1}$.
[/mm]
> So wenn man jetzt das ausmultiplitziert, kommt eine
> größer Matrix raus,
Ja.
> deren EW aber nun [mm]i*e^{\lambda_{1}}[/mm]
> und [mm]i*e^{\lambda_{2}}[/mm] sind und meine Frage war, ob es
> eine Regel gibt, so, dass man EW von A nimmt und darüber
> die EW von U bestimmt?
Ja, durch den Basiswechsel (also von Links mit [mm] $S^{-1}$ [/mm] und von Rechts mit $S$ multiplizieren) aendern sich zwar die Eigenraeume selber, aber nicht deren Dimension und nicht die Eigenwerte. Sprich: die Eigenwerte vom Ergebnis sind gerade [mm] $e^{i 0}$, $e^{i 0}$ [/mm] (also mit Vielfacheit 2) und [mm] $e^{i 6}$.
[/mm]
> Und vielleicht auch, wie die heißt?
Ich glaube nicht dass die Regel einen speziellen Namen hat.
Man kann das ganze auch allgemeiner formulieren, z.B. im Rahmen der Funktionalanalysis fuer bestimmte unendlichdimensionale [mm] $\IR$- [/mm] oder [mm] $\IC$-Vektorraeume: [/mm] ist $f$ eine "vernuenftige" Funktion und $A$ ein "vernuenftiger" Endomorphismus eines "vernuenftigen" Vektorraums, so sind die Eigenwerte von $f(A)$ genau die von der Form [mm] $f(\lambda)$, [/mm] wobei [mm] $\lambda$ [/mm] die Eigenwerte von $A$ durchlaeuft.
Zu den vernuenftigen Funktionen zaehlen alle Polynome und durch eine auf ganz [mm] $\IC$ [/mm] konvergente Potenzreihe definierten Funktionen, also z.B. [mm] $\exp$, $\sin$, $\cos$. [/mm] Zu den vernuenftigen Vektorraeumen zaehlen z.B. endlichdimensionale Vektorraeume ueber [mm] $\IR$ [/mm] und [mm] $\IC$ [/mm] (insbesondere [mm] $\IR^n$ [/mm] oder [mm] $\IC^n$); [/mm] in den Faellen ist jeder Endomorphismus vernuenftig.
LG Felix
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 08:11 Do 08.10.2009 | Autor: | fred97 |
> Und vielleicht auch, wie die heißt?
Diese Regel heißt "Spektralabbildungssatz"
http://de.wikipedia.org/wiki/Benutzer:Sabata/Dunford-Funktionalkalkül
FRED
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 01:42 Do 08.10.2009 | Autor: | felixf |
Hallo!
> Ok, danke für deine schnelle Antwort
>
> Die Regeln für exp(iA) habe ich schon alle angewendet. Da
> bekomme ich dann eine komplizierte Matrix raus, wenn ich
> S*diag(...) [mm]S^{-1}[/mm] ausmultipliziere. Davon aber die EW zu
> bestimmen, ist müssig. Gibt es dafür einen Trick?
Wenn $D$ eine Diagonalmatrix ist, dann sind die Eigenwerte genau die Diagonaleintraege.
Wenn $S$ invertierbar ist, dann hat [mm] $S^{-1} [/mm] D S$ immer noch genau die gleichen Eigenwerte.
Also: [mm] $\exp(S^{-1} [/mm] D S) = [mm] S^{-1} \exp(D) [/mm] S$ hat die gleichen Eigenwerte wie [mm] $\exp(D)$, [/mm] und wie [mm] $\exp(D)$ [/mm] aussieht hatte ich ja schon geschrieben.
LG Felix
|
|
|
|
|
Vielen Dank, ich schaue mir das jetzt mal in Ruhe an.
|
|
|
|