Adjungierte Abbildung < Abbildungen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 18:33 Mi 02.09.2009 | Autor: | Arcesius |
Hallo Leute
Ich schreibe übermorgen meine LA-Prüfung und habe da noch eine wohl letzte Frage...
Es gibt einen Satz, der lautet:
"Sind V und W euklidische Vektorräume mit Ohrthonormalbasen A und B, so gilt für jede lineare Abbildung F: V [mm] \to [/mm] W
[mm] M_{A}^{B}(F^{ad}) [/mm] = [mm] (M_{B}^{A}(F))^{t}"
[/mm]
Jetzt steht aber auf Wikipedia lediglich, dass die adjungierte Matrix einer reellen Matrix, die Transponierte ist. Keine Voraussetzung von Orthonormalbasen..
Jetzt kann ja eine beliebige, quadratische, reelle Matrix ja die darstellende Matrix einer Abbildung sein bezüglich zwei nicht orthonormalen Basen. Ist die Matrix der adjungierten Abbildung hier auch einfach die Transponierte?
(Ich vermute stark, ich mache hier einen wichtigen Unterschied zwischen adjungierten Endomorphismus und adjungierten Matrix nicht, der eigentlich zu machen wäre... aber ich würde dies gerne bestätigt bekommen :))
Warum werden denn im oberen Satz die Orthonormalbasen vorausgesetzt?
Noch eine zweite Frage.
Bei einer linearen Abbildung zwischen euklidischen Vektorräumen V, W gilt ja [mm] Im(F^{ad}) [/mm] = [mm] (Ker(F))^{\perp} [/mm] und [mm] Ker(F^{ad}) [/mm] = [mm] (Im(F))^{\perp}.
[/mm]
Für V = W gilt V = Ker(F) [mm] \bigcirc\!\!\!\!\!\!\!\perp Im(F^{ad}) [/mm] = [mm] Ker(F^{ad}) \bigcirc\!\!\!\!\!\!\!\perp [/mm] Im(F).
Für F selbstadjungiert gilt F = [mm] F^{ad} [/mm] und somit V = Ker(F) [mm] \bigcirc\!\!\!\!\!\!\!\perp [/mm] Im(F)
Bei einem unitären Vektorraum V gilt [mm] Ker(F^{ad}) [/mm] = Ker(F), [mm] Im(F^{ad}) [/mm] = Im(F).... Warum nur bei einem unitären Vektorraum? Warum gilt das nicht auch im euklidischen Raum?
Danke für eure Zeit.
Grüsse, Amaro
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:07 Mi 02.09.2009 | Autor: | felixf |
Hallo Amaro!
> Ich schreibe übermorgen meine LA-Prüfung und habe da noch
> eine wohl letzte Frage...
>
> Es gibt einen Satz, der lautet:
>
> "Sind V und W euklidische Vektorräume mit
> Ohrthonormalbasen A und B, so gilt für jede lineare
> Abbildung F: V [mm]\to[/mm] W
> [mm]M_{A}^{B}(F^{ad})[/mm] = [mm](M_{B}^{A}(F))^{t}"[/mm]
>
>
> Jetzt steht aber auf
> Wikipedia
> lediglich, dass die adjungierte Matrix einer reellen
> Matrix, die Transponierte ist. Keine Voraussetzung von
> Orthonormalbasen..
Nun, dort wird von der Standard-Orthonormalbasis [mm] $e_1, \dots, e_n$ [/mm] und dem Standardskalarprodukt ausgegangen.
Wenn du nun das Skalarprodukt von $V$ bzgl. der Basis $A$ anschaust, dann wird aus $A$ ja die Standardbasis [mm] $e_1, \dots, e_n$ [/mm] und aus dem Skalarprodukt wird das Standardskalarprodukt.
Oder etwas genauer: wenn $A = [mm] (v_1, \dots, v_n)$ [/mm] ist und [mm] $\Phi_A [/mm] : V [mm] \to \IR^n$ [/mm] der Isomorphismus mit [mm] $\Phi_A(v_i) [/mm] = [mm] e_i$, [/mm] dann gilt [mm] $\langle [/mm] v, w [mm] \rangle [/mm] = [mm] \langle \Phi_A(v), \Phi_A(w) \rangle$, [/mm] wobei [mm] $\langle \bullet, \bullet \rangle$ [/mm] auf der linken Seite das Skalarprodukt von $V$ und auf der rechten Seite das Standardskalarprodukt ist.
Ist [mm] $\Phi_B$ [/mm] der entsprechende Isomorphismus fuer $B$, so gilt ja fuer $v [mm] \in [/mm] V$, $w [mm] \in [/mm] W$:
[mm] $\langle [/mm] F(v), w [mm] \rangle [/mm] = [mm] \langle \Phi_B(F(v)), \Phi_B(w) \rangle [/mm] = [mm] \langle M_A^B(F) \Phi_A(v), \Phi_B(w) \rangle [/mm] = [mm] \langle \Phi_A(v), M_A^B(F)^t \Phi_B(w) \rangle$
[/mm]
und
[mm] $\langle [/mm] v, [mm] F^{ad}(w) \rangle [/mm] = [mm] \langle \Phi_A(v), \Phi_A(F^{ad}(w)) \rangle [/mm] = [mm] \langle \Phi_A(v), M_B^A(F^{ad}) \Phi_B(w) \rangle$
[/mm]
Da die Adjungierte eindeutig ist, folgt [mm] $M_A^B(F)^t [/mm] = [mm] M_B^A(F^{ad})$.
[/mm]
> Jetzt kann ja eine beliebige, quadratische, reelle Matrix
> ja die darstellende Matrix einer Abbildung sein bezüglich
> zwei nicht orthonormalen Basen. Ist die Matrix der
> adjungierten Abbildung hier auch einfach die Transponierte?
Nein, da du ein anderes Skalarprodukt auf dem [mm] $\IR^n$ [/mm] induziert bekommst (bzw. moeglicherweise sogar zwei verschiedene, eins fuer $V$ und eins fuer $W$) und dann die Adjungierte bzgl. den zwei verschiedenen Berechnen musst, und nicht bzgl. zweimal dem Standardskalarprodukt.
> (Ich vermute stark, ich mache hier einen wichtigen
> Unterschied zwischen adjungierten Endomorphismus und
> adjungierten Matrix nicht, der eigentlich zu machen
> wäre... aber ich würde dies gerne bestätigt bekommen
> :))
Nun, es haengt halt davon ab bzgl. welchen Skalarprodukten du die Adjungierte haben willst.
> Noch eine zweite Frage.
>
>
> Bei einer linearen Abbildung zwischen euklidischen
> Vektorräumen V, W gilt ja [mm]Im(F^{ad})[/mm] = [mm](Ker(F))^{\perp}[/mm]
> und [mm]Ker(F^{ad})[/mm] = [mm](Im(F))^{\perp}.[/mm]
>
> Für V = W gilt V = Ker(F) [mm]\bigcirc\!\!\!\!\!\!\!\perp Im(F^{ad})[/mm]
> = [mm]Ker(F^{ad}) \bigcirc\!\!\!\!\!\!\!\perp[/mm] Im(F).
>
> Für F selbstadjungiert gilt F = [mm]F^{ad}[/mm] und somit V =
> Ker(F) [mm]\bigcirc\!\!\!\!\!\!\!\perp[/mm] Im(F)
Ja.
> Bei einem unitären Vektorraum V gilt [mm]Ker(F^{ad})[/mm] = Ker(F),
> [mm]Im(F^{ad})[/mm] = Im(F).... Warum nur bei einem unitären
> Vektorraum? Warum gilt das nicht auch im euklidischen
> Raum?
Wo hast du das her? Das gilt naemlich nicht, sondern so wie oben [mm] $\ker F^{ad} [/mm] = [mm] Im(F)^\bot$ [/mm] und [mm] $Im(F^{ad}) [/mm] = [mm] (\ker F)^\bot$.
[/mm]
LG Felix
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 19:13 Mi 02.09.2009 | Autor: | Arcesius |
Hallo Felix!
> Hallo Amaro!
>
> > Ich schreibe übermorgen meine LA-Prüfung und habe da noch
> > eine wohl letzte Frage...
> >
> > Es gibt einen Satz, der lautet:
> >
> > "Sind V und W euklidische Vektorräume mit
> > Ohrthonormalbasen A und B, so gilt für jede lineare
> > Abbildung F: V [mm]\to[/mm] W
> > [mm]M_{A}^{B}(F^{ad})[/mm] = [mm](M_{B}^{A}(F))^{t}"[/mm]
> >
> >
> > Jetzt steht aber auf
> > Wikipedia
> > lediglich, dass die adjungierte Matrix einer reellen
> > Matrix, die Transponierte ist. Keine Voraussetzung von
> > Orthonormalbasen..
>
> Nun, dort wird von der Standard-Orthonormalbasis [mm]e_1, \dots, e_n[/mm]
> und dem Standardskalarprodukt ausgegangen.
Ok, gut.. d.h. wenn ich eine Aufgabe kriege: "Berechnen Sie die adjungierte Abbildung bezüglich dieser Basis mit diesem Skalarprodukt", dann benutze ich Gram-Schmidt für die berechnung einer Orthonormalbasis mit dem gegebenen Skalarprodukt.. ja?
>
> Wenn du nun das Skalarprodukt von [mm]V[/mm] bzgl. der Basis [mm]A[/mm]
> anschaust, dann wird aus [mm]A[/mm] ja die Standardbasis [mm]e_1, \dots, e_n[/mm]
> und aus dem Skalarprodukt wird das Standardskalarprodukt.
>
> Oder etwas genauer: wenn [mm]A = (v_1, \dots, v_n)[/mm] ist und
> [mm]\Phi_A : V \to \IR^n[/mm] der Isomorphismus mit [mm]\Phi_A(v_i) = e_i[/mm],
> dann gilt [mm]\langle v, w \rangle = \langle \Phi_A(v), \Phi_A(w) \rangle[/mm],
> wobei [mm]\langle \bullet, \bullet \rangle[/mm] auf der linken Seite
> das Skalarprodukt von [mm]V[/mm] und auf der rechten Seite das
> Standardskalarprodukt ist.
>
> Ist [mm]\Phi_B[/mm] der entsprechende Isomorphismus fuer [mm]B[/mm], so gilt
> ja fuer [mm]v \in V[/mm], [mm]w \in W[/mm]:
>
> [mm]\langle F(v), w \rangle = \langle \Phi_B(F(v)), \Phi_B(w) \rangle = \langle M_A^B(F) \Phi_A(v), \Phi_B(w) \rangle = \langle \Phi_A(v), M_A^B(F)^t \Phi_B(w) \rangle[/mm]
>
> und
> [mm]\langle v, F^{ad}(w) \rangle = \langle \Phi_A(v), \Phi_A(F^{ad}(w)) \rangle = \langle \Phi_A(v), M_B^A(F^{ad}) \Phi_B(w) \rangle[/mm]
>
> Da die Adjungierte eindeutig ist, folgt [mm]M_A^B(F)^t = M_B^A(F^{ad})[/mm].
>
> > Jetzt kann ja eine beliebige, quadratische, reelle Matrix
> > ja die darstellende Matrix einer Abbildung sein bezüglich
> > zwei nicht orthonormalen Basen. Ist die Matrix der
> > adjungierten Abbildung hier auch einfach die
> Transponierte?
>
> Nein, da du ein anderes Skalarprodukt auf dem [mm]\IR^n[/mm]
> induziert bekommst (bzw. moeglicherweise sogar zwei
> verschiedene, eins fuer [mm]V[/mm] und eins fuer [mm]W[/mm]) und dann die
> Adjungierte bzgl. den zwei verschiedenen Berechnen musst,
> und nicht bzgl. zweimal dem Standardskalarprodukt.
Ok.. Wenn aber jetzt V eine Basis hat, und W schon eine Orthonormalbasis hat (z.B die Standardbasis), dann muss ich nur noch V orthonormalisieren und entsprechend die darstellende Matrix bezüglich den Basen transponieren...
>
> > (Ich vermute stark, ich mache hier einen wichtigen
> > Unterschied zwischen adjungierten Endomorphismus und
> > adjungierten Matrix nicht, der eigentlich zu machen
> > wäre... aber ich würde dies gerne bestätigt bekommen
> > :))
>
> Nun, es haengt halt davon ab bzgl. welchen Skalarprodukten
> du die Adjungierte haben willst.
>
> > Noch eine zweite Frage.
> >
> >
> > Bei einer linearen Abbildung zwischen euklidischen
> > Vektorräumen V, W gilt ja [mm]Im(F^{ad})[/mm] = [mm](Ker(F))^{\perp}[/mm]
> > und [mm]Ker(F^{ad})[/mm] = [mm](Im(F))^{\perp}.[/mm]
> >
> > Für V = W gilt V = Ker(F) [mm]\bigcirc\!\!\!\!\!\!\!\perp Im(F^{ad})[/mm]
> > = [mm]Ker(F^{ad}) \bigcirc\!\!\!\!\!\!\!\perp[/mm] Im(F).
> >
> > Für F selbstadjungiert gilt F = [mm]F^{ad}[/mm] und somit V =
> > Ker(F) [mm]\bigcirc\!\!\!\!\!\!\!\perp[/mm] Im(F)
>
> Ja.
>
> > Bei einem unitären Vektorraum V gilt [mm]Ker(F^{ad})[/mm] = Ker(F),
> > [mm]Im(F^{ad})[/mm] = Im(F).... Warum nur bei einem unitären
> > Vektorraum? Warum gilt das nicht auch im euklidischen
> > Raum?
>
> Wo hast du das her? Das gilt naemlich nicht, sondern so wie
> oben [mm]\ker F^{ad} = Im(F)^\bot[/mm] und [mm]Im(F^{ad}) = (\ker F)^\bot[/mm].
>
Aus dem Buch Gerd Fischer: Lineare Algebra.. allerdings sehe ich gerade, dass da vorausgesetzt wird, dass der Endomorphismus normal ist.. dann gilt das doch...?
> LG Felix
>
Vielen Dank Felix.. :)
Grüsse, Amaro
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:46 Mi 02.09.2009 | Autor: | felixf |
Hallo Amaro!
> > > Jetzt steht aber auf
> > > Wikipedia
> > > lediglich, dass die adjungierte Matrix einer reellen
> > > Matrix, die Transponierte ist. Keine Voraussetzung von
> > > Orthonormalbasen..
> >
> > Nun, dort wird von der Standard-Orthonormalbasis [mm]e_1, \dots, e_n[/mm]
> > und dem Standardskalarprodukt ausgegangen.
>
> Ok, gut.. d.h. wenn ich eine Aufgabe kriege: "Berechnen Sie
> die adjungierte Abbildung bezüglich dieser Basis mit
> diesem Skalarprodukt", dann benutze ich Gram-Schmidt für
> die berechnung einer Orthonormalbasis mit dem gegebenen
> Skalarprodukt.. ja?
Ja, dann bestimmst du die Darstellungsmatrix bzgl. der Basis, und dann transponierst du.
> > Nein, da du ein anderes Skalarprodukt auf dem [mm]\IR^n[/mm]
> > induziert bekommst (bzw. moeglicherweise sogar zwei
> > verschiedene, eins fuer [mm]V[/mm] und eins fuer [mm]W[/mm]) und dann die
> > Adjungierte bzgl. den zwei verschiedenen Berechnen musst,
> > und nicht bzgl. zweimal dem Standardskalarprodukt.
>
> Ok.. Wenn aber jetzt V eine Basis hat, und W schon eine
> Orthonormalbasis hat (z.B die Standardbasis), dann muss ich
> nur noch V orthonormalisieren und entsprechend die
> darstellende Matrix bezüglich den Basen transponieren...
Ja.
> > > Bei einem unitären Vektorraum V gilt [mm]Ker(F^{ad})[/mm] = Ker(F),
> > > [mm]Im(F^{ad})[/mm] = Im(F).... Warum nur bei einem unitären
> > > Vektorraum? Warum gilt das nicht auch im euklidischen
> > > Raum?
> >
> > Wo hast du das her? Das gilt naemlich nicht, sondern so wie
> > oben [mm]\ker F^{ad} = Im(F)^\bot[/mm] und [mm]Im(F^{ad}) = (\ker F)^\bot[/mm].
>
> Aus dem Buch Gerd Fischer: Lineare Algebra.. allerdings
> sehe ich gerade, dass da vorausgesetzt wird, dass der
> Endomorphismus normal ist.. dann gilt das doch...?
Ja, dann gilt das. Den Endomorphismus kannst du ja unitaer diagonalisieren, und transponieren aendert an der Diagonalmatrix nichts. Und Kern und Bild sind orthogonale Komplemente.
LG Felix
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 09:36 Do 03.09.2009 | Autor: | Arcesius |
Hallo Felix
Danke für deine Antwort. Jetzt ist mir das klar :)
Noch aber rasch zu einem verwandten Thema... Die duale Abbildung...
Nun, um die duale Basis zu finden, invertiere ich die darstellende Matrix mit der Basis in V und transponiere sie anschliessend, um die duale Basis in V* zu erhalten, richtig?
Jetzt aber.. in [mm] K^{n} [/mm] dualisiert man ja durch transponieren. D.h wenn ich eine darstellende Matrix M(F) von F [mm] \in [/mm] End(V) habe und die darstellende Matrix von F* erhalten möchte, dann ist doch [mm] (M(F))^{t} [/mm] = M(F*).
Hier wird jetzt aber von irgend einer Basis ausgegangen, oder? Also ich kann im [mm] K^{n} [/mm] eine beliebige Basis wählen, die nicht unbedingt orthonormal sein muss, und die Matrix trotzdem transponieren, ohne vorher auf Gram-Schmidt zurückzugreifen, und erhalte trotzdem M(F*)... oder?
Vielen Dank :)
Grüsse, Amaro
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 18:42 Do 03.09.2009 | Autor: | felixf |
Hallo Amaro!
> Noch aber rasch zu einem verwandten Thema... Die duale
> Abbildung...
>
>
> Nun, um die duale Basis zu finden, invertiere ich die
> darstellende Matrix mit der Basis in V und transponiere sie
> anschliessend, um die duale Basis in V* zu erhalten,
> richtig?
Ok. Da muss ich das erstmal selber sauber aufschreiben :)
Du hast also eine Basis [mm] $e_1, \dots, e_n$ [/mm] von $V$ und die zugeoerige duale Basis [mm] $e_1^\ast, \dots, e_n^\ast$, [/mm] und eine weitere Basis [mm] $v_1, \dots, v_n$ [/mm] von $V$.
Dann stellst du [mm] $v_1, \dots, v_n$ [/mm] bzgl. [mm] $e_1, \dots, e_n$ [/mm] dar, etwa [mm] $v_j [/mm] = [mm] \sum_{i=1}^n a_{ij} e_i$, [/mm] also formal geschrieben [mm] $(e_1, \dots, e_n) [/mm] A = [mm] (v_1, \dots, v_n)$ [/mm] mit $A = [mm] \pmat{ a_{11} & \dots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{n1} & \cdots & a_{nn} }$.
[/mm]
(Die $j$-te Spalte von $A$ beschreibt [mm] $v_j$ [/mm] als Linearkombination der [mm] $e_1, \dots, e_n$.)
[/mm]
Du willst jetzt die duale Basis [mm] $v_1^\ast, \dots, v_n^\ast$ [/mm] von [mm] $V^\ast$ [/mm] bestimmen mit [mm] $v_i^\ast(v_j) [/mm] = [mm] \delta_{ij}$, [/mm] formal geschrieben: du willst [mm] $\vek{ v_1^\ast \\ \vdots \\ v_n^\ast } (v_1, \dots, v_n) [/mm] = [mm] E_n$, [/mm] und du hast [mm] $\vek{ e_1^\ast \\ \vdots \\ e_n^\ast} (e_1, \dots, e_n) [/mm] = [mm] E_n$. [/mm] Wenn du mit $A$ von rechts multiplizierst, erhaelst du [mm] $\vek{ e_1^\ast \\ \vdots \\ e_n^\ast} (v_1, \dots, v_n) [/mm] = A$. Wenn du nun mit [mm] $A^{-1}$ [/mm] von links multiplizierst, erhaelst du [mm] $A^{-1} \vek{ e_1^\ast \\ \vdots \\ e_n^\ast} (v_1, \dots, v_n) [/mm] = [mm] E_n$.
[/mm]
Es ist also [mm] $\vek{ v_1^\ast \\ \vdots \\ v_n^\ast } [/mm] = [mm] A^{-1} \vek{ e_1^\ast \\ \vdots \\ e_n^\ast}$: [/mm] ist [mm] $A^{-1} [/mm] = [mm] (b_{ij})_{ij}$, [/mm] dann gilt [mm] $v_i^\ast [/mm] = [mm] \sum_{j=1}^n b_{ij} e_j^\ast$.
[/mm]
Anders gesagt: die $i$-te Zeile von [mm] $A^{-1}$ [/mm] gibt die Koeffizienten der [mm] $e_j^\ast$, [/mm] um [mm] $v_i^\ast$ [/mm] zu beschreiben.
Wenn du also die $j$-te Spalte von [mm] $(A^{-1})^T$ [/mm] nimmst, bekommst du die Koeffizienten fuer [mm] $e_1^\ast, \dots, e_n^\ast$, [/mm] die [mm] $v_j^\ast$ [/mm] liefern.
> Jetzt aber.. in [mm]K^{n}[/mm] dualisiert man ja durch
> transponieren. D.h wenn ich eine darstellende Matrix M(F)
> von F [mm]\in[/mm] End(V) habe und die darstellende Matrix von F*
> erhalten möchte, dann ist doch [mm](M(F))^{t}[/mm] = M(F*).
>
> Hier wird jetzt aber von irgend einer Basis ausgegangen,
> oder?
Ja, und zwar von der kanonischen Einheitsbasis [mm] $e_1, \dots, e_n$ [/mm] des [mm] $K^n$ [/mm] und der zugehoerigen dualen Basis [mm] $e_1^\ast, \dots, e_n^\ast$ [/mm] von [mm] $(K^n)^\ast$.
[/mm]
LG Felix
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:54 Do 03.09.2009 | Autor: | Arcesius |
Danke Felix :)
Dann hoffe ich doch, dies morgen anwenden zu können!
Grüsse, Amaro
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 19:37 Do 03.09.2009 | Autor: | felixf |
Hallo Amaro,
> Danke Felix :)
>
> Dann hoffe ich doch, dies morgen anwenden zu können!
bitte, und viel Erfolg fuer morgen :)
LG Felix
|
|
|
|