Bilinearform Beweis < Abbildungen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Aufgabe | [Dateianhang nicht öffentlich] |
Hallo!
In obiger Aufgabe soll ich ja zeigen, dass die "Vorschrift" eine Bilinearform ist. Doch irgendwie fehlt mir in der obigen Definition zunächst das "u" und das "v" auf der rechten Seite... Das macht mich bei allem unsicher.
Ich vermute, dass die Abbildung jetzt einfach folgendes macht: Bezüglich meiner Basis B setze ich ja bestimmte Vektoren [mm]u,v[/mm] ein, die irgendwelche Linearkombinationen der Basisvektoren [mm] v_{1},...,v_{n} [/mm] sind. Und genau die Skalare [mm] \alpha_{1}, [/mm] ..., [mm] \alpha_{n} [/mm] bzw. [mm] \beta_{1}, [/mm] ... [mm] \beta_{n}, [/mm] die ich bei der Linearkombination der Basisvektoren zum Bilden von u,v gebraucht habe, setze ich jetzt eigentlich ein, und gar nicht die Vektoren u und v selbst.
1. Frage: Stimmt das?
Ich weiß, dass ich zum Nachweisen der Bilinearform Linearität an erster und zweiter Stelle zeigen muss. Das ist nur irgendwie jetzt für mich komisch, weil ich ja nicht die Vektoren u,v selbst "einsetze", sondern nur die Skalare der Linearkombinationen der Basisvektoren für die Bildung von u und v.
Ich schreibe jetzt mal, wie ich mir den Nachweis vorstellen könnte (erstmal nur für Linearität an erster Stelle).
Zu zeigen: [mm] = + [/mm]
Sei [mm] u_{1} [/mm] = [mm] \summe_{i=1}^{n}\alpha_{i}v_{i}
[/mm]
Sei [mm] u_{2} [/mm] = [mm] \summe_{i=1}^{n}\gamma_{i}v_{i}
[/mm]
Sei v = [mm] \summe_{i=1}^{n}\beta_{i}v_{i}.
[/mm]
Dann ist
[mm]
[/mm]
= [mm] \left(\alpha_{1} + \gamma_{1},...,\alpha_{n}+\gamma_{n}\right)A\vektor{\beta_{1}\\ \vdots \\ \beta_{n}}
[/mm]
= [mm] \left(\left(\alpha_{1},...,\alpha_{n}\right) + \left(\gamma_{1},...,\gamma_{n}\right)\right)A\vektor{\beta_{1}\\ \vdots \\ \beta_{n}}
[/mm]
= [mm] \left(\alpha_{1},...,\alpha_{n}\right)A\vektor{\beta_{1}\\ \vdots \\ \beta_{n}} [/mm] + [mm] \left(\gamma_{1},...,\gamma_{n}\right)A\vektor{\beta_{1}\\ \vdots \\ \beta_{n}}
[/mm]
= [mm] [/mm] + [mm]
[/mm]
Frage 2: Wäre das wirklich "so einfach"? Ist das überhaupt richtig und mathematisch korrekt? Ich bin mir unsicher, auch weil ich im Moment nicht so viel in der Vorlesung verstehe
Vielen Dank für Eure Mühe
Stefan.
Dateianhänge: Anhang Nr. 1 (Typ: png) [nicht öffentlich]
|
|
|
|
> [Dateianhang nicht öffentlich]
> Ich vermute, dass die Abbildung jetzt einfach folgendes
> macht: Bezüglich meiner Basis B
Hallo,
haargenau. Du hast eine Basis [mm] B=(v_1,...v_n) [/mm] gegeben, und [mm] \vektor{a_1 \\\vdots\\a_n} [/mm] und [mm] \vektor{b_1 \\\vdots\\b_n} [/mm] sind die Koordinatenvektoren von u und v bzgl. dieser Basis, also [mm] u=\vektor{a_1 \\\vdots\\a_n}_B [/mm] und [mm] v=\vektor{b_1 \\\vdots\\b_n}_B
[/mm]
>
> Ich schreibe jetzt mal, wie ich mir den Nachweis
> vorstellen könnte (erstmal nur für Linearität an erster
> Stelle).
> [...]
> Frage 2: Wäre das wirklich "so einfach"?
Ja, es ist so einfach, und Du machst es richtig.
Gruß v. Angela
|
|
|
|
|
Hallo Angela,
zunächst vielen Dank für Deine Antwort.
Ging das dann so weiter?:
Skalarmultiplikations-Linearität:
Für zusätzlich [mm] \lambda \in \IK,
[/mm]
Sei u = [mm] \summe_{i=1}^{n}\alpha_{i}v_{i} [/mm]
Sei v = [mm] \summe_{i=1}^{n}\beta_{i}v_{i} [/mm]
[mm] <\lambda*u,v> [/mm]
= [mm] \left(\lambda*\alpha_{1},...,\lambda*\alpha_{n}\right)A\vektor{\beta_{1}\\ \vdots \\ \beta_{n}} [/mm]
= [mm] \lambda*\left(\alpha_{1},...,\alpha_{n}\right)A\vektor{\beta_{1}\\ \vdots \\ \beta_{n}} [/mm]
= [mm] \lambda*
[/mm]
= [mm] \lambda*\left(\alpha_{1},...,\alpha_{n}\right)A\vektor{\beta_{1}\\ \vdots \\ \beta_{n}}
[/mm]
Nun mit Kommutativität der Multiplikation mit Skalar: (Gibt es das wirklich? Es erschien mir logisch, aber ist das durch die Körperdefinition legitimiert? Oder benutze ich, dass [mm] \left(\alpha_{1},...,\alpha_{n}\right) [/mm] als Zeilenvektor und damit Matrix eine lineare Abbildung ist und somit wieder gilt:
[mm] \lambda*\left(\alpha_{1},...,\alpha_{n}\right)*Vektor [/mm] = [mm] \left(\alpha_{1},...,\alpha_{n}\right)(\lambda*Vektor)
[/mm]
??)
= [mm] \left(\alpha_{1},...,\alpha_{n}\right)*\lambda*A\vektor{\beta_{1}\\ \vdots \\ \beta_{n}}
[/mm]
Nun Linearität von A (A beschreibt lineare Abbildung, es gilt dann [mm] \lambda*Av [/mm] = [mm] A(\lambda*v)
[/mm]
[mm] =\left(\alpha_{1},...,\alpha_{n}\right)A\left(\lambda*\vektor{\beta_{1}\\ \vdots \\ \beta_{n}}\right)
[/mm]
[mm] =\left(\alpha_{1},...,\alpha_{n}\right)A\vektor{\lambda*\beta_{1}\\ \vdots \\ \lambda*\beta_{n}}
[/mm]
= [mm]
[/mm]
Nun noch die Linearität der Addition an der zweiten Stelle:
Sei u = [mm] \summe_{i=1}^{n}\alpha_{i}v_{i} [/mm]
Sei [mm] v_{1} [/mm] = [mm] \summe_{i=1}^{n}\beta_{i}v_{i} [/mm]
Sei [mm] v_{2} [/mm] = [mm] \summe_{i=1}^{n}\delta_{i}v_{i} [/mm]
Es ist dann
[mm]
[/mm]
= [mm] \left(\alpha_{1},...,\alpha_{n}\right)A\vektor{\beta_{1} + \delta_{1}\\ \vdots \\ \beta_{n} + \delta_{n}} [/mm]
= [mm] \left(\alpha_{1},...,\alpha_{n}\right)A\left(\vektor{\beta_{1}\\ \vdots \\ \beta_{n}} + \vektor{\delta_{1}\\ \vdots \\ \delta_{n}}\right)
[/mm]
Linearität von A:
[mm] =\left(\alpha_{1},...,\alpha_{n}\right)A\left(\vektor{\beta_{1}\\ \vdots \\ \beta_{n}} + \vektor{\delta_{1}\\ \vdots \\ \delta_{n}}\right)
[/mm]
[mm] =\left(\alpha_{1},...,\alpha_{n}\right)\left(A\vektor{\beta_{1}\\ \vdots \\ \beta_{n}} + A\vektor{\delta_{1}\\ \vdots \\ \delta_{n}}\right)
[/mm]
[mm] =\left(\alpha_{1},...,\alpha_{n}\right)A\vektor{\beta_{1}\\ \vdots \\ \beta_{n}} [/mm] + [mm] \left(\alpha_{1},...,\alpha_{n}\right)A\vektor{\delta_{1}\\ \vdots \\ \delta_{n}}
[/mm]
[mm] =+.
[/mm]
(Mit welcher Legitimation durfte ich den vorletzten Schritt machen? Meiner Meinung nach habe ich die Form "Vektor*(Vektor + Vektor)"; kann ich dafür dann das Distributivgesetz der Matrizenmultiplikation nehmen?)
Wäre ich dann fertig mit dem "Beweis", dass es sich um eine Bilinearform handelt?
Vielen Dank für Eure Mühe,
Stefan.
|
|
|
|
|
Hallo,
ich habe jetzt nicht jeden einzelnen Index angeschaut, aber es sieht "drübergeguckt" richtig aus:
Du hast gezeigt, daß [mm] <\lambda u,v>=\lambda=
[/mm]
und [mm] =<\lambda u,v_1> +<\lambda u,v_2> [/mm] sowie [mm] =+.
[/mm]
Zu Deinen Fragen bzgl. der Begründungen: das ist alles Rechnen mit Matrizen.
Gruß v. Angela
|
|
|
|
|
Danke Angela!
|
|
|
|