Besondere Matrix < Abbildungen+Matrizen < Lin. Algebra/Vektor < Oberstufe < Schule < Mathe < Vorhilfe
|
Aufgabe | Begründen Sie: Wenn eine Abbildungsvorschrift [mm] \alpha: \vec{x'} [/mm] = [mm] \pmat{ a & b \\ c & d }\vec{x} [/mm] gegebene Abbildung zwei verschiedene Punkte auf den gleichen Punkt abbildet, dann bildet sie mindestens einen vom Ursprung verschiedenen Punkt auf den Ursprung ab. |
Also, hier mal mein Ansatz:
X und Y sind die verschiedenen Punkte, die auf denselben Punkt abgebildet werden sollen. Dann gilt:
I. [mm] ax_1 [/mm] + [mm] bx_2 [/mm] = [mm] ay_1 [/mm] + [mm] by_2 \\
[/mm]
II. [mm] cx_1 [/mm] + [mm] dx_2 [/mm] = [mm] cy_1 [/mm] + [mm] dy_2 \\
[/mm]
-------------------------------------- [mm] \\
[/mm]
Ia. [mm] a(x_1 [/mm] - [mm] y_1) [/mm] + [mm] b(x_2 [/mm] - [mm] y_2) [/mm] = 0 [mm] \\
[/mm]
IIa. [mm] c(x_1 [/mm] - [mm] y_1) [/mm] + [mm] d(x_2 [/mm] - [mm] y_2) [/mm] = 0 [mm] \\
[/mm]
Als Tipp wurde mir nun genannt, dass die Spalten- bzw. Zeilenvektoren jeweils linear abhängig sind.
Dann gilt: [mm] x_1 [/mm] - [mm] y_1 \neq [/mm] 0 und [mm] x_2 [/mm] - [mm] y_2 \neq [/mm] 0
Daraus folgt: a = r * c und b = r * d mit r [mm] \in [/mm] R
Bei linearer Abhängigkeit besitzt folgende Gleichung mehr als eine Lösung (außer 0):
[mm] \lambda [/mm] * [mm] \vektor{a \\ b} [/mm] + [mm] \phi [/mm] * [mm] \vektor{ c \\ d} [/mm] = [mm] \vec{0} \\
[/mm]
Umgeformt ergibt sich dann: [mm] \lambda [/mm] (a+b) + [mm] \phi [/mm] (c+d) = 0 bzw. [mm] \lambda [/mm] (r*c + r*d) + [mm] \phi [/mm] (c+d) = 0 bzw. [mm] \lambda [/mm] * r = [mm] -\phi
[/mm]
Dies ist für mich der Beweis, dass die Zeilenvektoren linear abhängig sind.
Wenn nun ein beliebiger Punkt P auf den Ursprung abgebildet wird, gilt:
[mm] \pmat{ a & b \\ c & d }\vec{p} [/mm] = [mm] \vec{0} [/mm] bzw.
I. [mm] ap_1 [/mm] + [mm] bp_2 [/mm] = 0
II. [mm] cp_1 [/mm] + [mm] dp_2 [/mm] = 0
Dann lässt sich sagen: [mm] p_1 [/mm] = [mm] (x_1 [/mm] - [mm] y_1)*t [/mm] und [mm] p_2 [/mm] = [mm] (x_2 [/mm] - [mm] y_2)*t [/mm]
d.h. der Ortsvektor von P muss ein reelles Vielfache des Differenzvektors zwischen X und Y sein.
Bis hierhin bin ich bei meiner Untersuchung gekommen, aber ich weiß nicht, wie es weitergehen soll. Vielleicht habe ich ja auch in die falsche Richtung ermittelt. Für jede Anregung bin ich dankbar.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 18:18 Sa 05.02.2011 | Autor: | pelzig |
Wenn [mm]\alpha(p)=\alpha(\tilde{p})[/mm] für [mm]p\ne\tilde{p}[/mm], dann ist [mm]\alpha(p-\tilde{p})\stackrel{!}{=}\alpha(p)-\alpha(\tilde{p})=0[/mm], d.h. [mm]p-\tilde{p}[/mm] ist ein vom Ursprung verschiedener Punkt, der auf selbigen abgebildet wird.
Gruß, Robert
|
|
|
|
|
Jetzt möchte ich beweisen, dass dieser Fall, der oben beschrieben ist eintritt, wenn die Zeilenvektoren linear abhängig sind. Dazu habe ich folgende Gleichung aufgestellt (X und Y sind die Punkte, die von der Matrix auf den Ursprung abgebildet werden, [mm] \vec{x} \neq \vec{y})
[/mm]
(i) [mm] \vektor{ a \\ b} [/mm] * [mm] (\vec{x} [/mm] - [mm] \vec{y}) [/mm] + [mm] \vektor{ c \\ b} [/mm] * [mm] (\vec{x} [/mm] - [mm] \vec{y}) [/mm] = 0
Daraus wird dann:
[mm] a*(x_1 [/mm] - [mm] y_1) [/mm] + [mm] b*(x_2 [/mm] - [mm] y_2) [/mm] + [mm] c*(x_1 [/mm] - [mm] y_1) [/mm] + [mm] d*(x_2 [/mm] - [mm] y_2) [/mm] = 0
und weiter umgeformt:
[mm] (a+b)*(x_1 [/mm] - [mm] y_1) [/mm] + [mm] (c+d)*(x_2 [/mm] - [mm] y_2) [/mm] = 0
An diesem Punkt müsste sich eigentlich lineare Abhängigkeit ergeben, da gilt: [mm] (x_1 [/mm] - [mm] y_1) \neq [/mm] 0 und [mm] (x_2 [/mm] - [mm] y_2) \neq [/mm] 0.
Kann man das so sagen?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 13:21 So 06.02.2011 | Autor: | pyw |
> Jetzt möchte ich beweisen, dass dieser Fall, der oben
> beschrieben ist eintritt, wenn die Zeilenvektoren linear
> abhängig sind. Dazu habe ich folgende Gleichung
> aufgestellt (X und Y sind die Punkte, die von der Matrix
> auf den Ursprung abgebildet werden, [mm]\vec{x} \neq \vec{y})[/mm]
>
> (i) [mm]\vektor{ a \\ b}[/mm] * [mm](\vec{x}[/mm] - [mm]\vec{y})[/mm] + [mm]\vektor{ c \\ b}[/mm]
Hmm.. mir ist nicht ganz klar, was du hier machst.
> * [mm](\vec{x}[/mm] - [mm]\vec{y})[/mm] = 0
> Daraus wird dann:
> [mm]a*(x_1[/mm] - [mm]y_1)[/mm] + [mm]b*(x_2[/mm] - [mm]y_2)[/mm] + [mm]c*(x_1[/mm] - [mm]y_1)[/mm] + [mm]d*(x_2[/mm] -
> [mm]y_2)[/mm] = 0
> und weiter umgeformt:
> [mm](a+b)*(x_1[/mm] - [mm]y_1)[/mm] + [mm](c+d)*(x_2[/mm] - [mm]y_2)[/mm] = 0
>
> An diesem Punkt müsste sich eigentlich lineare
> Abhängigkeit ergeben, da gilt: [mm](x_1[/mm] - [mm]y_1) \neq[/mm] 0 und [mm](x_2[/mm]
> - [mm]y_2) \neq[/mm] 0.
> Kann man das so sagen?
>
Deine Matrix hat nach neuer Voraussetzung die Form [mm] \pmat{ a & b \\ ra & rb }.
[/mm]
Dann aber wird [mm] \vektor{b\\-a} [/mm] auf den Ursprung abgebildet: [mm] \pmat{ a & b \\ ra & rb }\vektor{b\\-a}=\vektor{0\\0}
[/mm]
Für den Sonderfall a=b=0, der hier noch auftreten kann, ist die Behauptung klar.
Gruß, pyw
|
|
|
|