Determinante / lineare Abhängigkeit < Determinanten < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 15:40 Do 08.07.2004 | Autor: | Micha |
Hallo Matheraum!
Für meine Klausurvorbereitung hab ich mal folgende Aufgabe aus dem Fischer (14. Auflage, 3.3. / 4) gerechnet, aber der fischer hat ja keine Lösungsvorschläge und hoffe da, dass mir jemand sagt, ob das so stimmt:
Für [mm]x=(x_1 , ... , x_n) [/mm] und [mm] y= (y_1 , ... , y_n) [/mm] aus [mm]K^n [/mm] sind äquivalent:
i) x und y sind linear abhängig.
ii) [mm] det\begin{pmatrix}
x_i & y_i \\
x_j & y_j
\end{pmatrix} = 0 [/mm] für alle i, j.
---------------------------------------------------
Lösungsidee: Also zunächst mal graphisch bedeutet das ja, dass die Vektoren auf einer Geraden liegen und somit auch ein Parallelepiped des Volumens 0 aufspannen. Das wurde so in der Vorlesung mitdefiniert. Umkehrt ebenso: Ist das Volumen 0, so sind sie linear abhängig.
Meine algebraische Lösungsidee wäre folgende:
0 = [mm] \begin{bmatrix}
x_i & y_i \\
x_j & y_j
\end{bmatrix} [/mm] = [mm] x_i y_j [/mm] - [mm] x_j y_i
[/mm]
[mm] \Rightarrow x_i [/mm] = [mm] \bruch{x_j y_i}{y_j} [/mm] = [mm] \bruch{x_j}{y_j} \cdot y_i
[/mm]
[/mm]
und
[mm] x_j = \bruch{x_i y_j}{y_i} = \bruch{x_i}{y_i} \cdot y_j[/mm]
Damit es. ein [mm]\lambda : \lambda = \bruch{x_i}{y_i} = \bruch{x_j}{y_j}[/mm].
Kann ich nun argumentieren, dass das verhälnis der jeweils i-ten und j-ten Komponente gleich ist für alle i, j und damit x linear abhängig von y???
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:32 Do 08.07.2004 | Autor: | Marc |
Hallo Hathorman!
> Hallo Matheraum!
> Für meine Klausurvorbereitung hab ich mal folgende Aufgabe
> aus dem Fischer (14. Auflage, 3.3. / 4) gerechnet, aber der
> fischer hat ja keine Lösungsvorschläge und hoffe da, dass
> mir jemand sagt, ob das so stimmt:
>
> Für [mm]x=(x_1 , ... , x_n)[/mm] und [mm]y= (y_1 , ... , y_n)[/mm] aus [mm]K^n[/mm]
> sind äquivalent:
>
> i) x und y sind linear abhängig.
> ii) [mm]det\begin{pmatrix}
x_i & y_i \\
x_j & y_j
\end{pmatrix} = 0[/mm] für alle i,
> j.
> ---------------------------------------------------
> Lösungsidee: Also zunächst mal graphisch bedeutet das ja,
> dass die Vektoren auf einer Geraden liegen und somit auch
> ein Parallelepiped des Volumens 0 aufspannen. Das wurde so
> in der Vorlesung mitdefiniert. Umkehrt ebenso: Ist das
> Volumen 0, so sind sie linear abhängig.
Okay, obwohl es hier ja nur zwei-dimensional ist und wir ein Parallelogramm haben.
> Meine algebraische Lösungsidee wäre folgende:
>
> 0 = [mm]\begin{bmatrix}
x_i & y_i \\
x_j & y_j
\end{bmatrix}[/mm] = [mm]x_i y_j[/mm] - [mm]x_j y_i
[/mm]
> [mm]\Rightarrow x_i[/mm] = [mm]\bruch{x_j y_i}{y_j}[/mm] = [mm]\bruch{x_j}{y_j} \cdot y_i[/mm]
Gut, aber das gilt natürlich nur, falls [mm] $y_j\not=0$.
[/mm]
> und
> [mm]x_j = \bruch{x_i y_j}{y_i} = \bruch{x_i}{y_i} \cdot y_j[/mm]
Und hier muß auch noch [mm] $y_i\not=0$ [/mm] vorausgesetzt sein bzw. noch der "Gegenfall" untersucht werden.
> Damit es. ein [mm]\lambda : \lambda = \bruch{x_i}{y_i} = \bruch{x_j}{y_j}[/mm].
>
>
> Kann ich nun argumentieren, dass das verhälnis der jeweils
> i-ten und j-ten Komponente gleich ist für alle i, j und
> damit x linear abhängig von y???
Mir ist bei deiner Lösung gar nicht so klar, was du eigentlich zeigen willst oder meinst, bereits gezeigt zu haben, und ich befürchte, dir ist es auch nicht klar.
Äquivalenzen bestehen aus zwei logischen Schlußrichtungen, einmal [mm] $\Rightarrow$ [/mm] und einmal [mm] $\Leftarrow$. [/mm] Diese würde ich immer versuchen, mir einzeln zu überlegen und dann zu zeigen. In Einzelfällen bekommt man zwar auch eine schöne Äquivalenzkette hin, aber das ist die Ausnahme.
In deinem Fall sind die beiden Richtungen
i) [mm] $\Rightarrow$ [/mm] ii)
und
ii) [mm] $\Rightarrow$ [/mm] i)
Also los:
"i) [mm] $\Rightarrow$ [/mm] ii)"
x und y seien zwei linear abhängige Vektoren.
Dann ist der eine ein Vielfaches des anderen, es existiert also eine [mm] $\lambda\in\IR$, [/mm] so dass [mm] $x=\lambda*y$.
[/mm]
Daraus folgt sofort die Behauptung ii)
"ii) [mm] $\Rightarrow$ [/mm] i)"
Angenommen, es gäbe vier Komponenten [mm] $x_i, x_j, y_i, y_j$, [/mm] so dass [mm]\begin{vmatrix}
x_i & y_i \\
x_j & y_j
\end{vmatrix}\not= 0[/mm]
[mm] $\Rightarrow\ x_i*y_j-x_j*y_i\not=0$
[/mm]
[mm] $\Rightarrow\ x_i*y_j\not=x_j*y_i$
[/mm]
Hier mußt du jetzt folgern, dass es kein [mm] $\lambda\in\IR$ [/mm] gibt mit [mm] $x_i=\lambda*y_i$ [/mm] und [mm] $x_j=\lambda*y_j$, [/mm] dabei helfen dir (hoffentlich) deine bisherigen Überlegungen oben (denk' an die Fallunterscheidungen).
Viele Grüße,
Marc
|
|
|
|