Zeigen Sie für Matrizen < Numerik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Es seien [mm] 0<\lambda_{1} \leq \ldots \leq \lambda_{n} [/mm] die Eigenwerte der symmetrischen und positiv definiten Matrix A [mm] \in \mathbb{R}^{n \times n} [/mm] sowie [mm] u_{1}, \ldots, u_{n} \in \mathbb{R}^{n} [/mm] zugehörige paarweise orthonormale Eigenvektoren. Für x [mm] \neq [/mm] 0 sei
[mm] F(x):=\frac{\left(x^{\top} x\right)^{2}}{\left(x^{\top} A x\right)\left(x^{\top} A^{-1} x\right)} [/mm] .
Zeigen Sie nun
[mm] F(x)=\frac{1}{\bar{\lambda}\left(\sum \limits_{i=1}^{n} \gamma_{i} \lambda_{i}^{-1}\right)}
[/mm]
mit [mm] x=\sum \limits_{i=1}^{n} \beta_{i} u_{i}, \beta_{i} \in \mathbb{R}, \gamma_{i}:=\left(\sum \limits_{j=1} \beta_{j}^{2}\right)^{-1} \beta_{i}^{2} \) [/mm] und [mm] \( \bar{\lambda}:=\sum \limits_{i=1}^{n} \gamma_{i} \lambda_{i} \) [/mm] für [mm] \( [/mm] i=1, [mm] \ldots, [/mm] n. |
Hallo zusammen,
Folgende Aufgabe verwirrt mich ein wenig - ich habe jetzt mal versucht, mit dem gegebenen, einen Beweis zu konstruieren:
[mm] x^{\top} [/mm] A [mm] x=\left(\sum \limits_{i=1}^{n} \beta_{i} u_{i}\right)^{\top} A\left(\sum \limits_{j=1}^{n} \beta_{j} u_{j}\right)
[/mm]
Da die Eigenvektoren [mm] u_{i} [/mm] orthonormal sind, ist [mm] u_{i}^{\top} u_{j}=\delta_{i j}. [/mm] Also kann man das obige Produkt ausmultiplizieren:
[mm] x^{\top} [/mm] A [mm] x=\sum \limits_{i=1}^{n} \sum \limits_{j=1}^{n} \beta_{i} \beta_{j} u_{i}^{\top} [/mm] A [mm] u_{j}
[/mm]
Da die [mm] u_{i} [/mm] Eigenvektoren von A:
[mm] x^{\top} [/mm] A [mm] x=\sum \limits_{i=1}^{n} \sum \limits_{j=1}^{n} \beta_{i} \beta_{j} \lambda_{j} u_{i}^{\top} u_{j}
[/mm]
Da die Eigenvektoren orthonormal sind [mm] \left(u_{i}^{\top} u_{j}=\delta_{i j}\right), [/mm] reduziert sich das zu:
[mm] x^{\top} [/mm] A [mm] x=\sum \limits_{i=1}^{n} \beta_{i}^{2} \lambda_{i}
[/mm]
Analoges für [mm] x^{\top} A^{-1} [/mm] x:
[mm] x^{\top} A^{-1} x=\sum \limits_{i=1}^{n} \sum \limits_{j=1}^{n} \beta_{i} \beta_{j} u_{i}^{\top} A^{-1} u_{j}
[/mm]
Da A symmetrisch ist, existiert doch eine orthogonale Matrix Q, sodass A=Q [mm] \Lambda Q^{\top}, [/mm] wobei [mm] \Lambda [/mm] eine Diagonalmatrix mit den Eigenwerten [mm] \lambda_{i} [/mm] ist. Daher ist [mm] A^{-1}=Q \Lambda^{-1} Q^{\top}, [/mm] sodass [mm] A^{-1} u_{j}=Q \Lambda^{-1} Q^{\top} u_{j}=\Lambda^{-1} u_{j} [/mm] (da [mm] Q^{\top} u_{j} [/mm] der j-te Basisvektor ist):
[mm] x^{\top} A^{-1} x=\sum \limits_{i=1}^{n} \beta_{i}^{2} \lambda_{i}^{-1}
[/mm]
In die ursprüngliche Definition von F(x) einsetzen:
[mm] F(x)=\frac{\left(x^{\top} x\right)^{2}}{\left(x^{\top} A x\right)\left(x^{\top} A^{-1} x\right)}=\frac{\left(\sum \limits_{i=1}^{n} \beta_{i}^{2}\right)^{2}}{\left(\sum \limits_{i=1}^{n} \beta_{i}^{2} \lambda_{i}\right)\left(\sum \limits_{i=1}^{n} \beta_{i}^{2} \lambda_{i}^{-1}\right)}
[/mm]
Definieren [mm] \gamma_{i}=\frac{\beta_{i}^{2}}{\sum \limits_{j=1}^{n} \beta_{j}^{2}}, [/mm] dann ist [mm] \sum \limits_{i=1}^{n} \gamma_{i}=1:
[/mm]
[mm] F(x)=\frac{\left(\sum \limits_{i=1}^{n} \beta_{i}^{2}\right)^{2}}{\left(\sum \limits_{i=1}^{n} \gamma_{i} \beta_{i}^{2} \lambda_{i}\right)\left(\sum \limits_{i=1}^{n} \gamma_{i} \beta_{i}^{2} \lambda_{i}^{-1}\right)}
[/mm]
[mm] \bar{\lambda}=\sum \limits_{i=1}^{n} \gamma_{i} \lambda_{i} [/mm] einsetzen:
[mm] F(x)=\frac{1}{\bar{\lambda}\left(\sum \limits_{i=1}^{n} \gamma_{i} \beta_{i}^{2} \lambda_{i}^{-1}\right)}
[/mm]
Macht meine Überlegung, im gegebenen Kontext, so Sinn?
LG Euler
"Ich habe diese Frage in keinem anderen Forum gestellt"
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:58 Mo 18.12.2023 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|