Beweis Varianz von Summe < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 20:27 Sa 21.07.2018 | Autor: | Hela123 |
Aufgabe | Sei [mm] (\Omega,A, [/mm] P) ein Wahrscheinlichkeitsraum und seien [mm] X, Y, X_1,..., X_n \in L^2(P) [/mm] reelle Zufallsvariablen, für die das zweite Moment existiert.
Zeige, dass gilt:
[mm]Var(\summe_{i=1}^{n} X_{i}) = \summe_{i=1}^{n} Var(X_{i}) + \summe_{i,j=1, i\not= j}^{n} Cov(X_{i},X_{j}) [/mm] |
Hallo Forum,
ich habe folgenden Beweis hierzu gefunden und kann ihn aber nicht ganz nachvollziehen:
[mm]Var(\summe_{i=1}^{n} X_{i}) = E(\summe_{i=1}^{n} X_{i} - E(\summe_{i=1}^{n} (X_{i})^2))[/mm]
[mm]= E(\summe_{i=1}^{n} X_{i} - E(X_{i})^2))[/mm]
[mm]= E(\summe_{i=1}^{n} X_{i} - E(X_{i})\summe_{j=1}^{n} X_{j} - E(X_{j}))[/mm]
[mm]= E(\summe_{i=1}^{n} (X_{i} - E(X_{i}))^2 + \summe_{i,j=1, i\not= j}^{n}X_{i} - E(X_{i}) * X_{j} - E(X_{j})[/mm]
[mm]= \summe_{i=1}^{n} Var(X_{i}) + 2 \summe_{i
[mm]= \summe_{i=1}^{n} Var(X_{i}) + \summe_{i,j=1, i\not= j}^{n} Cov(X_{i},X_{j}) [/mm]
1. Ist der Beweis korrekt?
2. Ich verstehe nicht den Übergang von 1. in die 2. Zeile. Warum können wir die Summe weglassen?
Der Übergang 2 zu 3 ist mir auch nicht klar: Woher kommt auf einmal j usw?
Weitere Umformungen sind mir demensprechend auch etwas schleierhaft...
Schönen Dank im Voraus!
Hela123
|
|
|
|
Hiho,
> ich habe folgenden Beweis hierzu gefunden und kann ihn aber
> nicht ganz nachvollziehen:
>
> [mm]Var(\summe_{i=1}^{n} X_{i}) = E(\summe_{i=1}^{n} X_{i} - E(\summe_{i=1}^{n} (X_{i})^2))[/mm]
Hier müsste das Quadrat und die Klammer vertauscht werden, damit es stimmt.
Machen wir es mal langsam: Setzen wir [mm] $Z=\summe_{i=1}^n X_i$, [/mm] dann erhalten wir:
$Z - E(Z)$
$= [mm] \summe_{i=1}^n X_i [/mm] - [mm] E\left(\summe_{i=1}^n X_i\right)$
[/mm]
$= [mm] \summe_{i=1}^n X_i [/mm] - [mm] \summe_{i=1}^n E(X_i)$
[/mm]
$= [mm] \summe_{i=1}^n \left(X_i - E(X_i)\right)$ [/mm]
Nun erhalten wir damit:
[mm] $\text{Var}\left(\summe_{i=1}^n X_i\right) [/mm] = [mm] \text{Var}(Z) [/mm] = [mm] E\left[(Z - E(Z))^2\right]$
[/mm]
$= [mm] E\left(\left[\summe_{i=1}^n \left(X_i - E(X_i)\right)\right]^2\right)$
[/mm]
Setzen wir jetzt [mm] $Z_i [/mm] = [mm] X_i [/mm] - [mm] E(X_i)$ [/mm] können wir das schreiben als
$= [mm] E\left(\left[\summe_{i=1}^n Z_i \right]^2\right)$
[/mm]
Es wird also eine Summe quadriert. Und du kannst dir überlegen, dass wenn du die Summe quadrierst, bekommst du quadratische Terme und Mischterme, d.h. mathematisch kürzer aufgeschrieben, gilt:
[mm] $\left[\summe_{i=1}^n Z_i \right]^2 [/mm] = [mm] \summe_{j=1}^n Z_i^2 [/mm] + [mm] \summe_{\substack{i=j=1 \\ i\not=j}}^n Z_iZ_j$
[/mm]
Setzt du jetzt die Definition von [mm] $Z_i$ [/mm] wieder ein, kannst du normal mit deinem Beweis weitermachen.
Wenn du den Beweis verstanden hast, zeige ich dir einen deutlich kürzeren.....
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:35 So 22.07.2018 | Autor: | Hela123 |
Hallo Gono,
vielen vielen Dank für deine (wie immer) sehr hilfreiche Antwort!
> Hier müsste das Quadrat und die Klammer vertauscht
> werden, damit es stimmt.
Stimmt!
> Machen wir es mal langsam: Setzen wir [mm]Z=\summe_{i=1}^n X_i[/mm],
> dann erhalten wir:
>
> [mm]Z - E(Z)[/mm]
> [mm]= \summe_{i=1}^n X_i - E\left(\summe_{i=1}^n X_i\right)[/mm]
> [mm]= \summe_{i=1}^n X_i - \summe_{i=1}^n E(X_i)[/mm]
>
> [mm]= \summe_{i=1}^n \left(X_i - E(X_i)\right)[/mm]
Das verstehe ich, wir können beide Summanden quasi unter eine Summe ziehen.
> Nun erhalten wir damit:
>
> [mm]\text{Var}\left(\summe_{i=1}^n X_i\right) = \text{Var}(Z) = E\left[(Z - E(Z))^2\right][/mm]
>
> [mm]= E\left(\left[\summe_{i=1}^n \left(X_i - E(X_i)\right)\right]^2\right)[/mm]
Das ist auch klar: Einsetzen in die Ursprungsgleichung.
> Setzen wir jetzt [mm]Z_i = X_i - E(X_i)[/mm] können wir das
> schreiben als
>
> [mm]= E\left(\left[\summe_{i=1}^n Z_i \right]^2\right)[/mm]
Ich merke, das ist wirklich viel übersichtlicher, wenn man das Ganze in kleinere Päckchen verpackt.
> Es wird also eine Summe quadriert. Und du kannst dir
> überlegen, dass wenn du die Summe quadrierst, bekommst du
> quadratische Terme und Mischterme, d.h. mathematisch
> kürzer aufgeschrieben, gilt:
>
> [mm]\left[\summe_{i=1}^n Z_i \right]^2 = \summe_{j=1}^n Z_i^2 + \summe_{\substack{i=j=1 \\ i\not=j}}^n Z_iZ_j[/mm]
Ja, verstehe.
> Setzt du jetzt die Definition von [mm]Z_i[/mm] wieder ein, kannst du
> normal mit deinem Beweis weitermachen.
Also wenn wir [mm]Z_i[/mm] (und entsprechend dann auch [mm]Z_j[/mm]) einsetzen, bekommen wir:
[mm]= E(\summe_{i=1}^{n} (X_{i} - E(X_{i}))^2 + \summe_{i,j=1, i\not= j}^{n}X_{i} - E(X_{i}) * X_{j} - E(X_{j})[/mm]
Dann können wie Linearität des Erwartungswertes nutzen:
[mm]= E(\summe_{i=1}^{n} (X_{i} - E(X_{i}))^2) + E(\summe_{i=j=1, i\not= j}^{n}(X_{i} - E(X_{i})) * (X_{j} - E(X_{j})))[/mm]
[mm]= \summe_{i=1}^{n}(E(X_{i} - E(X_{i}))^2) + \summe_{i=j=1, i\not= j}^{n} E((X_{i} - E(X_{i})) * (X_{j} - E(X_{j})))[/mm]
Dann nutzen wir die Definition von Varianz und Kovarianz:
[mm]= \summe_{i=1}^{n} Var(X_{i}) + 2 \summe_{i
Hier habe ich Frage: Woher kommt die 2 vor der Summe?
Die Rechenregel, die wir hier brauchen ist (wenn ich mich nicht vertue):
[mm]Cov(X,Y)= E(XY) - E(X)E(Y) = E((X - E(X))(Y-E(Y)))[/mm]
> Wenn du den Beweis verstanden hast, zeige ich dir einen
> deutlich kürzeren.....
Ich glaube, ich bin nah dran
Noch mal danke!
Hela123
|
|
|
|
|
Hiho,
also der Schritt ist in der Umformung zwar nicht falsch aber irgendwie sinnlos. Es gilt
[mm] $\summe_{i=j=1,i\not=j}^n Cov(X_i,X_j) [/mm] = [mm] 2\summe_{i=j=1,i
Das liegt einfach daran, dass die Kovarianz symmetrisch ist. Im ersten Fall summiert man eben einfach alle Kovarianzen auf, im zweiten nur diejenigen wo i<j ist und sagt dann einfach: anstatt jetzt die für i>j auch noch zu summieren multiplizieren wir das Ergebnis einfach mit 2.
Sind jetzt alle Unklarheiten beseitigt?
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 19:19 So 22.07.2018 | Autor: | Hela123 |
Hallo Gono,
shönen Dank für deine Antwort!
> also der Schritt ist in der Umformung zwar nicht falsch
> aber irgendwie sinnlos. Es gilt
> [mm]\summe_{i=j=1,i\not=j}^n Cov(X_i,X_j) = 2\summe_{i=j=1,i
>
> Das liegt einfach daran, dass die Kovarianz symmetrisch
> ist. Im ersten Fall summiert man eben einfach alle
> Kovarianzen auf, im zweiten nur diejenigen wo i<j ist und
> sagt dann einfach: anstatt jetzt die für i>j auch noch zu
> summieren multiplizieren wir das Ergebnis einfach mit 2.
>
> Sind jetzt alle Unklarheiten beseitigt?
Alles klar! Ja, jetzt verstehe ich den Beweis, danke dir!
Wie könnte man es denn kürzer beweisen?
Viele Grüße
Hela123
|
|
|
|
|
Hiho,
die Kovarianz ist linear und trivialerweise gilt [mm] $\summe_{i=1}^n X_i [/mm] = [mm] \summe_{j=1}^n X_j [/mm] $ und damit gilt:
[mm] $\text{Var}\left(\summe_{i=1}^n X_i\right)$
[/mm]
[mm] $=\text{Cov}\left(\summe_{i=1}^n X_i, \summe_{j=1}^n X_j\right)$
[/mm]
[mm] $=\summe_{i=1}^n \summe_{j=1}^n \text{Cov}(X_i,X_j)$
[/mm]
[mm] $=\summe_{i=j=1,i=j}^n \text{Cov}(X_i,X_j) [/mm] + [mm] \summe_{i=j=1,i\not=j}^n \text{Cov}(X_i,X_j)$
[/mm]
[mm] $=\summe_{i=j=1}^n \text{Var}(X_i) [/mm] + [mm] \summe_{i=j=1,i\not=j}^n \text{Cov}(X_i,X_j)$
[/mm]
Gruß,
Gono
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 07:59 Mo 23.07.2018 | Autor: | Hela123 |
Hallo Gono,
den Beweis kann ich auch nachvollziehen und der ist in der Tat deutlich übersichtlicher!
Noch mal vielen vielen Dank für deine Hilfe!
Gruß,
Hela123
|
|
|
|