Konvergenz in W'keit < Stochastik < Oberstufe < Schule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 04:07 Mi 17.12.2014 | Autor: | YuSul |
Aufgabe | Es sei [mm] $(X_n)_{n\in\mathbb{N}}$ [/mm] eine Folge von Zufallsvariablen, die in Wahrscheinlichkeit gegen X und Y konvergiert.
Zeigen Sie, dass $P(X=Y)=1$ |
Hi,
ich habe ein kleines Problem bei dieser Aufgabe. Ich bin mir sicher, dass der Beweis eigentlich ganz einfach ist, nur habe ich wohl immer noch Probleme mit
P(X=Y) umzugehen.
Konvergenz ins Wahrscheinlichkeit haben wir so definiert:
[mm] $\forall\epsilon>0\colon\lim_{n\to\infty} P(|X_n-X|>\epsilon)=0$
[/mm]
Ich weiß ja, dass [mm] $X_n$ [/mm] gegen X und Y konvergiert und würde erstmal wie folgt umformen:
$P(X-Y=0)$ nun füge ich eine "Null" ein.
[mm] $P(X-X_n+X_n-Y=0)$
[/mm]
Im Grunde weiß ich aber gar nicht woher ich das gleich 1 am Ende folgern soll...
Über Tipps wäre ich sehr dankbar.
Vielen Dank im voraus.
mfg
|
|
|
|
Hiho,
mach dir mal klar, dass gilt:
$1 = P(X - Y = 0) = P(|X-Y| = 0) [mm] \gdw \forall\varepsilon [/mm] > 0 P(|X-Y| > [mm] \varepsilon) [/mm] = 0$
Sowie: Ist A > B so ist offensichtlich $P(B > [mm] \varepsilon) \le [/mm] P(A > [mm] \varepsilon)$
[/mm]
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:47 Mi 17.12.2014 | Autor: | YuSul |
Ich kann alles nachvollziehen bis auf woher das "1=..." am Anfang stammt...
Nun müsste ich weiter so abschätzen können:
[mm] $P(|X-Y|>\epsilon)=P(|X-X_n+X_n-Y|>\epsilon)\leq P(|X-X_n|+|X_n-Y|>\epsilon)$
[/mm]
|
|
|
|
|
Hiho,
> Ich kann alles nachvollziehen bis auf woher das "1=..." am Anfang stammt...
Na da steht erstmal eine Aussage die äquivalent zu einer anderen ist, nämlich, es gilt:
$1 = P(|X-Y| = 0) [mm] \gdw [/mm] forall [mm] \varepsilon>0\; [/mm] P(|X-Y| > [mm] \varepsilon) [/mm] = 0$
Oder in Worten: |X-Y| ist mit Wahrscheinlichkeit 1 gleich 0, wenn es mit Wahrscheinlichkeit 0 größer ist als jeded beliebige positive noch so kleine Zahl.
Ist die das klar?
Wir zeigen nun also für ein beliebes [mm] $\varepsilon$, [/mm] dass $P(|X-Y| > [mm] \varepsilon) [/mm] = 0$ und daraus folgt das Gewünschte mit obiger Äquivalenz.
> [mm]P(|X-Y|>\epsilon)=P(|X-X_n+X_n-Y|>\epsilon)\leq P(|X-X_n|+|X_n-Y|>\epsilon)[/mm]
Beachte nun noch: $A + B [mm] \le 2\max\{A,B\}$ [/mm] sowie [mm] $\max\{A,B\} [/mm] > c [mm] \gdw [/mm] A > c [mm] \vee [/mm] B > c$
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 13:30 Do 18.12.2014 | Autor: | YuSul |
Ja, ich denke nun ist es mir klarer.
Auch wenn ich nicht genau weiß worauf dein weiterer Tipp abzielt.
Das ist mir zwar auch klar, aber nicht unbedingt wie ich es nun anwenden kann.
|
|
|
|
|
Hiho,
du machst ja nicht mal den Ansatz sie zu verwenden :-(
$ [mm] P(|X-Y|>\epsilon)=P(|X-X_n+X_n-Y|>\epsilon)\leq P(|X-X_n|+|X_n-Y|>\epsilon) \le P(2\max\{|X-X_n|,|X_n-Y|\}>\epsilon) [/mm] = [mm] P(\max\{|X-X_n|,|X_n-Y|\}>\bruch{\epsilon}{2})$
[/mm]
Und jetzt wende mal den nächsten Tipp alleine an....
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:00 Do 18.12.2014 | Autor: | YuSul |
Ja doch, dass hätte ich schon noch hinbekommen, aber ich sehe halt nicht wie mir das nun weiterhilft.
Ich hätte so gedacht, dass ich ja nach Voraussetzung weiß, dass [mm] X_n [/mm] gegen X und Y in Wahrscheinlichkeit konvergiert und das dann irgendwie angewandt, was im Prinzip auf das selbe wie bei dir hinausläuft. Nur das dein Weg wohl besser ist.
|
|
|
|
|
Hiho,
> Ja doch, dass hätte ich schon noch hinbekommen, aber ich
> sehe halt nicht wie mir das nun weiterhilft.
Na forme nun so lange um, bis da sowas steht, dass nur noch von [mm] $P(|X_n [/mm] - X| > [mm] \bruch{\varepsilon}{2})$ [/mm] und [mm] $P(|Y_n [/mm] - X| > [mm] \bruch{\varepsilon}{2})$ [/mm] abhängt.
> Ich hätte so gedacht, dass ich ja nach Voraussetzung
> weiß, dass [mm]X_n[/mm] gegen X und Y in Wahrscheinlichkeit
> konvergiert und das dann irgendwie angewandt,
Ja nicht nur "irgendwie".
Anwenden, nicht nur reden!
Bisher hast du gar nix gemacht.
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 15:50 Do 18.12.2014 | Autor: | YuSul |
Naja, mit dem nächsten Tipp erhält man dann ja direkt, dass
[mm] $P(|X-X_n|>\frac{\epsilon}{2})\veeP(|Y-X_n|>\frac{\epsilon}{2})$
[/mm]
Aber das bringt mich ja nicht weiter. Das weiß ich ja von beginn an, eigentlich.
Die Aufgabe erinnert mich stark an den Beweis, dass jede Cauchyfolge konvergiert und so wollte ich ursprünglich auch ansetzen. Das was du vorschlägst ähnelt auch stark der Vorgehensweise, aber ich kann der Aufgabe nicht den "Rest" geben...
|
|
|
|
|
Hiho,
> Naja, mit dem nächsten Tipp erhält man dann ja direkt,
> dass
>
> [mm]P(|X-X_n|>\frac{\epsilon}{2})\vee P(|Y-X_n|>\frac{\epsilon}{2})[/mm]
Da stehen 2 reelle Zahlen mit einem [mm] \vee [/mm] verbunden, das macht gar keinen Sinn.
Was soll denn 2 [mm] \vee [/mm] 5 sein?
Überlege nochmal!
Und dann überlegst du mal, was du über [mm] P(|X-X_n|>\frac{\epsilon}{2}) [/mm] weißt, schreibst von der Ungleichungskette mal nur ganz links und ganz rechts hin.
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:03 Do 18.12.2014 | Autor: | YuSul |
[mm] $1=P(|X-X_n|>\frac{\epsilon}{2}\vee |X_n-Y|>\frac{\epsilon}{2})$
[/mm]
Macht für mich ehrlich gesagt auch nicht viel mehr Sinn.
Ich bin mir bisher nicht ganz im klaren darüber wie wir zeigen wollen, dass X und Y gleich sein müssen, bzw. was die Idee ist. Vielleicht würde mir das helfen.
|
|
|
|
|
Hiho,
> [mm]1=P(|X-X_n|>\frac{\epsilon}{2}\vee |X_n-Y|>\frac{\epsilon}{2})[/mm]
Nein. Links steht keine 1, sondern $P(|X-Y| > [mm] \varepsilon)$. [/mm] Dann haben wir mehrmals abgeschätzt, ein "=" macht da also auch gar keinen Sinn. Im W-Maß stehen Mengen, zwischen Mengen gehört kein [mm] \vee [/mm] sondern ein [mm] $\cup$!
[/mm]
Da steht also:
[mm]P(|X-Y| > \varepsilon) \le P(|X-X_n|>\frac{\epsilon}{2}\cup |X_n-Y|>\frac{\epsilon}{2})[/mm]
Also wirklich, in einer Zeile gleich 3 kapitale Fehler.
Du solltest dringend lernen sorgfältiger zu arbeiten!
> Macht für mich ehrlich gesagt auch nicht viel mehr Sinn.
Oh doch, überlege jetzt mal, durch was du P(A [mm] \cup [/mm] B) nach oben Abschätzen kannst!
> Ich bin mir bisher nicht ganz im klaren darüber wie wir
> zeigen wollen, dass X und Y gleich sein müssen, bzw. was
> die Idee ist. Vielleicht würde mir das helfen.
Wir zeigen, dass $P(|X-Y| > [mm] \varepsilon) [/mm] = 0$ für beliebiges [mm] \varepsilon [/mm] ist, was folgt daraus?
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:23 Do 18.12.2014 | Autor: | YuSul |
Ja, du hast recht. :(
Es ist
[mm] $P(A\cup B)=P(A)+P(B)-P(A\cap B)\leq [/mm] P(A)+P(B)$
also
$ P(|X-Y| > [mm] \varepsilon) \le P(|X-X_n|>\frac{\epsilon}{2}\cup |X_n-Y|>\frac{\epsilon}{2})\leq P(|X_n-X|>\frac{\epsilon}{2})+P(|Y-X_n|>\frac{\epsilon}{2}) [/mm] $
Da ich weiß, dass [mm] $X_n$ [/mm] stochastisch gegen X und Y konvergiert ist dies nun [mm] $\leq [/mm] 0$
Also gilt
[mm] $P(|X-Y|>\varepsilon)=0$
[/mm]
|
|
|
|
|
Hiho,
> [mm]P(A\cup B)=P(A)+P(B)-P(A\cap B)\leq P(A)+P(B)[/mm]
>
> also
>
> [mm]P(|X-Y| > \varepsilon) \le P(|X-X_n|>\frac{\epsilon}{2}\cup |X_n-Y|>\frac{\epsilon}{2})\leq P(|X_n-X|>\frac{\epsilon}{2})+P(|Y-X_n|>\frac{\epsilon}{2})[/mm]
> Da ich weiß, dass [mm]X_n[/mm] stochastisch gegen X und Y konvergiert ist dies nun [mm]\leq 0[/mm]
Ja. Formal wendest du nun auf beiden Seiten [mm] $\lim_{n\to\infty}$ [/mm] an und verwendest natürlich auch noch die Nichtnegativität von P.
Aber sonst passt es.
> Also gilt
>
> [mm]P(|X-Y|>\varepsilon)=0[/mm]
Ja, und damit?
Gruß,
Gono
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:36 Do 18.12.2014 | Autor: | YuSul |
Und damit $P(X=Y)=1$
(Ich muss aber zugeben, dass ich nicht genau weiß warum...)
|
|
|
|
|
Hiho,
> Und damit [mm]P(X=Y)=1[/mm]
> (Ich muss aber zugeben, dass ich nicht genau weiß warum...)
aha, also hast du den Anfang mit:
$P(X=Y) = 1$ gilt, genau dann, wenn $P(|X-Y| > [mm] \varepsilon) [/mm] = 0$ für alle [mm] $\varepsilon>0$
[/mm]
gar nicht verstanden.
Dann machen wir mal kurz weiter: Beweise es!
Genau dann, wenn ist also [mm] \gdw [/mm]
Zeigen wir also: [mm] \Rightarrow [/mm] und [mm] \Leftarrow
[/mm]
[mm] \Rightarrow:
[/mm]
Es gilt also: P(X=Y) = 1
Weiterhin gilt: $P(X=Y) = P(X-Y = 0) = P(|X-Y| = 0)$
Es gilt also: P(|X-Y|=0)=1 und damit $P(|X-Y| [mm] \not= [/mm] 0) = 1 - P(|X-Y| = 0) = 1 - 1 = 0$
Weiterhin gilt: $P(|X-Y| [mm] \not= [/mm] 0) = P(|X-Y| > 0)$ und damit
$P(|X-Y| > 0) = 0$
Für alle [mm] $\varepsilon [/mm] > 0$ gilt nun
[mm] $\{|X-Y| > \varepsilon\} \subseteq \{|X-Y| > 0\}$ [/mm]
Und damit:
$P(|X-Y| > [mm] \varepsilon) \le [/mm] P(|X-Y| > 0) = 0$
d.h. $P(|X-Y| > [mm] \varepsilon) [/mm] = 0$
Hinrichtung fertig.
Rückrichtung du!
Tipp: Die Aussage gilt ja für alle [mm] $\varepsilon [/mm] > 0$, also insbesondere für [mm] \bruch{1}{n}
[/mm]
Dann betrachte mal den Schnitt aller Mengen.
Gruß,
Gono
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 17:16 Do 18.12.2014 | Autor: | tobit09 |
Hallo Gono!
> > [mm]1=P(|X-X_n|>\frac{\epsilon}{2}\vee |X_n-Y|>\frac{\epsilon}{2})[/mm]
[...]
> Im W-Maß stehen Mengen, zwischen
> Mengen gehört kein [mm]\vee[/mm] sondern ein [mm]\cup[/mm]!
Ich finde [mm] $\vee$ [/mm] völlig korrekt.
Ich verstehe unter
[mm] $P(|X-X_n|>\frac{\epsilon}{2}\vee |X_n-Y|>\frac{\epsilon}{2})$
[/mm]
eine Kurzschreibweise für
[mm] $P(\{\omega\in\Omega\;|\;|X(\omega)-X_n(\omega)|>\frac{\epsilon}{2}\vee|X_n(\omega)-Y(\omega)|>\frac{\epsilon}{2}\})$.
[/mm]
> Da steht also:
>
> [mm]P(|X-Y| > \varepsilon) \le P(|X-X_n|>\frac{\epsilon}{2}\cup |X_n-Y|>\frac{\epsilon}{2})[/mm]
Diese Schreibweise mit [mm] $\cup$ [/mm] erscheint mir hingegen nicht sinnvoll, weil
[mm] $|X-X_n|>\frac{\epsilon}{2}$
[/mm]
für mich keine Menge bezeichnet.
Die damit gemeinte Menge würde ich (nach den Schreibweisen, die mir beigebracht wurden) mit
[mm] $\{|X-X_n|>\frac{\epsilon}{2}\}$
[/mm]
bezeichnen.
Viele Grüße
Tobias
|
|
|
|