schwieriger Beweis < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 13:26 Mi 28.09.2011 | Autor: | mikexx |
Aufgabe | Hallo, liebe Helferinnen und Helfer!
Die folgende Aufgabe ist ein harter Brocken und ich wäre äußerst dankbar für jegliche Hilfe.
Nun geht's los...
Seien [mm](X_i)_{i\geq 1}[/mm] unabhängige, identisch verteilte reelle Zufallsvariablen in [mm]\mathcal{L}^1[/mm] und [mm]\tau[/mm] eine [mm]\left\{0,1,2,3,\hdots\right\}[/mm] wertige Zufallsvariable mit [mm]E(\tau)<\infty[/mm]. Für alle [mm]n\in\mathbb N[/mm] sei das Ereignis [mm]\left\{\tau\geq n\right\}[/mm] unabhängig von [mm]X_n[/mm].
Zeige:
Die Zufallsvariable [mm]S_{\tau}=\sum_{i=1}^{\tau}X_i[/mm] besitzt einen Erwartungswert und es gilt [mm]E(S_{\tau})=E(\tau)E(X_1)[/mm]. |
Das ist so eine Aufgabe, wo ich nicht den Hauch einer Ahnung habe. Es wäre klasse und total nett, wenn mir jemand auf irgendeinen Sprung helfen könnte.
Ansonsten steht ich wirklich im Regen.
Liebe Grüße
mikexx
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:33 Mi 28.09.2011 | Autor: | rrgg |
So schwierig ist es nun auch wieder nicht!
Man kann das einfach ausrechnen. Dazu ist es nützlich den Erwartungswert auf die verschiedenen Werte von [mm] $\tau$ [/mm] aufzuteilen.
Nach zwei Zeilen ist man dann fertig!
LG
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 15:11 Mi 28.09.2011 | Autor: | mikexx |
Könntest Du mir das bitte erklären, denn ich verstehe anhand der Worte leider nicht, was Du meinst...
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 15:21 Mi 28.09.2011 | Autor: | rrgg |
[mm] E[S_\tau]=E[\sum_{i=1}^\tau X_i]=E[1_{\{\tau=0\}}\sum_{i=1}^\tau X_i [/mm] + [mm] \hdots [/mm] + [mm] 1_{\{\tau=n\}} \sum_{i=1}^\tau X_i]=E[1_{\{\tau=0\}}\sum_{i=1}^\tau X_i [/mm] ]+ [mm] \hdots [/mm] + [mm] E[1_{\{\tau=n\}} \sum_{i=1}^\tau X_i]
[/mm]
Jetzt steht die Lösung ja fast schon da!
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 15:45 Mi 28.09.2011 | Autor: | mikexx |
Ich verstehe die Aufteilung mittels der char. Funktionen irgendwie nicht.
Tut mir leid, wenn ich nochmal nachhaken muss!
Wo ist denn zum Beispiel der Fall [mm]\tau\geq n[/mm]?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 16:11 Mi 28.09.2011 | Autor: | rrgg |
Oh, hab ich übersehen! (dachte nur werte von 1,...,n)
Dann braucht man noch den Satz von der monotonen Konvergenz:
[mm] E[|S_\tau|]=E[\sum_{i=1}^\tau |X_i|]=E[lim_{n\to\infty}(1_{\{\tau=0\}}\sum_{i=1}^\tau |X_i| [/mm] + [mm] \hdots [/mm] + [mm] 1_{\{\tau=n\}} \sum_{i=1}^\tau |X_i| [/mm] )]
[mm] =lim_{n\to\infty}(E[1_{\{\tau=0\}}\sum_{i=1}^\tau |X_i| ]+\hdots [/mm] + [mm] E[1_{\{\tau=n\}} \sum_{i=1}^\tau |X_i|])
[/mm]
[mm] =\sum_{i=0}^\infty(P(\tau=i)*i*E[|X_1|)
[/mm]
[mm] =E[\tau]*E[|X_1|]
[/mm]
Also existiert der EW
Mit dem Satz von der dominierten Konvergenz folgt dann:
[mm] E[S_\tau]=E[\sum_{i=1}^\tau X_i]=E[lim_{n\to\infty}(1_{\{\tau=0\}}\sum_{i=1}^\tau X_i [/mm] + [mm] \hdots [/mm] + [mm] 1_{\{\tau=n\}} \sum_{i=1}^\tau X_i [/mm] )]
[mm] =lim_{n\to\infty}(E[1_{\{\tau=0\}}\sum_{i=1}^\tau X_i ]+\hdots [/mm] + [mm] E[1_{\{\tau=n\}} \sum_{i=1}^\tau X_i])=
[/mm]
[mm] \sum_{i=0}^\infty(P(\tau=i)*i*E[X_1])
[/mm]
[mm] =E[\tau]*E[X_1]
[/mm]
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 13:47 Fr 30.09.2011 | Autor: | dennis2 |
Ich denke, es geht auch etwas elementarer!
[mm]S_{\tau}=\sum_{i=1}^{\tau}X_i=\sum_{i=1}^{\infty}X_i\cdot\chi_{\left\{\tau\geq i\right\}}[/mm]
([mm]\chi[/mm] steht hier für die charakteristische Funktion.)
[mm]\Rightarrow E(S_{\tau})=E\left(\sum_{i=1}^{\infty}X_i\cdot\chi_{\left\{\tau\geq i\right\}}\right)=\sum_{i=1}^{\infty}E(X_i\cdot\chi_{\left\{\tau\geq i\right\}})[/mm]
(Das Letzte Gleichheitszeichen gilt wegen der Additivität des Erwartungswerts.)
Nun ist n.V. [mm]\left\{\tau\geq n\right\}[/mm] unabhängig von [mm]X_n[/mm] für alle [mm]n\in\mathbb N[/mm].
[mm]\Rightarrow \sum_{i=1}^{\infty}E(X_i\cdot\chi_{\left\{\tau\geq i\right\}})=\sum_{i=1}^{\infty}E(X_i)\cdot E(\chi_{\left\{\tau\geq i\right\}})=\sum_{i=1}^{\infty}E(X_i)\cdot P(\tau\geq i)[/mm], denn
[mm]E(\chi_{\left\{\tau\geq i\right\}})=P(\tau\geq i)[/mm].
Weiter gilt aufgrund der identischen Verteilungen der [mm]X_n[/mm], daß
[mm]\sum_{i=1}^{\infty}E(X_i)\cdot P(\tau\geq i)=E(X_1)\sum_{i=1}^{\infty}P(\tau\geq i)[/mm] gilt.
Nun betrachtet man die Summe etwas genauer und kann folgendermaßen umformen:
[mm]\sum_{i=1}^{\infty}P(\tau\geq i)=\sum_{i=1}^{\infty}\sum_{k=i}^{\infty}P(\tau =k)=\sum_{k=i}^{\infty}\sum_{i=1}^{k}P(\tau=k)=\sum_{k=1}^{\infty}k\cdot P(\tau =k)=E(\tau)[/mm]
[mm]\Box[/mm]
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 17:15 Fr 30.09.2011 | Autor: | mikexx |
Wer kann mir bitte folgende Frage beantworten:
Man weiß ja, daß das Ereignis [mm]\left\{\tau\geq n\right\}[/mm] unabhängig ist von [mm]X_n[/mm] für alle [mm]n\in\mathbb N[/mm].
Wieso folgt daraus, daß die Zufallsvariable
[mm]\chi_{\left\{\tau\geq n\right\}}[/mm] unabhängig ist von der Zufallsvariable [mm]X_n[/mm] (für alle [mm]n\in\mathbb N[/mm])?
Das verstehe ich nicht.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:20 Fr 30.09.2011 | Autor: | felixf |
Moin!
> Wer kann mir bitte folgende Frage beantworten:
>
> Man weiß ja, daß das Ereignis [mm]\left\{\tau\geq n\right\}[/mm]
> unabhängig ist von [mm]X_n[/mm] für alle [mm]n\in\mathbb N[/mm].
>
>
> Wieso folgt daraus, daß die Zufallsvariable
>
> [mm]\chi_{\left\{\tau\geq n\right\}}[/mm] unabhängig ist von der
> Zufallsvariable [mm]X_n[/mm] (für alle [mm]n\in\mathbb N[/mm])?
>
>
> Das verstehe ich nicht.
Schau doch mal in die Definition, was es bedeutet, dass eine ZV von einer anderen ZV unabhaengig ist. Das bedeutet doch, dass die zugehoerige [mm] $\sigma$-Algebra [/mm] unabhaengig von der zweiten ZV ist.
Die zu [mm] $\chi_{\{ \tau \geq n \}}$ [/mm] gehoerende [mm] $\sigma$-Algebra [/mm] besteht aus vier Mengen: [mm] $\emptyset$, $\IR$, $\{ \tau \geq n \}$ [/mm] und [mm] $\{ \tau < n \}$. [/mm] Jetzt musst du schauen, dass diese Mengen unabhaengig von $X$ sind. Fuer die ersten beiden Mengen ist das klar, fuer die Dritte folgt es aus der Voraussetzung, und fuer die Vierte ebenfalls, da sie das Komplement der dritten ist.
Du kannst auch gleich ein Lemma zeigen: eine Menge $A$ ist genau dann unabhaengig von einer ZV $X$ / einer anderen Menge $B$, wenn die Indikatorfunktion [mm] $\chi_A$ [/mm] unabhaengig von $X$ bzw. $B$ ist.
LG Felix
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 19:30 Fr 30.09.2011 | Autor: | mikexx |
> Moin!
>
> > Wer kann mir bitte folgende Frage beantworten:
> >
> > Man weiß ja, daß das Ereignis [mm]\left\{\tau\geq n\right\}[/mm]
> > unabhängig ist von [mm]X_n[/mm] für alle [mm]n\in\mathbb N[/mm].
> >
> >
> > Wieso folgt daraus, daß die Zufallsvariable
> >
> > [mm]\chi_{\left\{\tau\geq n\right\}}[/mm] unabhängig ist von der
> > Zufallsvariable [mm]X_n[/mm] (für alle [mm]n\in\mathbb N[/mm])?
> >
> >
> > Das verstehe ich nicht.
>
> Schau doch mal in die Definition, was es bedeutet, dass
> eine ZV von einer anderen ZV unabhaengig ist. Das bedeutet
> doch, dass die zugehoerige [mm]\sigma[/mm]-Algebra unabhaengig von
> der zweiten ZV ist.
Diese Definition kenne ich gar nicht. ;( Wo finde ich sie?
Ich kenne Folgendes:
Zufallsvariablen [mm]X_1,...,X_n:\Omega\to\mathbb R[/mm] heißen unabhängig, falls
[mm]P(X_1\leq x_1,...,X_n\leq x_n)=\prod_{i=1}^{n}P(X_i\leq x_i)[/mm].
Und ich weiß nicht, was das hier nun bedeutet bzw. wie ich das verwenden kann.
>
> Die zu [mm]\chi_{\{ \tau \geq n \}}[/mm] gehoerende [mm]\sigma[/mm]-Algebra
> besteht aus vier Mengen: [mm]\emptyset[/mm], [mm]\IR[/mm], [mm]\{ \tau \geq n \}[/mm]
> und [mm]\{ \tau < n \}[/mm]. Jetzt musst du schauen, dass diese
> Mengen unabhaengig von [mm]X[/mm] sind. Fuer die ersten beiden
> Mengen ist das klar, fuer die Dritte folgt es aus der
> Voraussetzung, und fuer die Vierte ebenfalls, da sie das
> Komplement der dritten ist.
Mir ist nicht klar, was es bedeutet, dass eine der Menge unabhängig von X ist. Wie ist denn diese Unabhängigkeit definiert?
>
> Du kannst auch gleich ein Lemma zeigen: eine Menge [mm]A[/mm] ist
> genau dann unabhaengig von einer ZV [mm]X[/mm] / einer anderen Menge
> [mm]B[/mm], wenn die Indikatorfunktion [mm]\chi_A[/mm] unabhaengig von [mm]X[/mm] bzw.
> [mm]B[/mm] ist.
>
> LG Felix
>
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:52 Fr 30.09.2011 | Autor: | mikexx |
[mm]\Rightarrow [/mm] Sei also die Menge A unabhängig von der Zufallsvariablen X.
Was heißt das konkret??
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:23 Sa 01.10.2011 | Autor: | dennis2 |
Hallo, mikexx!
Wie bereits von felixf gesagt, mußt Du Dir die Definitionen klar machen. Wenn Du das hast, folgt es quasi von alleine!
Ich kann lediglich versuchen, es mal so umzuschreiben, daß es etwas durchsichtiger wird.
1.) Die Unabhängigkeit von Zufallsvariablen definiert man über deren Urbild-[mm]\sigma[/mm]-Algebren. Das bedeutet hier: Die Zufallsvariablen [mm]\chi_{\left\{\tau\geq n\right\}}[/mm] und [mm]X_n (\forall n\in\mathbb N)[/mm] nennt man unabhängig voneinander, wenn die Urbild-[mm]\sigma[/mm]-Algebren [mm]X_n^{-1}(\mathcal{B}(\mathbb R))[/mm] sowie [mm]\left\{\emptyset, \Omega, \left\{\tau\geq n\right\}, \left\{\tau
2.) Die Unabhängigkeit der zugehörigen Urbild-[mm]\sigma[/mm]-Algebren ist wiederum so definiert, daß jeweils zwei Elemente (das sind: Ereignisse) voneinander unabhängig sind.
3.) Die Unabhängigkeit von Ereignissen ist wiederum dann erfüllt, wenn für beliebige [mm]A\in X_n^{-1}(\mathcal{B}(\mathbb R)), B\in\left\{\emptyset, \Omega, \left\{\tau\geq n\right\}, \left\{\tau
[mm]P(A\cap B)=P(A)P(B)[/mm].
Du musst also lediglich alles Ebene für Ebene "herunterbrechen". Ich gebe zu, daß die Formulierung, daß ein Ereignis von einer Zufallsvariablen unabhängig sein soll, etwas verwirrend ist. Das ist aber nur eine andere Sprachweise dafür, daß das Ereignis unabhängig von einem beliebigen Element aus der Urbild-[mm]\sigma[/mm]-Algebra der Zufallsvarable ist.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 12:32 Mo 03.10.2011 | Autor: | rrgg |
Hallo!
[mm] E(S_{\tau})=E\left(\sum_{i=1}^{\infty}X_i\cdot\chi_{\left\{\tau\geq i\right\}}\right)=\sum_{i=1}^{\infty}E(X_i\cdot\chi_{\left\{\tau\geq i\right\}}) [/mm]
Das muss man irgendwie begründen, da im Allgemeinen nicht gilt:
[mm] E(S_{\tau})=E\left(\sum_{i=1}^{\infty}Y_i \right) =\sum_{i=1}^{\infty}E(Y_i) [/mm]
LG
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 00:29 Di 04.10.2011 | Autor: | dennis2 |
Das ist mir neu.
Der Erwartungswert ist meines Wissens immer additiv aufspaltbar.
Siehe zum Beispiel hier, ab Folie 11 von 19.
Oder was sehe ich da falsch?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 06:35 Di 04.10.2011 | Autor: | felixf |
Moin,
> Das ist mir neu.
>
> Der Erwartungswert ist meines Wissens immer additiv
> aufspaltbar.
er ist soweit ich weiss immer additiv aufspaltbar, sobald alle beteiligten Erwartungswerte (auch der existieren (endliche Werte haben) bzw. Sinn machen (sie evtl. auch unendlich sind, jedoch nicht sowohl [mm] $+\infty$ [/mm] wie auch [mm] $-\infty$ [/mm] auftauchen, und die Reihe auf der einen Seite entweder konvergiert oder gegen [mm] $\pm \infty$ [/mm] divergiert, aber nicht z.B. sowas wie [mm] $\sum_{n=1}^\infty (-1)^n$ [/mm] ist).
Bei dieser Aufgabe hier ist vorausgesetzt, dass [mm] $X_i \in \mathcal{L}^1$ [/mm] ist. Das soll wohl bedeuten, dass der Erwartungswert existiert und endlich ist, da der Erwartungswert [mm] $E(X_i)$ [/mm] als [mm] $\int X_i(\omega) \; d\mu(\omega)$ [/mm] definiert ist.
Mit dem, was wir schon hatten, folgt [mm] $E(X_i \chi_{\{ \tau \ge i \}}) [/mm] = [mm] E(X_1) \cdot E(\chi_{\{ \tau \ge i \}}) [/mm] = [mm] E(X_1) \cdot P(\tau \ge [/mm] i) [mm] \in (-\infty, \infty)$. [/mm] Vor allem haben alle diese Erwartungswerte das gleiche Vorzeichen! Damit macht [mm] $\sum_{i=1}^\infty E(X_i \chi_{\{ \tau \ge i \}}) [/mm] = [mm] \sum_{i=1}^\infty E(X_1) \cdot P(\tau \ge [/mm] i)$ Sinn, und man sieht sogar dass der Grenzwert dieser Reihe konvergiert -- gegen [mm] $E(X_1) \cdot E(\tau)$. [/mm] Also existiert (mit irgendwelchen masstheoretischen Saetzen) auch [mm] $E(\sum_{i=1}^\infty X_i \chi_{\{ n \ge i \}})$ [/mm] und hat den gleichen Wert. :)
> Siehe zum Beispiel hier, ab Folie 11 von 19.
Wo hier?
LG Felix
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 11:28 Di 04.10.2011 | Autor: | dennis2 |
Bei Wikipedia lese ich Folgendes:
"Der Erwartungswert der Summe von n integrierbaren Zufallsvariablen [mm]X_i[/mm] lässt sich als Summe der einzelnen Erwartungswerte berechnen:
[mm]E\left(\sum_{i=1}^n X_i\right)=\sum_{i=1}^{n}E(X_i)[/mm]
Zitat Ende
Nun sind die Zufallsvariablen ja hier anscheinend integrierbar, da [mm]X_i\in \mathcal{L}^1[/mm].
Ich würde meinen, daß dies die Begründung dafür ist, daß ich die Erwartungswerte hier additiv abspalten kann.
Ist das dies, was Du meinstest, felixf?
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:35 Mi 05.10.2011 | Autor: | rrgg |
Das Problem ist, dass man hier nicht nur endlich viele ZV aufsummiert.
Und ja klar funktioniert ds bei der Aufgabe, ich meine ja nur das man an der Stelle auf jeden Fall mal nachdenken muss!
Ist ja so ähnlich wie Integral und Ableitung vertauschen; das funktioniert auch fast immer, aber man muss schon ein bisschen arbeiten um das zu zeigen.
Lettztendlich ist dann der andere weg nicht einfacher wie meiner, weil ich ja dann auch die üblichen Konvergenzsätze brauche!
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 21:36 Mi 05.10.2011 | Autor: | Fry |
Hey Dennis,
also in dem vorliegenden Fall handelt es sich um eine unendliche Summe von Erwartungswert und dann ist nicht mehr klar, dass man sozusagen den Erwartungswert in die Summe reinziehen darf. Dafür gibts ja in der Maßtheorie z.B. den Satz von der monotonen Konvergenz.
Gruß
Fry
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:16 Mi 05.10.2011 | Autor: | felixf |
Moin Fry,
> also in dem vorliegenden Fall handelt es sich um eine
> unendliche Summe von Erwartungswert und dann ist nicht mehr
> klar, dass man sozusagen den Erwartungswert in die Summe
> reinziehen darf. Dafür gibts ja in der Maßtheorie z.B.
> den Satz von der monotonen Konvergenz.
...nur das man den hier nicht (direkt) anwenden kann, da nicht vorausgesetzt ist, dass die [mm] $X_i \ge [/mm] 0$ sind. Wenn dem so waere wuerde der Satz das ganze erschlagen.
(Bei gewissen Anwendungsfaellen der Aufgabe ist dies der Fall, etwa wenn die [mm] $X_i$ [/mm] Schadenhoehen sind und [mm] $\tau$ [/mm] die zu erwartende Anzahl der Schaeden ist; dies hat man z.B. in der Sachversicherungsmathematik.)
LG Felix
|
|
|
|