Unabhängigkeit von Zf.-Größen < Stochastik < Hochschule < Mathe < Vorhilfe
|
Hallo Zusammen,
Die vollständige stochastische Unabhängigkeit einer Folge [mm]X_1,\dotsc,X_n[/mm] von Zufallsgrößen ist gegeben, wenn
[mm]P\left(X_{i_1} = x_1,X_{i_2} = x_2,\dotsc,X_{i_m} = x_m\right) = P\left(X_{i_1} = x_1\right)\cdot{P\left(X_{i_2} = x_2\right)}\cdot{}\ldots\cdot{}P\left(X_{i_m} = x_m\right)[/mm]
mit [mm]m \le n[/mm] gilt.
Was ich an dieser Definition nicht verstehe, ist der linke Term der Gleichung
[mm]P\left(X_{i_1} = x_1,X_{i_2} = x_2,\dotsc,X_{i_m} = x_m\right)[/mm]
Im Skript steht nicht, wie dieser Ausdruck definiert ist. Wie soll ich diese Kommas interpretieren? Hat jemand eine Idee wie dieser Ausdruck definiert werden könnte bzw. was er nun bedeutet?
Vielen Dank!
Viele Grüße
Karl
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:25 Do 04.05.2006 | Autor: | felixf |
Hoi Karl!
> Die vollständige stochastische Unabhängigkeit einer Folge
> [mm]X_1,\dotsc,X_n[/mm] von Zufallsgrößen ist gegeben, wenn
>
>
> [mm]P\left(X_{i_1} = x_1,X_{i_2} = x_2,\dotsc,X_{i_m} = x_m\right) = P\left(X_{i_1} = x_1\right)\cdot{P\left(X_{i_2} = x_2\right)}\cdot{}\ldots\cdot{}P\left(X_{i_m} = x_m\right)[/mm]
Die Zufallsgroessen sind also alle diskret?
> mit [mm]m \le n[/mm] gilt.
>
>
> Was ich an dieser Definition nicht verstehe, ist der linke
> Term der Gleichung
>
>
> [mm]P\left(X_{i_1} = x_1,X_{i_2} = x_2,\dotsc,X_{i_m} = x_m\right)[/mm]
>
>
> Im Skript steht nicht, wie dieser Ausdruck definiert ist.
> Wie soll ich diese Kommas interpretieren? Hat jemand eine
> Idee wie dieser Ausdruck definiert werden könnte bzw. was
> er nun bedeutet?
Du musst die Kommata als ``und'' interpretieren. Gesucht ist also die Wahrschienlichkeit fuer den Fall, dass [mm] $X_{i_1} [/mm] = [mm] x_1$ [/mm] und [mm] $X_{i_2} [/mm] = [mm] x_2$ [/mm] und ... ist.
LG Felix
|
|
|
|
|
Hallo Zusammen!
Ich denke auch die folgende Frage passt hier thematisch rein.
Und zwar habe ich hier einen Beweis aus der Vorlesung, den ich einfach nicht durchschauen kann. Ehrlich gesagt verstehe ich keinen einzigen Schritt in diesem Beweis. Aber zuerst das zugehörige Lemma:
Die Zufallsgrößen [mm]X_1,\dotsc,X_n[/mm] seien vollständig unabhängig und [mm]E\left(X_1\right),\dotsc,E\left(X_n\right)[/mm] mögen existieren. Dann gilt:
[mm]E\left(X_1\cdot{}\ldots\cdot{}X_n\right) = E\left(X_1\right)\cdot{}\ldots\cdot{}E\left(X_n\right)[/mm]
und jetzt der Beweis:
[mm]\renewcommand{\arraystretch}{1.55}\begin{array}{ll}
\displaystyle E\left(X_1\cdot{}\ldots\cdot{}X_n\right) &
\displaystyle = \sum_{i_1,i_2,\dotsc,i_n}{ x_{ 1_{i_1} }\cdot{x_{ 2_{i_2} }}\cdot{}\ldots\cdot{}x_{ n_{i_n} } \cdot{\underbrace{P\left(X_1 = x_{ 1_{i_1} },X_2 = x_{ 2_{i_2} },\dotsc, X_n = x_{ n_{i_n} }\right)}_{P\left(X_1 = x_{ 1_{i_1} }\right)\cdot{P\left(X_2 = x_{ 2_{i_2} }\right)}\cdot{}\ldots\cdot{}P\left(X_n = x_{ n_{i_n} }\right)}}}\\
{} &
\displaystyle = \left(\sum_{i_1}{x_{1_{i_1}}P\left(X_1 = x_{1_{i_1}}\right)}\right)\left(\sum_{i_2}{x_{2_{i_2}}P\left(X_2 = x_{2_{i_2}}\right)}\right)\cdot{}\ldots\cdot{}\left(\underbrace{\sum_{i_n}{x_{n_{i_n}}P\left(X_n = x_{n_{i_n}}\right)}}_{E\left(X_n\right)}\right)\\
{} & \displaystyle = \prod_{i=1}^n{E\left(X_i\right)}.\quad\Box
\end{array}[/mm]
Beim ersten Schritt ist mir nicht klar, wie dort eigentlich die Summation stattfindet. Wie sind diese durch Kommas getrennte Indizes unter dem Summenzeichen zu deuten? (Ehrlich gesagt, verstehe ich die gesamte Indizierung in diesem Beweis nicht.) Welcher Index ist hier für was zuständig? Und wie gesagt die Summation an sich ist mir auch unklar, aber ich glaube, daß es etwas mit der Formel
[mm]\left(\sum_{i=1}^n{x_i}\right)\left(\sum_{j=1}^n{y_j}\right) = \sum_{i=1}^n{x_i\sum_{j=1}^n{y_j}} =
\sum_{i=1}^n{\sum_{j=1}^n{x_iy_j}}[/mm]
nur in einem viel größeren Maßstab zu tun hat. Was ist also letztlich die diesem Beweis zugrundeliegende Idee?
Wäre schön, wenn mir jemand helfen könnte.
Viele Grüße
Karl
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 23:59 Do 04.05.2006 | Autor: | felixf |
Sali Karl!
> Die Zufallsgrößen [mm]X_1,\dotsc,X_n[/mm] seien vollständig
> unabhängig und [mm]E\left(X_1\right),\dotsc,E\left(X_n\right)[/mm]
> mögen existieren. Dann gilt:
>
>
> [mm]E\left(X_1\cdot{}\ldots\cdot{}X_n\right) = E\left(X_1\right)\cdot{}\ldots\cdot{}E\left(X_n\right)[/mm]
>
>
> und jetzt der Beweis:
Ich ``rate'' mal folgende Annahmen:
Die ZV [mm] $X_j$ [/mm] nimmt die Werte [mm] $x_{j_{i_j}}$ [/mm] an, wobei [mm] $i_j$ [/mm] aus irgendeiner abzaehlbaren Indexmenge stammt. Nennen wir sie mal [mm] $I_j$. [/mm] (Was fuer eine graessliche Notation.)
Dann soll die erste unklare Riesen-Summe so lauten: [mm] $\sum_{i_1 \in I_1} \dots \sum_{i_n \in I_n} x_{1_{i_1}} \cdots x_{n_{i_n}} P(X_1 [/mm] = [mm] x_{1_{i_1}}, \dots, X_n [/mm] = [mm] x_{n_{i_n}})$. [/mm] Wobei das Summenzeichen [mm] ``$\sum_{i_1,i_2,\dotsc,i_n}$'' [/mm] wohl fuer [mm] $\sum_{(i_1,\dots,i_n) \in I_1 \times \dots \times I_n}$ [/mm] stehen soll (wenn man es etwas genauer aufschreibt).
> [mm]\renewcommand{\arraystretch}{1.55}\begin{array}{ll}
\displaystyle E\left(X_1\cdot{}\ldots\cdot{}X_n\right) &
\displaystyle = \sum_{i_1,i_2,\dotsc,i_n}{ x_{ 1_{i_1} }\cdot{x_{ 2_{i_2} }}\cdot{}\ldots\cdot{}x_{ n_{i_n} } \cdot{\underbrace{P\left(X_1 = x_{ 1_{i_1} },X_2 = x_{ 2_{i_2} },\dotsc, X_n = x_{ n_{i_n} }\right)}_{P\left(X_1 = x_{ 1_{i_1} }\right)\cdot{P\left(X_2 = x_{ 2_{i_2} }\right)}\cdot{}\ldots\cdot{}P\left(X_n = x_{ n_{i_n} }\right)}}}\\
{} &
\displaystyle = \left(\sum_{i_1}{x_{1_{i_1}}P\left(X_1 = x_{1_{i_1}}\right)}\right)\left(\sum_{i_2}{x_{2_{i_2}}P\left(X_2 = x_{2_{i_2}}\right)}\right)\cdot{}\ldots\cdot{}\left(\underbrace{\sum_{i_n}{x_{n_{i_n}}P\left(X_n = x_{n_{i_n}}\right)}}_{E\left(X_n\right)}\right)\\
{} & \displaystyle = \prod_{i=1}^n{E\left(X_i\right)}.\quad\Box
\end{array}[/mm]
>
>
> Beim ersten Schritt ist mir nicht klar, wie dort eigentlich
> die Summation stattfindet. Wie sind diese durch Kommas
> getrennte Indizes unter dem Summenzeichen zu deuten?
> (Ehrlich gesagt, verstehe ich die gesamte Indizierung in
> diesem Beweis nicht.) Welcher Index ist hier für was
> zuständig? Und wie gesagt die Summation an
> sich ist mir auch unklar, aber ich glaube, daß es etwas mit
> der Formel
>
>
> [mm]\left(\sum_{i=1}^n{x_i}\right)\left(\sum_{j=1}^n{y_j}\right) = \sum_{i=1}^n{x_i\sum_{j=1}^n{y_j}} =
\sum_{i=1}^n{\sum_{j=1}^n{x_iy_j}}[/mm]
Genau die ist das. Nur halt fuer $n$ Summenzeichen und nicht nur fuer zwei.
> nur in einem viel größeren Maßstab zu tun hat. Was ist also
> letztlich die diesem Beweis zugrundeliegende Idee?
Im Prinzip nur ``geschicktes Ausklammern und Zusammenfassen''.
LG Felix
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 00:33 Fr 05.05.2006 | Autor: | Karl_Pech |
Hallo Felix!
Danke schonmal für deine Hilfe! Ich werd' mir das nochmal morgen genauer anschauen. Im Moment bin ich wohl etwas überlastet...
Liebe Grüße
Karl
|
|
|
|