Produkt von Erwartungswerten < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 19:52 So 25.03.2007 | Autor: | Riley |
Aufgabe | Es seien [mm] (X_k [/mm] : k [mm] \in [/mm] N) eine Folge unabhängiger, identisch verteilter Zufallsvariablen mit Werten in [mm] N_0 [/mm] und n eine von [mm] (X_k [/mm] : [mm] k\in [/mm] N) unabhängige Zufallsvariable mit Werten in [mm] N_0. [/mm] Desweiteren sei
Y:= [mm] \begin{cases} \summe_{k=1}^{N} X_k & \mbox{falls } N \geq 1\\ 1, & 0 \mbox{sonst } \end{cases}
[/mm]
Es gelte [mm] E[X_1]< \infty [/mm] und E[N] < [mm] \infty. [/mm] Weisen Sie folgende Identität nach:
E[Y] = [mm] E[X_1] [/mm] E[N]. |
Hallo,
also der Erwartungswert ist ja so definiert:
E[X] := [mm] \sum_{\omega \in \Omega} X(\omega) P(\{\omega\}), [/mm] aber ich weiß gar nicht wie ich das mit dem Y machen soll... ist das wirklich so kompliziert wie es aussieht?
Hat jemand einen Tip für mich? das wär super...
Viele Grüße
riley
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 00:48 Mo 26.03.2007 | Autor: | viktory_hh |
Hi, ich glaube das hat was mit dem Bayes-Satz oder wie der auch heißt zu tun. Wenn ich unser altes Skript finde werde ich etwas mehr dazu sagen.
bis dann
|
|
|
|
|
Das mit der 1 unten, das stört mich etwas, weiß ich noch nicht genau. Aber oeberer Teil ist doch so:
[mm] X_1 [/mm] ... [mm] X_N [/mm] sind alle gleich verteilt und unabhängig, also haben sie alle gleichen Erwartungswert. Erwartungswert ist ja ein linearer Operator. Also summiert sich das ganze und Erwartungswert von N ist N. ??? oder ich glaube das ist auch was nicht ganz korrekt. Was bedeutet das kleine "n"?
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 00:54 Mo 26.03.2007 | Autor: | viktory_hh |
Aufgabe | Hi, ich glaube das "N" ist hier auch als Zufallsvariable gemeint? oder?
Dann ist natürlich alles komplizierter. Tut mir Leid |
x
|
|
|
|
|
aber auch so geht das:
Die [mm] X_k [/mm] sind also alle gleichverteilt, deswegen ist der EW der Summe der ZV gleich [mm] N*E(X_k). [/mm] Da N nun selbst eine Zufallsvariable ist, müssen wir das mit dem E(N) multiplizieren.
Das mit der unteren 1 weiß ich allerdings immer noch nicht.
|
|
|
|
|
Das unten muss 0, für sonst heißen keine 1, ist wahrscheinlich ein Schreibfehler
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 20:26 Mo 26.03.2007 | Autor: | Riley |
Hallo,
danke für die hilfe! aber so ganz versteh ich das noch nicht. die [mm] X_k [/mm] sind ja unabhängig identisch verteilt d.h. es müsste gelten [mm] E[X_1]=E[X_k] [/mm] für alle k aus N.
und Y kann man ja auch so schreiben:
Y = [mm] \sum_{k=1}^{N} X_k I_{ \{ N \geq 1\} } [/mm] + 0 [mm] I_{ \{N=0\} } [/mm] mit dieser Indikatorfunktion I.
allg. def d. Erww ist ja E[X] = [mm] \sum_{k=0}^{ \infty} x_n P(X=x_n)
[/mm]
dann müsste doch
E[Y]= [mm] \sum_{i=0}^{\infty} [/mm] i [mm] \sum_{k=1}^{N} x_k I_{ \{N \geq\ 1 } }
[/mm]
so irgendwie aussehen...??? stimmt das? und wie komm ich damit weiter??
Viele Grüße
riley
|
|
|
|
|
Das mit der indikator Funktion weiß ich nicht, aber es gilt doch (hier bin ich nicht sicher, aber ich denke dass es so ist)
[mm] E(Y)=P(N=1)*\summe_{i=1}^{1}\summe_{k=0}^{\infty}x_k*P(X_i=x_k) [/mm] + [mm] P(N=2)*\summe_{i=1}^{2}*\summe_{k=0}^{\infty}x_k*P(X_i=x_k) [/mm] + ...
dann alle [mm] E(X_k) [/mm] ausklammern man erhält =
[mm] E(X_1)*(P(N=1)+2*P(N=2) [/mm] + ...) = [mm] E(X_1)*E(N)
[/mm]
ich hoffe es stimmt. Also kein verlaß auf meine Rechnung.
bis dann
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 20:17 Di 27.03.2007 | Autor: | Riley |
hi,
hmm, irgendwie versteh ich deinen ansatz noch nicht ganz...
hast du das so gemacht, also
E[Y] = [mm] \sum [/mm] k P(Y=k) und da dann eingesetzt? aber wie kommst du zu den [mm] X_i [/mm] und [mm] x_k... [/mm] ??
Viele Grüße,
riley
ps: sorry für den schreibfehler, muss 0 heißen in der aufgabenstellung!
|
|
|
|
|
Aufgabe | Hi Riley,
ich bin bei Stochastik ein noob (schreibt man das so?) ich bin mir immer unsicher. Mein Ansatz war mehr oder weniger intuitiv. Ich nehme an, dass die Wahrscheinlichkeit für eine Summe von ZV der Summe der einzelnen Wahrscheinlichkeiten ist. Weiterhin kommt noch dazu, dass diese Summe überhaupt zustande kommen muss, d.h. N einen bestimmt Wert hat, also multipliziere ich das ganze noch mit Wahrscheinlichkeit P(N=i) .
Ist das überhaupt richtig so. Bin mir nicht mehr sicher.
bis dann |
x
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:36 Di 27.03.2007 | Autor: | Riley |
du bist ja gut, reine intuition... weiß nicht ob man das so allgemein sagen kann, hängt das nicht auch von deren verteilung ab...? *grübel* mhm, identisch und unabh. verteilt sind die [mm] X_k [/mm] ja schon...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:36 Di 27.03.2007 | Autor: | viktory_hh |
angenommen: N nimmt nur die Werte 0, 1 ,2 ,3 an.
A,B,C ZV wie oben, unabhängig.
Y= 0 N=0
A N=1
A+B N=2
A+B+C N=3
E(A+B)= E(A)+E(B) genauso für A+B+C
E(Y)=E(A)*P(N=1)+E(A+B)*P(N=2)+E(A+B+C)*P(N=3)
= E(A)*(P(N=1)+2*P(N=2)+3*P(N=3))=E(A)*E(P), wenn E(A)=E(B)=E(C)
kann das bitte noch jemand bestätigen, sonst erkläre ich hier was falsches, und das will ich für Riley auf jeden Fall nicht.
bis dann
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:52 Di 27.03.2007 | Autor: | viktory_hh |
also für die Wahrscheinlichkeiten gilt das bestimmt nicht, sonst könnte die Wahrscheinlichkeit größer 1 werden. Aber für die Erwartungswerte doch schon.
Ohhh man, ich glaube ich habe Dich auf einen Holzweg geführt. Tut mir Leid, Alles vergessen und auf jemand anders warten.
Bis dann
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:45 Di 27.03.2007 | Autor: | Riley |
Hi,
Frage hat sich erledigt, siehe hier.
Danke trotzdem!
Viele Grüße
riley
|
|
|
|