Abschätzung < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 17:13 Sa 16.06.2007 | Autor: | g_hub |
Aufgabe | Es sei [mm] p\in\(0,1\), [/mm] und seien [mm] X_1,X_2,\ldots [/mm] unabhängige, identisch verteilte Zufallsgrößen mit [mm] P(X_i=1=1-P(X_i=0)=p [/mm] für alle [mm] i\in\IN
[/mm]
Zeigen Sie, dass für [mm] a\in\(p,1\) [/mm] und [mm] s\in\IR_+ [/mm] gilt
[mm] P[\frac{1}{n}\summe_{i=1}^nX_i\ge a]\le e^{-nas}E[e^{sX_1}]^n [/mm] |
Also; denke, dass man hier substituieren muss, und die Tschebyschev-Ungleichung anzuwenden...
ich dachte da an sowas, wie [mm] a=p+\epsilon [/mm] .
Leider weiß ich nicht, was ich mit s machen soll (Logarithmus ?!).
Wär nett, wenn jmd einen Tipp für mich hätte.
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:04 Sa 16.06.2007 | Autor: | kochmn |
Hallo g_hub.
Deine Frage ist schlecht formatiert. Aber aus dem Quellcode heraus
habe ich sie trotzdem verstanden.
Hmmm... eine Lösung habe ich so direkt leider nicht anzubieten,
aber vielleicht einen Einstieg:
(1): Die rechte Seite Deiner Ungleichung kannst Du direkt auswerten:
[mm] E(exp(sX_1))^n [/mm] = [mm] p^n*exp(sn),
[/mm]
da [mm] X_1=1 [/mm] mit Wahrscheinlichkeit p und [mm] X_1=0 [/mm] sonst.
Damit wird die rechte Seite Deiner Ungleichung schon einmal zu
[mm] p^n*exp(sn(1-a))
[/mm]
(2): Definiere
[mm] a=:\bruch{t}{n}\ge [/mm] p
Somit zählt t die "Treffer" die erforderlich sind, damit
[mm] \bruch{1}{n}\summe X_i \ge [/mm] a
erreicht wird. So kannst Du die links stehende Wahrscheinlichkeit
zumindest schon einmal hinschreiben:
[mm] P[\summe X_i \ge [/mm] t] = [mm] \vektor{n \\ t} [/mm] * [mm] p^t [/mm] + [mm] \vektor{n \\ t+1} [/mm] * [mm] p^{t+1} [/mm] + ... + [mm] \vektor{n \\ n} p^n
[/mm]
Wie's dann weitergeht sehe ich auf den ersten Blick gerade auch
nicht (darum ist das hier ja auch nur eine Mitteilung und keine
Antwort ) und vielleicht steuert das alles auch in die falsche
Richtung. Vielleicht aber auch in die richtige. Ich hoffe es hilft
Dir!
Liebe Grüße
Markus-Hermann.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 21:39 Sa 16.06.2007 | Autor: | luis52 |
Moin g_hub,
ich greife die Ueberlegungen von Markus-Hermann auf, die sehr hilfreich sind. Meines Erachtens ist ihm allerdings bei der Berechnung von [mm] $\mbox{E}[\exp[sX_1]]$ [/mm] ein Fehler unterlaufen:
[mm] $\mbox{E}[\exp[sX_1]=(1-p)\exp[s\times 0]+p\exp[s\times 1]=1-p+p\exp[s]$.
[/mm]
Demnach ist zu zeigen:
[mm] $P[\frac{1}{n}\summe_{i=1}^nX_i\ge a]\le \exp[-nas](1-p+p\exp[s])^n [/mm] $
Nun nutze ich wieder aus, worauf Markus-Hermann bereits hinwies, naemlich dass [mm] $\summe_{i=1}^nX_i$ [/mm] binomialverteilt ist. Mithin ist
[mm] $P[\frac{1}{n}\summe_{i=1}^nX_i\ge ]=P[\summe_{i=1}^nX_i\ge [/mm] na]= [mm] \sum_{j\ge na}{n\choose j}p^j(1-p)^{n-j}$.
[/mm]
Nach der Binomischen Formel ist
[mm] \begin{matrix}
\exp[-nas](1-p+p\exp[s])^n&=&\exp[-nas]\sum_{k=0}^n{n \choose k}p^k\exp[ks](1-p)^{n-k}\\
&=&\sum_{k=0}^n{n \choose k}p^k\exp[(k-na)s](1-p)^{n-k} \\
&\ge& \sum_{k\ge na}{n \choose k}p^k\exp[(k-na)s](1-p)^{n-k} \\
&\ge& \sum_{k\ge na}{n \choose k}p^k(1-p)^{n-k} \\
&=&P[\summe_{i=1}^nX_i\ge na] \\
&=& P[\frac{1}{n}\summe_{i=1}^nX_i\ge a]
\end{matrix} [/mm]
lg
Luis
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:50 Sa 16.06.2007 | Autor: | g_hub |
danke, soweit verstanden...
ich werde mir das morgen nochmal anschauen, irgendwie hackt es bei mir im Kopf noch
|
|
|
|