Varianz, Umformungen < Statistik/Hypothesen < Stochastik < Oberstufe < Schule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 21:33 Sa 10.04.2010 | Autor: | Georg321 |
Hallo, ich habe mich jetzt mit Varianz beschäftigt und sowohl mein altes Stochastikbuch als auch das Internet benutzt.
Nun habe ich 2 Formeln für die Varianz gefunden, die wohl beide gültig sind.
Ich habe versucht von der einen zur anderen zu kommen, bzw. zu beweisen, dass beide gleich sind, aber es hat nicht recht geklappt.
Die Formeln:
1. [mm] V(X)=\summe_{i=1}^{n} (ai-\mu)^2 [/mm] * P(X=ai)
2. [mm] V(x)=\summe_{i=1}^{n} (ai-\mu)^2 [/mm] * 1/n
Nun müsste ja zu zeigen sein, dass
[mm] (a1-\mu)*P(X=a1)+...+(an-\mu)*P(X=an) [/mm] = [mm] [(a1-\mu)+...+(an-\mu)]*1/n
[/mm]
ist. Nun das habe ich das bedauerlicher weise nicht hinbekommen. Ich habe sogar P(X=ai) als n über ai mal p^ai mal (1-p)^(n-ai) ausgeschrieben und gedacht da könnte man dann was wegkürzen umformen etc. hat aber nicht geklappt.
Jedenfalls wäre nett wenn ihr mir helfen könntet das zu beweisen.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 21:44 Sa 10.04.2010 | Autor: | abakus |
> Hallo, ich habe mich jetzt mit Varianz beschäftigt und
> sowohl mein altes Stochastikbuch als auch das Internet
> benutzt.
> Nun habe ich 2 Formeln für die Varianz gefunden, die wohl
> beide gültig sind.
> Ich habe versucht von der einen zur anderen zu kommen,
> bzw. zu beweisen, dass beide gleich sind, aber es hat nicht
> recht geklappt.
>
> Die Formeln:
>
> 1. [mm]V(X)=\summe_{i=1}^{n} (ai-\mu)^2[/mm] * P(X=ai)
>
> 2. [mm]V(x)=\summe_{i=1}^{n} (ai-\mu)^2[/mm] * 1/n
>
>
Hallo,
für den Fall, dass die Zufallsgröße X genau n verschiedene Werte annimmt, die alle gleich wahrscheinlich sind, hat das Auftreten jedes dieser Werte [mm] a_1 [/mm] bis [mm] a_n [/mm] die Wahrscheinlkichkeit 1/n.
Somit ist 2. ein Spezialfall von 1.
Gruß Abakus
> Nun müsste ja zu zeigen sein, dass
>
> [mm](a1-\mu)*P(X=a1)+...+(an-\mu)*P(X=an)[/mm] =
> [mm][(a1-\mu)+...+(an-\mu)]*1/n[/mm]
>
> ist. Nun das habe ich das bedauerlicher weise nicht
> hinbekommen. Ich habe sogar P(X=ai) als n über ai mal
> p^ai mal (1-p)^(n-ai) ausgeschrieben und gedacht da könnte
> man dann was wegkürzen umformen etc. hat aber nicht
> geklappt.
>
> Jedenfalls wäre nett wenn ihr mir helfen könntet das zu
> beweisen.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:24 Sa 10.04.2010 | Autor: | Georg321 |
Jetzt bin ich verwirrt, auf Wikipedia ist die Varianz laut 2 definiert:
Die Varianz ist ein Maß, das beschreibt, wie stark eine Messgröße (genauer eine Zufallsgröße) „streut“. Sie wird berechnet, indem man die Abstände der Messwerte vom Mittelwert quadriert, addiert und durch die Anzahl der Messwerte teilt.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:42 Sa 10.04.2010 | Autor: | abakus |
> Jetzt bin ich verwirrt, auf Wikipedia ist die Varianz laut
> 2 definiert:
>
> Die Varianz ist ein Maß, das beschreibt, wie stark eine
> Messgröße (genauer eine Zufallsgröße) „streut“. Sie
> wird berechnet, indem man die Abstände der Messwerte vom
> Mittelwert quadriert, addiert und durch die Anzahl der
> Messwerte teilt.
Hallo,
diese Definition bezieht sich auf die Verwendung des Begriffs "Varianz" im Zusammenhang mit realen Stichpüroben.
Man kann aber auch von Zufallsgrößen die Varianz berechnen, ohne einen Finger in einem praktischen Versuch krumm zu machen.
Beispiel 1: Du wirfst 100mal gleichzeitig zwei Würfel, notiert die Augensumme und wertest das Ergebnis dieser Stichprobe aus (Mittelwert, quadratische Abweichung jedes Versuchs vom Mittelwert,...)
Beispiel 2: Du betrachtest die Augensumme X als Zufallsgröße, die bei Verwendung von idealen Würfeln folgende Wahrscheinlichkeitsverteilung hat:
X=2: p=1/36
X=3: p=3/36
...
X=7: p=6/36
...
X=12: p=1/36
Da du hier keine 100 (oder n) Versuche gemacht hast, kannst am Ende nicht durch n teilen. Du kannst nur das jeweilige Ergebnis/ die jeweilige Abweichuzng vom Erwartungswert (der ist hier 7) entsprechend der Wahrscheinlichkeit des Auftretens dieses Wertes berücksichtigen.
Man berechnet hier eine Varianz, ohne Messwerte einer Stichprobe zu haben.
Gruß Abakus
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:58 Sa 10.04.2010 | Autor: | Blech |
Hi,
eigentlich wollte ich nur sagen, daß ich diesen völlig schwachsinnigen Einleitungssatz bei Wikipedia entfernt habe. Aber da bei der deutschen die Zensur das erst absegen muß, wird's wohl noch dauern bis sich das durchschlägt.
Sonst kann ich mich der anderen Antwort nur anschließen:
Es gibt 2 Sachen. Die Varianz als Kenngröße einer Zufallsvariablen. Du hast ein X mit einer bekannten Verteilung, mit bekannten Parametern, dann weißt Du von der Verteilung her, was die Varianz ist, das berechnest Du bei diskreten Zufallsvariablen so:
> 1. [mm]V(X)=\summe_{i=1}^{n} (ai-\mu)^2[/mm] * P(X=ai)
Hier sind die [mm] $a_i$ [/mm] die möglichen Werte, die X annehmen kann.
Oder Du hast n Meßwerte [mm] $a_1,\ldots,a_n$, [/mm] da werden dann wahrscheinlich einige mehrfach vorkommen und einige überhaupt nicht, und dann kannst Du, sofern der Erwartungswert bekannt ist, hiermit die Stichprobenvarianz berechnen:
>
> 2. [mm]S^2(x)=\frac1n\summe_{i=1}^{n} (a_i-\mu)^2[/mm]
>
deswegen ist das hier auch eine Funktion von x (d.h. tatsächlichen Werten) und nicht X (d.h. einer ZV)
Die Formel gilt im Gegensatz zu oben dann auch für stetige, z.B. normalverteilte, Zufallsvariablen.
Generell ist für die Stichprobenvarianz die bekanntere Formel
[mm] $s^2=\frac1{n-1}\sum_{i=1}^n (x_i -\bar x)^2,\qquad \bar [/mm] x [mm] =\frac1n \sum_{i=1}^n x_i$
[/mm]
weil man im Normalfall auch den Erwartungswert durch das Stichprobenmittel schätzen muß.
ciao
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:12 So 11.04.2010 | Autor: | Georg321 |
Nun gut, danke für die schnellen Erklärungen, ich habe es soweit verstanden.
Nun aber noch einige Fragen zur "Herleitung" der Varianz für Biominalverteilungen.
Es gilt:
[mm] V(X)=\summe_{k=0}^{n} (k-\mu)^2*P(X=k)
[/mm]
[mm] =\summe_{k=0}^{n} k^2*P(X=k)- 2\mu*\summe_{k=0}^{n} k*P(X=k)+\mu^2*\summe_{k=0}^{n} [/mm] P(X=k)
=...
[mm] =\summe_{k=0}^{n} k^2*P(X=k) [/mm] - [mm] \mu^2
[/mm]
Nun ist klar, dass der letzte [mm] \mu^2 [/mm] ist da die Summe der Wahrscheinlichkeiten 1 ist. Aber warum ist die Summe von [mm] k^2*P(X=k)
[/mm]
= [mm] \mu?!
[/mm]
Und noch eine Frage zur weiteren Herleitung. Es wird ein einstufiger Bernoulli-Versuch, mit der Wahrscheinlichkeit auf Erfolg p, durchgeführt.
Also ist [mm] \mu=1*p=p.
[/mm]
Setzt man nun in die letzte Gleichung der Varianz von oben ein bekommt man:
V(X)= [mm] p-p^2=p(1-p)=p+q
[/mm]
Das ist soweit klar. Nun steht im Buch einfach:
"Man kann zeigen, dasss allgemein die Varianz beim n-sufigen Bernoulli-Versuch wie folgt berechnet werden kann:
V(X)=n*p*(1-p)=n*p*q"
Ich würde gerne wissen wie man dies zeigen kann.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 16:53 So 11.04.2010 | Autor: | Blech |
Hi,
> [mm]=\summe_{k=0}^{n} k^2*P(X=k)- 2\mu*\summe_{k=0}^{n} k*P(X=k)+\mu^2*\summe_{k=0}^{n}[/mm]
> P(X=k)
>
> =...
>
> [mm]=\summe_{k=0}^{n} k^2*P(X=k)[/mm] - [mm]\mu^2[/mm]
>
> Nun ist klar, dass der letzte [mm]\mu^2[/mm] ist da die Summe der
> Wahrscheinlichkeiten 1 ist. Aber warum ist die Summe von
> [mm]k^2*P(X=k)[/mm]
> = [mm]\mu?![/mm]
Wo steht, daß sie das ist?
[mm] $\summe_{k=0}^{n} k^2*P(X=k)$ [/mm] wird doch einfach bis unten übernommen.
$- [mm] 2\mu*\summe_{k=0}^{n} k*P(X=k)+\mu^2*\summe_{k=0}^{n}P(X=k)=-\mu^2$
[/mm]
weil die Summe über die $P(X=k)$ 1 ist und weil [mm] $\summe_{k=0}^{n} k*P(X=k)=\mu$ [/mm] die Definition des Erwartungswerts ist.
> Und noch eine Frage zur weiteren Herleitung. Es wird ein
> einstufiger Bernoulli-Versuch, mit der Wahrscheinlichkeit
> auf Erfolg p, durchgeführt.
> Also ist [mm]\mu=1*p=p.[/mm]
> Setzt man nun in die letzte Gleichung der Varianz von oben
> ein bekommt man:
>
> V(X)= [mm]p-p^2=p(1-p)=p+q[/mm]
Ich nehm an p*q, woher sollte auch das + kommen? =)
>
> Das ist soweit klar. Nun steht im Buch einfach:
> "Man kann zeigen, dasss allgemein die Varianz beim
> n-sufigen Bernoulli-Versuch wie folgt berechnet werden
> kann:
> V(X)=n*p*(1-p)=n*p*q"
>
> Ich würde gerne wissen wie man dies zeigen kann.
Die Summe von n unabhängigen Bernoulli-Versuchen [mm] $X_i$ [/mm] ist binomialverteilt, nach Definition der Binomialverteilung.
Sie sind unabhängig, also kann man die Summe aus Erwartungswert und Varianz rausziehen:
[mm] $E\left(\sum_{i=1}^n X_i\right) [/mm] = [mm] \sum_{i=1}^n E(X_i)=n*E(X_1)$,
[/mm]
da die [mm] $X_i$ [/mm] identisch verteilt sind, gilt [mm] $E(X_i)=E(X_1)$
[/mm]
und ebenso [mm] $Var\left( \sum_{i=1}^n X_i\right) [/mm] = [mm] \sum_{i=1}^n Var(X_i)=n*Var(X_1)$
[/mm]
ciao
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:38 Di 13.04.2010 | Autor: | Georg321 |
Hallo sry für die späte Rückmeldung, ich hatte jetzt Semesterbeginn und viel um die Ohren. Also nochmal
Hi,
> $ [mm] =\summe_{k=0}^{n} k^2\cdot{}P(X=k)- 2\mu\cdot{}\summe_{k=0}^{n} k\cdot{}P(X=k)+\mu^2\cdot{}\summe_{k=0}^{n} [/mm] $
> P(X=k)
>
> =...
>
> $ [mm] =\summe_{k=0}^{n} k^2\cdot{}P(X=k) [/mm] $ - $ [mm] \mu^2 [/mm] $
>
> Nun ist klar, dass der letzte $ [mm] \mu^2 [/mm] $ ist da die Summe der
> Wahrscheinlichkeiten 1 ist. Aber warum ist die Summe von
> $ [mm] k^2\cdot{}P(X=k) [/mm] $
> = $ [mm] \mu?! [/mm] $
Wo steht, daß sie das ist?
$ [mm] \summe_{k=0}^{n} k^2\cdot{}P(X=k) [/mm] $ wird doch einfach bis unten übernommen.
Das war ein schreibfehler von mir, ich wollte natürlich wissen warum
$ [mm] \summe_{k=0}^{n} k\cdot{}P(X=k)=\mu [/mm] $ ist.
Nun ist doch die Definition des Erwartungswertes n*p=µ.
Nun ist z.B. k1*P(X=k1)=µk1, also der Erwartungswert für das Ergebnis k1, das mit der Wahrscheinlichkeit P(X=k1) eintritt, wenn man dies als eigenständigen Versuch betrachten würde.
So nun leuchtet mir aber nicht recht ein warum die Summe aller Teilerwartungswerte der einzelnen möglichen Ergebnisse den allgemeinen ganzen Erwartungswert bilden.
Intuitiv vielleicht aber ich möchte es schriftlich nachvollziehen, denn es gilt ja:
n*p=k1*P(X=k1)+...+kn*P(X=kn)
Und diese Gleichung müsste doch irgendwie zu beweisen sein oder?!
Bei der Varianz ist das einzige, das ich nicht verstanden habe warum
$ [mm] Var\left( \sum_{i=1}^n X_i\right) [/mm] = [mm] \sum_{i=1}^n Var(X_i) [/mm] gilt.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:48 Mi 14.04.2010 | Autor: | Blech |
Hi,
>
> Das war ein schreibfehler von mir, ich wollte natürlich
> wissen warum
> [mm]\summe_{k=0}^{n} k\cdot{}P(X=k)=\mu[/mm] ist.
Ist K die Menge aller Werte, die die diskrete (d.h. K ist endlich, oder abzählbar) Zufallsvariable X annehmen kann, dann ist die Definition des Erwartungswertes:
Ist [mm] $\sum_{k\in K} |k|*P(X=k)<\infty$, [/mm] so sagt man der Erwartungswert existiert und ist
[mm] $E(X):=\sum_{k\in K} [/mm] k*P(X=k)$
Bei einer binomialverteilten ZV ist [mm] $K=\IN_0$, [/mm] also
[mm] $E(X)=\sum_{k=0}^\infty [/mm] k*P(X=k)$
> Nun ist doch die Definition des Erwartungswertes n*p=µ.
Nein. Der Erwartungswert einer binomialverteilten Zufallsvariable ist np. Das kann man ausrechnen. Wäre es einfach so definiert, würden wir nicht rechnen.
> Nun ist z.B. k1*P(X=k1)=µk1, also der Erwartungswert für
Was soll µk1 sein? [mm] $\mu*k_1$? $\mu_{k_1}$?
[/mm]
> das Ergebnis k1, das mit der Wahrscheinlichkeit P(X=k1)
> eintritt, wenn man dies als eigenständigen Versuch
> betrachten würde.
Ich hab ehrlich keine Ahnung, was mir dieser Satz sagen will.
Der Erwartungswert ist der Grenzwert des Stichprobenmittels für steigende Versuchsanzahl.
Wenn ich eine Milliarde Würfel werfe, wird der Durchschnittswurf nahe an 3.5 sein.
Statt normal das Stichprobenmittel [mm] $\frac1n \sum_{i=1}^n x_i$ [/mm] zu berechnen, könnte man auch alle Würfel sammeln, die eine 1 zeigen, alle, die eine 2 zeigen, etc.
Dann kann man einfach
1*Anteil der Würfel mit 1 + 2*Anteil der Würfel mit 2+usw.
rechnen.
Nimmt man statt der empirischen Anteile die theoretischen Wkeiten, hat man die Definition des Erwartungswertes.
> Intuitiv vielleicht aber ich möchte es schriftlich
Deswegen hab ich die Rechnung oben gemacht.
Sind die [mm] $X_i$ [/mm] Bernoulli-Versuche, dann ist die Summe X binomialverteilt:
$E(X)= [mm] E\left(\sum_{i=1}^n X_i\right) [/mm] = [mm] \sum_{i=1}^n E(X_i)=n\cdot{}E(X_1) [/mm] $
> nachvollziehen, denn es gilt ja:
> n*p=k1*P(X=k1)+...+kn*P(X=kn)
> Und diese Gleichung müsste doch irgendwie zu beweisen
> sein oder?!
Du kannst auch direkt rechnen, das geht ganz direkt, indem Du das k vorne wegkürzt:
[mm] $\sum_{k=0}^n k*P(X=k)=\sum_{k=1}^n [/mm] k [mm] {n\choose k}p^k(1-p)^{n-k}=np\sum_{k=1}^n \frac{(n-1)!}{(n-k)!(k-1)!} p^{k-1}(1-p)^{n-k}$
[/mm]
jetzt kannst Du den Index verschieben:
l:=k-1
> Bei der Varianz ist das einzige, das ich nicht verstanden
> habe warum
> $ [mm]Var\left( \sum_{i=1}^n X_i\right)[/mm] = [mm]\sum_{i=1}^n Var(X_i)[/mm]
> gilt.
[mm] $Var(X+Y)=E\left((X+Y)^2\right) -\left(E(X+Y)\right)^2=\ldots$
[/mm]
Du solltest Dir zumindest mal die Definitionen und Rechenregeln von Erwartungswert und Varianz anschauen, bevor Du anfängst wild rumzurechnen =)
ciao
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:01 Do 15.04.2010 | Autor: | Georg321 |
> Ist K die Menge aller Werte, die die diskrete (d.h. K ist
> endlich, oder abzählbar) Zufallsvariable X annehmen kann,
> dann ist die Definition des Erwartungswertes:
>
> Ist [mm]\sum_{k\in K} |k|*P(X=k)<\infty[/mm], so sagt man der
> Erwartungswert existiert und ist
>
> [mm]E(X):=\sum_{k\in K} k*P(X=k)[/mm]
>
Genau das ist meine Frage:
[mm]E(X):=\sum_{k\in K} k*P(X=k)[/mm]
= 0*P(X=0)+1*P(X=1)+...+kn*P(X=n)
[mm] =\mu0+\mu1+...+\mu [/mm] n
Das habe ich jetzt so aufgeschreiben, mit der Behauptung, wir interpretieren jedes Element k*P(X=k) als eigenen Versuch.
Das nehme ich ja dann aus der Defintition von [mm] \mu=np, [/mm] wobei k n ist und P(X=k) p ist. Mag etwas verwirrend sein. Habe ich mir jetzt so vorgestellt.
Für k=1 hätte ich dann 1*P(X=1), also einen Bernoullliversuch mit der Wahrscheinlichkeit P(X=1) zum Erfolg und mit einmaligem wiederholen n=1. Folglich der Erwartungswert [mm] \mu=np=1*P(X=1)= [/mm] P(X=1).
> > Nun ist doch die Definition des Erwartungswertes n*p=µ.
>
> Nein. Der Erwartungswert einer binomialverteilten
> Zufallsvariable ist np. Das kann man ausrechnen. Wäre es
> einfach so definiert, würden wir nicht rechnen.
Wo ist den bitte der Unterschied np oder n*p ist beides n mal p
Für den Rest belassen wir es erstmal dabei, ich komme nicht hinterher mit dem nachvollziehen, es kommt immer etwas neues, das ich zum größten Teil verstehen und wo mir dann ein kleines Detail zum verständnis fehlt, d.h. es würde wieder eine Lawine an Fragen kommen...
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 23:52 Do 15.04.2010 | Autor: | Blech |
Hi,
> [mm]E(X):=\sum_{k\in K} k*P(X=k)[/mm]
>
> = 0*P(X=0)+1*P(X=1)+...+kn*P(X=n)
> [mm]=\mu0+\mu1+...+\mu[/mm] n
>
> Das habe ich jetzt so aufgeschreiben, mit der Behauptung,
> wir interpretieren jedes Element k*P(X=k) als eigenen
> Versuch.
Ich seh nur nicht, was diese Interpretation bringen soll.
> Das nehme ich ja dann aus der Defintition von [mm]\mu=np,[/mm]
> wobei k n ist und P(X=k) p ist. Mag etwas verwirrend sein.
$P(X=k)$ ist im allgemeinen aber nicht p.
> Wo ist den bitte der Unterschied np oder n*p ist beides n
> mal p
Er ist nicht als np *definiert*. Die Formel für den EW oben ist eine Definition. Aus der Definition folgt, daß der EW einer binomialverteilten ZV np ist. Das ist ein berechneter Wert, keine Definition.
ciao
Stefan
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:55 Fr 16.04.2010 | Autor: | Georg321 |
Diese Interpretation, wirft eine Fragestellung auf, nähmlich warum die Summe aller Einzelerwartungen der kleinen Versuche, den Erwartungswert der Binomialverteilung des Gesamten Versuchs bilden, aber du hast Recht diese Interpretation schafft wohl mehr Diese Interpretation, wirft eine Fragestellung, nähmlich warum die Summe aller Einzelerwartungen der kleinen Versuche, den Erwartungswert der Binomialverteilung bilden, aber du hast recht diese Interpretation schaft wohl mehr Verwirrung als sie nutzen bringt, ich bin halt drauf gestoßen als ich versucht habe zu beweisen, dass die Summe der Erwartungswert ist, denn ich habe mir natürlich gedanken gemacht was die einzelnen Produkte der Summe sind und deshalb bin ich darauf gekommen. Ich danke dir für deine Mühe, ich habe es noch nicht ganz verstanden, aber da jetzt Studienbeginn ist und ich viele andere Sachen nachzuholen habe, werde ich mich zu einem späteren Zeitpunkt nochmal mit diesem Thread beschäftigen.
Grüße Georg
|
|
|
|