ML-Schätzer < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 21:29 Fr 23.12.2011 | Autor: | mikexx |
Aufgabe | Seien [mm] $X_1,...,X_n$ [/mm] unabhängig und identisch [mm] $\text{Gamma}(\alpha,\beta)$ [/mm] - verteilte Zufallsvariablen mit bekanntem Parameter [mm] $\alpha$, $0\leq x_i<\infty$ $\alpha,\beta>0$
[/mm]
[mm] $f(x_i|\alpha,\beta)=\frac{1}{\Gamma(\alpha)\beta^{\alpha}}x_i^{\alpha-1}e^{\frac{-x_i}{\beta}}$
[/mm]
Bestimmen Sie den Maximum Likelihood-Schätzer [mm] $\hat \beta_{ML}$ [/mm] für [mm] $\beta$ [/mm] über die Exponentialfamiliendarstellung.
Ist [mm] $\hat\beta_{ML}$ [/mm] erwartungstreu und schwach konsistent? |
Hallo!
Ich habe schon den ML-Schätzer der Gammaverteilung bei bekanntem [mm] $\alpha$ [/mm] über Differentiation bestimmt (auf einem vorherigen Übungszettel):
[mm] $\frac{\overline{X}}{\alpha}$
[/mm]
Aber wie ist nun die Aufgabe hier nun zu verstehen?
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:01 Fr 23.12.2011 | Autor: | luis52 |
Moin,
vielleicht kannst du hier etwas Honig saugen ...
vg Luis
PS: Auch fuer dich und alle anderen Mitleser ein frohes Weihnachtsfest.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 01:00 Sa 24.12.2011 | Autor: | mikexx |
Erstmal zu der Dichte eines der [mm] $X_i$:
[/mm]
Da [mm] $\alpha$ [/mm] als bekannt vorausgesetzt wird, kann man meiner Rechnung nach die Dichte [mm] $f(x_i |\beta)$ [/mm] so schreiben:
[mm] $f(x_i|\beta)=\exp\left\{a(\beta)b(x_i)+c(\beta)+d(x_i)\right\}$ [/mm] mit:
[mm] $a(\beta)=-\frac{1}{\beta}$
[/mm]
[mm] $b(x_i)=x_i$
[/mm]
[mm] $c(\beta)=-\log(\Gamma(\alpha)\beta^{\alpha})$
[/mm]
[mm] $d(x_i)=(\alpha-1)\log(x_i)$
[/mm]
Der kanonische Parameter ist nach meiner Rechung also [mm] $\psi=a(\beta)=-\frac{1}{\beta}$, [/mm] sodaß ich die Darstellung
[mm] $f(x_i [/mm] | [mm] \beta)=\exp\left\{\psi x_i-h(\psi)+d(x_i)\right\}$ [/mm] bekomme und hier:
[mm] $-h(\psi)=-\log(\Gamma(\alpha)\beta^{\alpha})\Leftrightarrow h(\psi)=\log(\Gamma(\alpha)+\log(\psi)$, [/mm] d.h.
[mm] $f(x_i [/mm] | [mm] \beta)=\exp\left\{\psi x_i-\log(\Gamma(\alpha))+\log(\psi)+(\alpha-1)\log(x_i)\right\}$
[/mm]
Stimmt das so bis zu dieser Stelle?
--------
Wenn ich das nun korrekt verstanden habe, kann man nun auch für alle [mm] $X_i$ [/mm] bzw. für deren gemeinsame Dichte eine solche Darstellung ausfindig machen und diese dann benutzen, um den gesuchten ML-Schätzer zu finden.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 09:05 Sa 24.12.2011 | Autor: | luis52 |
>
> Stimmt das so bis zu dieser Stelle?
Ja, bis auf $ [mm] h(\psi)=\log(\Gamma(\alpha)\red{)}+\log(\psi) [/mm] $.
>
> --------
>
> Wenn ich das nun korrekt verstanden habe, kann man nun auch
> für alle [mm]X_i[/mm] bzw. für deren gemeinsame Dichte eine solche
> Darstellung ausfindig machen und diese dann benutzen, um
> den gesuchten ML-Schätzer zu finden.
So ist es.
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 12:07 Sa 24.12.2011 | Autor: | mikexx |
Okay, dann versuche ich mal, wieder einen Schritt weiterzukommen.
Ich habe also nun für ein [mm] $X_i$ [/mm] die Dichte in der kanonischen Exponentialfamiliendarstellung, okay.
Dann folgt für die Dichte von [mm] $\vec X=(X_1,...,X_n)$, [/mm] daß ich diese schreiben kann als:
[mm] $\exp\left\{a(\beta)\sum_{i=1}^{n}b(x_i)+\sum_{i=1}^{n}c(\beta)+\sum_{i=1}^{n}d(x_i)\right\}$, [/mm] was hier konkret bedeutet:
[mm] $\exp\left\{-\frac{1}{\beta}\sum_{i=1}^{n}x_i-\sum_{i=1}^{n}\log(\Gamma(\alpha)\beta^{\alpha})+(\alpha-1)\sum_{i=1}^{n}\log(x_i)\right\}$
[/mm]
Kanonischer Parameter ist hier ebenfalls [mm] $\psi=a(\beta)=-\frac{1}{\beta}$.
[/mm]
Wenn ich auch das korrekt verstanden habe, ist die log-Likelihood-Funktion dann:
[mm] $\log L(\psi [/mm] | [mm] \vec X)=\psi\sum_{i=1}^{n}x_i-nh(\psi)+\sum_{i=1}^{n}(\alpha-1)\log(x_i)=\psi\sum_{i=1}^{n}x_i-n\cdot (\log(\Gamma(\alpha))+\log(\psi))+\sum_{i=1}^{n}(\alpha-1)\log(x_i)$ [/mm] mit den Ableitungen
[mm] $D\log L(\psi [/mm] | [mm] \vec X)=\sum_{i=1}^{n}x_i-n\cdot h'(\psi)=\sum_{i=1}^{n}x_i-n\cdot \frac{1}{\psi}$
[/mm]
[mm] $D^2\log L(\psi [/mm] | [mm] \vec X)=-n\cdot h''(\psi)=n\cdot\frac{1}{\psi^2}$ [/mm]
Wenn ich nun setze
[mm] $D\log L(\psi [/mm] | [mm] \vec [/mm] X)=0$, also
[mm] $\sum_{i=1}^{n}x_i-n\cdot\frac{1}{\psi}=0$, [/mm] bekomme ich
[mm] $\hat\psi=n\cdot \frac{1}{\sum_{i=1}^{n}x_i}$
[/mm]
Vorausgesetzt, daß das stimmt: Wie komme ich jetzt aber zu [mm] $\hat\beta$?
[/mm]
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:30 Sa 24.12.2011 | Autor: | dennis2 |
Ich habe oben angemerkt, dass es meiner Meinung nach heißen muss:
[mm] $h(\psi)=\log(\Gamma(\alpha))-\alpha\log(-\psi)$.
[/mm]
Dann ist die erste Ableitung der log-Likelihood nicht das, was Du raus hast, sondern:
[mm] $D\log L(\psi [/mm] | [mm] \vec X)=\sum_{i=1}^{n}x_i+\frac{n\cdot\alpha}{\psi}$
[/mm]
Du kommst dann auf [mm] $\hat\psi=-\frac{n\alpha}{\sum_{i=1}^{n}x_i}$. [/mm]
Und damit kannst Du jetzt wie folgt auf [mm] $\hat\beta$ [/mm] kommen und zwar über diese Beziehung, die Du eigentlich auch schon benützt hattest:
[mm] $\hat\psi=a(\hat\beta)$, [/mm] also [mm] $\hat\beta=a^{-1}(\psi)$.
[/mm]
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 13:15 Sa 24.12.2011 | Autor: | dennis2 |
Muss es nicht so heißen:
[mm] $h(\psi)=\log(\Gamma(\alpha))-\alpha\log(-\psi)$?
[/mm]
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:51 Sa 24.12.2011 | Autor: | mikexx |
Okay, dann habe ich:
[mm] $\hat\beta_{ML}=a^{-1}(\hat\psi)=-\frac{1}{\hat\psi}=-\left(-\frac{1}{\frac{\alpha n}{\sum_{i=1}^{n}x_i}}\right)=\frac{\sum_{i=1}^{n}x_i}{n\alpha}=\frac{\overline{x}}{\alpha}$
[/mm]
Ist das korrekt so?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 15:38 Sa 24.12.2011 | Autor: | luis52 |
Moin,
habe deine Rechnungen nicht alle ueberprueft, aber ich
bin schon mal beruhigt, dass du dein urspruengliches
Ergebnis bestaetigst.
vg Luis
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:49 Sa 24.12.2011 | Autor: | mikexx |
Ja, ich bin auch froh, daß sich zumindest das richtige Ergebnis einstellt.
Wenn Du mal Zeit hast, kannst Du es ja genauer ansehen.
|
|
|
|
|
Status: |
(Frage) überfällig | Datum: | 12:48 So 25.12.2011 | Autor: | mikexx |
Kann man denn am Ende sagen:
[mm] $\hat{\psi}=a(\hat{\beta})$ [/mm] und daher
[mm] $\hat{\beta}_{ML}=a^{-1}(\hat{\psi})$?
[/mm]
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 15:18 So 25.12.2011 | Autor: | mikexx |
Achso, ich muss ja noch die Frage klären, ob der Schätzer erwartungstreu und schwach konsistent ist.
Zur Erwartungstreue:
Also als Schätzer habe ich ja ermittelt:
[mm] $\hat{\beta}_{ML}=\frac{\overline{X}}{\alpha}$
[/mm]
Ich würde sagen, daß dieser Schätzer nicht erwartungstreu ist, denn für die [mm] $X_i, [/mm] i=1,...,n$ gilt doch, daß [mm] $E(X_i)=\frac{\alpha}{\beta}$ [/mm] und dann:
[mm] $E_{\frac{\alpha}{\beta}}\left(\frac{\overline{X}}{\alpha}\right)=\frac{1}{n\alpha}\frac{n\alpha}{\beta}=\frac{1}{\beta}\neq \frac{\alpha}{\beta}$, [/mm] falls [mm] $\alpha\neq [/mm] 1$.
Korrekt?
[Bei der schwachen Konsistenz überlege ich noch ein bisschen.]
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 12:07 Mo 26.12.2011 | Autor: | mikexx |
Ich muss noch herausfinden, ob [mm] $\hat{\beta}_{ML}$ [/mm] schwach konsistent ist.
Wenn [mm] $\hat{\beta}_{ML}=\frac{\overline{X}}{\alpha}$ [/mm] schwach konsistent wäre, so müsste ja gelten:
[mm] $\lim_{n\to\infty}P\left(\left|\hat{\beta}_{ML}^{(n)}-\beta\right|<\varepsilon\right)=1$ [/mm] für alle [mm] $\varepsilon>0$.
[/mm]
Wie kann man das zeigen (oder widerlegen)?
Mir fehlt eine Idee.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:30 Mo 26.12.2011 | Autor: | dennis2 |
hi, ich würde mir mal das schwache gesetz der großen zahlen hernehmen. glaube, damit kann man hier was werden
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 12:24 Di 27.12.2011 | Autor: | mikexx |
Achso, ich glaube, ich weiß, was Du meinst:
Nach dem schwachen Gesetz der großen Zahlen gilt doch:
[mm] $\hat{\beta}_{ML}=\frac{\overline{X}}{\alpha}\to\frac{1}{\alpha}E(X_1)=\frac{1}{\alpha}\frac{\alpha}{\beta}=\frac{1}{\beta}, n\to\infty$.
[/mm]
Und wenn ich das jetzt benutze, komme ich darauf, daß ja [mm] $\left|\frac{1}{\beta}-\beta\right|$ [/mm] nicht kleiner als jedes Epsilon größer 0 ist. Zum Beispiel gilt doch, daß
[mm] $\left|\frac{1}{\beta}-\beta\right|>\frac{\beta}{2}=:\varepsilon$
[/mm]
Und dann folgt:
[mm] $\lim_{n\to\infty}P\left(\left|\hat{\beta}_{ML}-\beta\right|<\varepsilon\right)=P\left(\left|\frac{1}{\beta}-\beta\right|<\varepsilon\right)\neq [/mm] 1 [mm] ~\forall\varepsilon>0$ [/mm] und damit ist gezeigt, daß [mm] $\hat{\beta}_{ML}$ [/mm] nicht schwach konsistent ist!
Ist das so richtig?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 16:03 Di 27.12.2011 | Autor: | dennis2 |
So meinte ich das, ja.
Hätte ich so gemacht und macht doch auch Sinn.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 16:03 Di 27.12.2011 | Autor: | dennis2 |
Hab meine Idee als Mitteilung angehängt.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:30 Mo 26.12.2011 | Autor: | dennis2 |
Sieht doch gut aus.
Dieser Schätzer ist nicht erwartungstreu, wie Du also gezeigt hast.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:20 Di 27.12.2011 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|