lineare Regression < Statistik/Hypothesen < Stochastik < Oberstufe < Schule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 16:24 Mo 24.05.2010 | Autor: | domerich |
Aufgabe | also man soll irgendwie die konstante beta 1 berechnen, ich kann aber nicht nachvollziehen wie
[Externes Bild http://img691.imageshack.us/img691/4159/st1mt.jpg] |
also beta 2 hab ich berechnet zu -0,4 soweit so gut
nun braucht man beta 1
die lösung sagt
[mm] y_i-\overline{y}=-0.4(x_i-\overline{x})+u_i
[/mm]
das verstehe ich nicht warum soll diese gleichung gelten?
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 17:46 Mo 24.05.2010 | Autor: | domerich |
Aufgabe | Berechnen Sie die Verzerrung des OLS-Schätzers bei Gültigkeit der modifizierten Annahme (A1’) E(u) = a [mm] \not=0 [/mm] |
davon habe ich keine Ahnung! was ist damit gemeint und wie Berechnet man die Verzerrung? was ist die Verzerrung?
danke (auch für wiki links)
|
|
|
|
|
Hallo!
> Berechnen Sie die Verzerrung des OLS-Schätzers bei
> Gültigkeit der modifizierten Annahme (A1’) E(u) = a
> [mm]\not=0[/mm]
> davon habe ich keine Ahnung! was ist damit gemeint und wie
> Berechnet man die Verzerrung? was ist die Verzerrung?
>
> danke (auch für wiki links)
Die KQ-Schätzer eines linearen Regressionsmodells sind geprägt von diversen Eigenschaften. Eine dieser Eigenschaften ist eben die Unverzerrtheit des Schätzers: [mm] E(\hat\beta)=\beta. [/mm] Der Erwartungswert des KQ-Schätzers ist also der Regressionsparameter selbst.
Diese Eigenschaft geht automatisch mit der Annahme E(u)=0 einher, die einen Einfluß eines Fehlerterms im Mittel ausschließt. Man spricht in diesem Zusammenhang auch von einem "erwartungstreuen Schätzer" Zusammengefasst hat man also:
(1) [mm] E(\hat\beta)=\beta\gdw{E(u)=0}
[/mm]
Die in der Aufgabenstellung modifizierte Annahme [mm] E(u)=a\not=0 [/mm] liefert dir nun aber sehr wohl einen Störterm, der wiederum mit einer Verzerrung des Schätzers einhergeht. Der Erwartungswert des Residuums ist nicht 0 und somit existent. Die Äquivalenz in (1) modifiziert sich also zu
[mm] E(u)=a\Rightarrow E(\hat\beta)\not=\beta, [/mm] mit [mm] a\not=0
[/mm]
Durch Minimierung des Summe der quadrierten Residuen erhält man zunächst den Ansatz zur Berechnung der KQ- Schätzer im Hinblick auf ein lineares Regressionsmodell zu
[mm] \hat\beta=(X^{T}X)^{-1}X^{T}y [/mm] mit [mm] y=X\beta+u
[/mm]
Durch weitere Verrechnungen sollte es dir nun gelingen, die Verzerrung unter der modifizierten Annahme zu berechnen.
Hinweis: Die Unverzerrtheit des KQ-Schätzers ist mit E(u)=0 gegeben zu:
[mm] E(\hat\beta)=E(\beta)+E((X^{T}X)^{-1}X^{T}u)=\beta+(X^{T}X)^{-1}X^{T}E(u)=\beta
[/mm]
Gruß, Marcel
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:09 Di 25.05.2010 | Autor: | domerich |
danke, das war schön ausführlich. beim rechnen hatte ich trotzdem ein paar probleme:
[mm] \beta_{dach}=(X'X)^{-1}X'(X\beta [/mm] +u)
[mm] =(X'X)^{-1}X'u+(X'X)^{-1}X'X\beta [/mm]
aja ich seh grad ich hatte es falschrum aufgeschoben, die (X'X) kürzen sich
und es bleibt
[mm] (X'X)^{-1}X'u+\beta
[/mm]
dann ist
[mm] E(\beta_{dach})=\beta +(X'X)^{-1}X'a
[/mm]
jetzt kapier ich das Ende nicht:
die Verzerrung: [mm] E(\beta_{dach})-\beta [/mm] = [mm] (X'X)^{-1}X'a
[/mm]
dass das rauskommt ist klar wenn man [mm] \beta [/mm] abzieht aber warum die verzerrung so definiert ist ist mir grad nicht klar.
Einmal haben wir die Verzerrung mit E(u)=Verzerrung oder?
und das [mm] E(\beta_{dach}) [/mm] eben nicht [mm] \beta [/mm] ist...
danke :)
|
|
|
|
|
Hallo!
> danke, das war schön ausführlich. beim rechnen hatte ich
> trotzdem ein paar probleme:
>
> [mm]\beta_{dach}=(X'X)^{-1}X'(X\beta[/mm] +u)
>
> [mm]=(X'X)^{-1}X'u+(X'X)^{-1}X'X\beta[/mm]
>
> aja ich seh grad ich hatte es falschrum aufgeschoben, die
> (X'X) kürzen sich
>
> und es bleibt
>
> [mm](X'X)^{-1}X'u+\beta[/mm]
>
>
> dann ist
>
> [mm]E(\beta_{dach})=\beta +(X'X)^{-1}X'a[/mm]
>
> jetzt kapier ich das Ende nicht:
>
> die Verzerrung: [mm]E(\beta_{dach})-\beta[/mm] = [mm](X'X)^{-1}X'a[/mm]
>
> dass das rauskommt ist klar wenn man [mm]\beta[/mm] abzieht aber
> warum die verzerrung so definiert ist ist mir grad nicht
> klar.
Eine wichtige Erkenntnis lässt sich aus einer weiteren Eigenschaft des Schätzers, nämlich jener der Linearität ziehen. Im Allgemeinen hat man mit dem Regressionsmodell einer linearen Einfachregression
[mm] \hat\beta=Ay, [/mm] mit [mm] A=(X^{T}X)^{-1}X^{T} [/mm] und [mm] y=X\beta+u
[/mm]
Durch Einsetzen erhält man dann
[mm] \hat\beta=(X^{T}X)^{-1}X^{T}(X\beta+u)
[/mm]
Anwendung des Distributivgesetzes und anschließende Vereinfachung liefert dann
[mm] \beta=(X^{T}X)^{-1}X^{T}X\beta+(X^{T}X)^{-1}X^{T}u=\beta+(X^{T}X)^{-1}X^{T}u
[/mm]
Im weiteren Verlauf erhält man durch eine lineare Transformation des Erwartungswertes gemäß
[mm] E(X\pm{Y})=E(X)\pm{E}(Y)
[/mm]
die Eigenschaft der Unverzerrtheit des KQ-Schätzers zu
[mm] E(\hat\beta)=E(\beta)+E((X^{T}X)^{-1}X^{T}u)=\beta+(X^{T}X)^{-1}X^{T}E(u)=\beta, [/mm] mit E(u)=0
> Einmal haben wir die Verzerrung mit E(u)=Verzerrung oder?
> und das [mm]E(\beta_{dach})[/mm] eben nicht [mm]\beta[/mm] ist...
>
> danke :)
Gruß, Marcel
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 12:52 Mi 26.05.2010 | Autor: | domerich |
aja jetzt hab ichs kapiert danke
|
|
|
|
|
Hallo!
> also man soll irgendwie die konstante beta 1 berechnen, ich
> kann aber nicht nachvollziehen wie
>
> [Externes Bild http://img691.imageshack.us/img691/4159/st1mt.jpg]
> also beta 2 hab ich berechnet zu -0,4 soweit so gut
> nun braucht man beta 1
> die lösung sagt
>
> [mm]y_i-\overline{y}=-0.4(x_i-\overline{x})+u_i[/mm]
>
> das verstehe ich nicht warum soll diese gleichung gelten?
Müsste jetzt klar sein, oder?
Gruß, Marcel
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:41 Di 25.05.2010 | Autor: | domerich |
leider nicht wirklich... verstehe nicht was man überhaupt macht
also normalerweise gilt ja
[mm] y_i=x_i\beta+u_i
[/mm]
und hier gibt es irgendeine definition dass eben [mm] y_i [/mm] nun [mm] y_i-\overline{y} [/mm] ist und x analog
wenn ich das mal so hinnehme dann verstehe ich auch
[mm] y_i-\overline{y}=-0.4(x_i-\overline{x})+u_i [/mm]
aber warum ist nun [mm] \overline{y}+\overline{x} [/mm] meine konstante [mm] \beta_1 [/mm] ?
0.4*5+3 gibt dann natürlich 5...
|
|
|
|
|
Hallo!
> leider nicht wirklich... verstehe nicht was man überhaupt
> macht
Nun ja, offensichtlich wird in diesem Fall eine Datentransformation durchgeführt, die darin besteht, dass man von jeder einzelnen Beobachtung [mm] x_{i} [/mm] einer Datenreihe den Mittelwert dieser Datenreihe [mm] \overline{x}\equiv\bruch{1}{N}\summe_{i}^{}x_{i} [/mm] subtrahiert.
Auf eine solche "Mittelwerttransformation" wird man beispielsweise aufmerksam, wenn man sich die Mühe macht, die Berechnung des Regressionsparameters [mm] \beta_{1} [/mm] aus dem Regressionsmodell
[mm] y_{i}=\beta_{0}+\beta_{1}x_{i}+u_{i}
[/mm]
allgemein herzuleiten. Man erhält diesbezüglich den folgenden Ausdruck
[mm] \beta_{1}=\bruch{\summe_{i}^{}(x_{i}-\overline{x})(y_{i}-\overline{y})}{\summe_{i}^{}(x_{i}-\overline{x})^{2}}=\bruch{\bruch{1}{N}\summe_{i}^{}(x_{i}-\overline{x})(y_{i}-\overline{y})}{\bruch{1}{N}\summe_{i}^{}(x_{i}-\overline{x})^{2}}=\bruch{Cov(y,x)}{Var(x)}
[/mm]
Wichtig bei der Mittelwerttransformation ist vor allem die Erkenntnis darüber, dass der Mittelwert einer mittelwerttransformierten Variablen immer 0 ist, denn man hat
[mm] \bruch{1}{N}\summe_{i}^{}(y_{i}-\overline{y})=\bruch{1}{N}\summe_{i}^{}y_{i}-\bruch{1}{N}\summe_{}^{}\overline{y}=\overline{y}-\bruch{1}{N}N\overline{y}=\overline{y}-\overline{y}=0
[/mm]
Und die Moral von der Geschicht':
Für die Berechnung des Steigungsparameters [mm] \beta_{1} [/mm] ist es vollkommen irrelevant, ob du die mittelwerttransformierten oder doch lieber die ursprünglichen Datenreihen verwendest. Die KQ- Schätzung führt über beide Wege immer zum gleichen Ziel.
Den Intercept-Wert [mm] \beta_{0} [/mm] (dieser fällt im Zuge der Mittelwerttransformation heraus und kann deshalb nicht auf diese Weise ermittelt werden) kannst du dann wie gewohnt mit Hilfe der ursprünglichen Daten über die Gleichung
[mm] \beta_{0}=\overline{y}-\beta_{1}\overline{x} [/mm] berechnen.
Du kannst dir das Ganze natürlich auch graphisch vor Augen halten. Dadurch, dass du die Mittelwerte von den entsprechenden Daten abziehst, werden die Koordinaten der transformierten Variable im Verhältnis zu einem neuen Koordinatensystem ermittelt. Der Ursprung des neuen Koordinatensystems liefert der Mittelwert der ursprünglichen Variable [mm] (\overline{x},\overline{y}).
[/mm]
> also normalerweise gilt ja >
> [mm]y_i=x_i\beta+u_i[/mm]
>
> und hier gibt es irgendeine definition dass eben [mm]y_i[/mm] nun
> [mm]y_i-\overline{y}[/mm] ist und x analog
> wenn ich das mal so hinnehme dann verstehe ich auch
>
> [mm]y_i-\overline{y}=-0.4(x_i-\overline{x})+u_i[/mm]
>
> aber warum ist nun [mm]\overline{y}+\overline{x}[/mm] meine
> konstante [mm]\beta_1[/mm] ?
>
> 0.4*5+3 gibt dann natürlich 5...
Gruß, Marcel
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 13:21 Mi 26.05.2010 | Autor: | domerich |
Aufgabe | Leiten Sie die Kovarianzmatrix des OLS-Schätzers bei Gültigkeit der modifizierten Annahme [mm] (A2')E(uu')=\Omega\not\sigma^2I [/mm] |
hab noch kurz ne frage zu 2b, hab sie zwar raus aber:
warum kann jetzt angenommen werden, dass [mm] \beta{dach} [/mm] etwartungstreu ist? wie kann ich das der aufgabe entnehmen? in a) war es ja offensichtlich nicht der fall.
dann noch eine frage zum vektor rechnen, nach welchen regeln ergibt denn
[mm] [(X'X)^{-1}X'u]*[(X'X)^{-1}X'u]' [/mm]
[mm] [(X'X)^{-1}X'uuX'(X'X)^{-1}] [/mm] (in der lösung uu' ich denke das ist ein schreibfehler, sicher bin ich mir natürlich nicht)
dankeschön :)
|
|
|
|
|
Hallo!
> Leiten Sie die Kovarianzmatrix des OLS-Schätzers bei
> Gültigkeit der modifizierten Annahme
> [mm](A2')E(uu')=\Omega\not\sigma^2I[/mm]
> hab noch kurz ne frage zu 2b, hab sie zwar raus aber:
>
> warum kann jetzt angenommen werden, dass [mm]\beta{dach}[/mm]
> etwartungstreu ist? wie kann ich das der aufgabe entnehmen?
> in a) war es ja offensichtlich nicht der fall.
Gegenfrage an dich: Woher entnimmst du, dass A1:E(u)=0 in dieser Aufgabe modifiziert wurde?
Hinweis 1: In der Aufgabenstellung wird lediglich die Annahme
[mm] A2:E(uu^{T})\sigma^{2}I,\sigma^{2}<\infty [/mm] zu [mm] A2':E(uu^{T})=\Omega\not=\sigma^{2}I [/mm] modifiziert.
Hier distanziert man sich also im Zuge einer Modifikation von den Störtermannahmen der "Homoskedastizität" sowie der "Nichtautokorreliertheit".
Um brauchbare Ergebnisse im Zuge einer Regresionsanalyse zu erhalten, muss neben der Annahme E(u)=0 auch die Unkorreliertheit der Residuen gegeben sein. Ferner wird im Allgemeinen eine Varianzgleichheit der besagten Störterme angenommen. Wird beispielsweise letztere verletzt, so liefert die KQ- Schätzung keine stichhaltigen Schätzer für das entsprechende Regressionsmodell.
> dann noch eine frage zum vektor rechnen, nach welchen
> regeln ergibt denn
>
> [mm][(X'X)^{-1}X'u]*[(X'X)^{-1}X'u]'[/mm]
>
> [mm][(X'X)^{-1}X'uuX'(X'X)^{-1}][/mm] (in der lösung uu' ich denke
> das ist ein schreibfehler, sicher bin ich mir natürlich
> nicht)
Hinweis 2: Was weisst du über die Transposition (symmetrischer) Matrizen?
> dankeschön :)
Gruß, Marcel
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 12:02 Di 01.06.2010 | Autor: | domerich |
bei einer symmetrischen matrix ist die transponierte gleich der matrix. ist das hier der fall? warum?
kapier dann immer noch nicht wie man das da errechnet :(
|
|
|
|
|
Hallo!
> bei einer symmetrischen matrix ist die transponierte gleich
> der matrix. ist das hier der fall? warum?
> kapier dann immer noch nicht wie man das da errechnet :(
Eine (reelle) Kovarianzmatrix ist immer symmetrisch, weil natürlich auch die Kovarianz zweier Zufallsvariablen immer symmetrisch ist.
Mittels einer Hauptachsentransformation ist jede symmetrische Matrix zudem diagonalisierbar. Man kann also, aufbauend auf der Eigenschaft der Symmetrie, sogar die Eigenschaft der positiven Semidefinitheit zeigen.
Gruß, Marcel
|
|
|
|