Differenzen v Regressionskoeff < Statistik (Anwend.) < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) reagiert/warte auf Reaktion | Datum: | 18:13 Do 27.03.2008 | Autor: | DominoTC |
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
Hallo zusammen,
im Rahmen einer empirischen Analyse möchte ich Koeffizienten von unterschiedlichen Regressionsmodellen auf einen jeweils identischen Regressanden darauf testen, ob sie sich signifikant unterscheiden. Meine Herangehensweise war die, dass ich die Differenz der beiden Koeffizienten darauf teste, ob sie signifikant von 0 abweicht - das aufgrund der Tatsache, dass ich darüber hinaus auch unterschiedliche Lineartransformationen von Koeffizienten auf signifikante Differenz testen möchte. Vor diesem Hintergrund habe ich wie folgt argumentiert:
Unter den Gauss-Markov-Annahmen und der Annahme normalverteilter Residuen sind die geschätzten Werte der Regressionskoeffizienten normalverteilt. Da die Normalverteilung additiv ist, ist die Differenz ebenfalls normalverteilt. Die Varianz dieser Differenz habe ich unter Berücksichtigung der Kovarianz der Residuen der Modelle ermittelt. Was ich da im Einzelnen verbrochen habe, kann man hier auf zwei Seiten nachlesen - ist ein geTeXtes PDF, für den wahrscheinlich höchst unmathematischen Stil bitte ich jetzt schon um Nachsicht :
Konkret habe ich dazu folgende Fragen:
1. Bei der Differenz handelt es sich ja wieder um eine normalverteilte Zufallsvariable, für die ein empirischer Mittelwert und eine empirische Varianz bekannt sind. Wie berechne ich nun die konkrete Testgröße unter der H0-Hypothese, dass der Erwartungswert der Differenz 0 ist? Einfach die Division [mm] \bruch{\mu}{\sigma}?
[/mm]
2. Welcher Verteilung folgt diese Testgröße unter der H0-Hypothese, dass ihr Erwartungswert 0 ist? Ich vermute, sie ist t-verteilt, allerdings mit welcher Anzahl an Freiheitsgraden? Ergibt sich diese nach der Welch-Satterthwaite-Gleichung?
Über hilfreiche Kommentare und Anmerkungen würde ich mich sehr freuen.
Viele Grüße,
Sebastian
Dateianhänge: Anhang Nr. 1 (Typ: pdf) [nicht öffentlich]
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:37 Do 27.03.2008 | Autor: | BertanARG |
Hi,
wenn ich deine Fragen richtig verstehe, und das PDF betrachte, dann vermute ich als Antworten auf deine Fragen:
Hypothese H0: [mm] \Delta [/mm] ~ [mm] N(0,\sigma_{\Delta}^2), [/mm] bzw. [mm] \alpha=\beta
[/mm]
Als Testgröße kannst du dann [mm] t_{\Delta}\equiv \bruch{\Delta}{s_{\Delta}} [/mm] verwenden, welches [mm] t_{N-1} [/mm] verteilt, bei N Beobachtungen, mit [mm] s_{\Delta} [/mm] als beobachtete Standardabweichung. Du sagst, die hast du ja bereits berechnet, nicht? Den Freiheitsgrad n-k erhälts du stets durch n: Anzahl der Beobachtungen, und k Anzahl der Regressoren außer dem konstanten.
Allerdings bin ich mir nicht sicher, ob du das auch gemeint hast. Ansonsten erklär bitte noch mal, welchen Wert du testen möchtest. Laut dem PDF ist es die Differenz der konstanten Regressoren.
Grüße
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:19 Fr 28.03.2008 | Autor: | DominoTC |
> Hi,
Hallo Bertan,
erst mal vielen Dank für die Antwort. Ich werd versuchen, das Problem im folgenden etwas genauer zu beschreiben.
> wenn ich deine Fragen richtig verstehe, und das PDF
> betrachte, dann vermute ich als Antworten auf deine
> Fragen:
>
> Hypothese H0: [mm]\Delta[/mm] ~ [mm]N(0,\sigma_{\Delta}^2),[/mm] bzw.
> [mm]\alpha=\beta[/mm]
So war auch mein Verdacht - beide Formulierungen sollten ja logisch gesehen dieselbe Aussage treffen, oder?
> Als Testgröße kannst du dann [mm]t_{\Delta}\equiv \bruch{\Delta}{s_{\Delta}}[/mm]
> verwenden, welches [mm]t_{N-1}[/mm] verteilt, bei N Beobachtungen,
> mit [mm]s_{\Delta}[/mm] als beobachtete Standardabweichung.
Sehr gut, da war ich mir noch etwas unsicher. In den üblichen t-Tests für Mittelwerte von Stichproben wird die Testgröße ja berechnet als
[mm] t=\wurzel{N}\bruch{\bar{x}-\mu_0}{s}[/mm]
Die Wurzel aus N ist da jedoch nur drin wegen der Standardabweichung der Verteilung des Mittelwerts, oder?
> Du sagst, die hast du ja bereits berechnet, nicht?
Ja, die Streuung der Differenz kann ich berechnen.
> Den
> Freiheitsgrad n-k erhälts du stets durch n: Anzahl der
> Beobachtungen, und k Anzahl der Regressoren außer dem
> konstanten.
Und die Tatsache, dass sich [mm]\Delta[/mm] aus zwei Zufallsvariablen ergibt, spielt da keine Rolle? Ich war mir unsicher, ob die Freiheitsgerade der t-Verteilung dadurch nicht evtl. eingeschränkt werden.
> Allerdings bin ich mir nicht sicher, ob du das auch gemeint
> hast. Ansonsten erklär bitte noch mal, welchen Wert du
> testen möchtest. Laut dem PDF ist es die Differenz der
> konstanten Regressoren.
Die Differenz der konstanten Regressoren ist eigentlich mehr ein Zwischenschritt, tatsächlich ist der zweite Punkt eher von Belang. Hintergrund ist, dass die Konstante des ersten Regressionsmodells (A) und die im PDF angegebene Größe [mm]\lambda[/mm] unter gewissen Umständen identisch sein sollten - und ob das der Fall ist, würde ich gerne testen.
> Grüße
Grüße zurück,
Sebastian
|
|
|
|
|
Hi,
> >
> > Hypothese H0: [mm]\Delta[/mm] ~ [mm]N(0,\sigma_{\Delta}^2),[/mm] bzw.
> > [mm]\alpha=\beta[/mm]
>
> So war auch mein Verdacht - beide Formulierungen sollten ja
> logisch gesehen dieselbe Aussage treffen, oder?
Ja, in der ersten Aussage ist lediglich wegen der Varianz eine zusätzliche Information. Daher ist sie eine Erweiterung der zweiten Aussage.
>
> > Als Testgröße kannst du dann [mm]t_{\Delta}\equiv \bruch{\Delta}{s_{\Delta}}[/mm]
> > verwenden, welches [mm]t_{N-1}[/mm] verteilt, bei N Beobachtungen,
> > mit [mm]s_{\Delta}[/mm] als beobachtete Standardabweichung.
>
> Sehr gut, da war ich mir noch etwas unsicher. In den
> üblichen t-Tests für Mittelwerte von Stichproben wird die
> Testgröße ja berechnet als
>
> [mm]t=\wurzel{N}\bruch{\bar{x}-\mu_0}{s}[/mm]
>
> Die Wurzel aus N ist da jedoch nur drin wegen der
> Standardabweichung der Verteilung des Mittelwerts, oder?
Das habe ich auch zuerst gedacht, dass das [mm] \wurzel{n} [/mm] aus dem Zähler kommt. Habe aber in meinem Skript nachgesehen und festgestellt, dass das nicht der Fall ist. Das könnte mit der Asymptotik zusammenhängen, kann darauf im Moment aber auch keine Antwort geben.
Allerdings steht die Testgröße so in deinem Skript, und ich vermute aufgrund der Definition von [mm] s_{\Delta}, [/mm] ist das [mm] \wurzel{n} [/mm] nicht mehr nötig. Dort sind ja die Inversen von A'A und B'B an der Stelle (i,j)=(1,1) bereits im Nenner enthalten. Dadurch könnte das [mm] \wurzel{n} [/mm] überflüssig werden. Das ist aber nur eine Mutmaßung, sicher kann ich das nicht beantworten und habe leider keine Zeit das zu prüfen. Laut deinem Skript ist es aber eine zulässige Testgröße, müsste also verwendbar sein.
> > Den
> > Freiheitsgrad n-k erhälts du stets durch n: Anzahl der
> > Beobachtungen, und k Anzahl der Regressoren außer dem
> > konstanten.
>
> Und die Tatsache, dass sich [mm]\Delta[/mm] aus zwei
> Zufallsvariablen ergibt, spielt da keine Rolle? Ich war mir
> unsicher, ob die Freiheitsgerade der t-Verteilung dadurch
> nicht evtl. eingeschränkt werden.
Das ist ein guter Aspekt. Eigentlich müsstest du ja die Differenz der beiden y-Funktionen (also einmal mit [mm] (A,\alpha) [/mm] geschätzt, einmal mit [mm] (B,\beta)) [/mm] bilden und diese Größe testen. Da die Matrizen aber verschiedene Dimensionen haben werden, ist das nicht so einfach. Da kann ich dir leider nicht helfen.
Eine Möglichkeit wäre, beide Modelle darauf zu prüfen, ob die unabhängigen Regressorvariablen (also außer der Konstanten) überhaupt relevant sind. Die Modelle A, B also jeweils mit einem Modell vergleichen, in dem alle x-Regressoren außer dem konstanten gleich Null sind.
Wenn das in einem Fall so ist, könntest du die Differenz leicht bilden. Wenn nicht, wüsste ich grad auch nicht weiter.
Grüße und viel Erfolg
|
|
|
|