Signifikanztest bei einer linearen Regression

Fragen und Diskussionen rund um die Arbeit mit SPSS. Für allgemeine Statistik-Themen, die nicht mit SPSS zusammenhängen, bitte das Statistik-Forum nutzen.
Antworten
Totalreturn
Beiträge: 2
Registriert: 23.01.2017, 14:02

Signifikanztest bei einer linearen Regression

Beitrag von Totalreturn »

Hallo zusammen,

im Rahmen meiner Bachelorarbeit möchte ich für einen Performancevergleich historische Renditezeitreihen (n=120) statistisch auswerten.
Diese Zeitreihen liegen mir sowohl für einen Vergleichsindex und einen Investmentfonds in Form von stetigen Renditen vor. Die Variablen sind somit stetig und verhältnisskaliert.

Beispiel zur Illustration

Zeitangabe..............Rendite-Vergleichsindex (UV, x).....Rendite-Investmentfonds (AV, y)
Dez 29, 2006.......................x.........................................x
Jan 31, 2007.................0,0111630251........................0,0144464792
Feb 28, 2007................ 0,0065483844........................0,0080000427
Mrz 30, 2007.................0,0158033204....................... 0,0261608260

Interpretation: Zum Ende der Januar-2007-Periode hat sich der Vergleichsindex im Vergleich zu seinem Schlussstand im Dezember-2006 mit 1,11630251% positiv entwickelt. Das gleiche gilt für den Investmentfonds, allerdings mit einer leicht besseren Entwicklung in Höhe von 1,144464792%.

So, im Portfoliomanagement gibt es nun ein Performancemaß, das Jensen-Alpha, welches die Selektionsfähigkeit eines Portfoliomanagers messen soll.
Dieses errechnet sich mit der standardmäßigen linearen Regressionsformel y = alpha + beta * x + epsilon. Im Rahmen dieser Regressionsanalyse sollen die Renditen des Investmentfonds auf die Renditen des Vergleichsindex regressiert werden. Die für mich interessante Größe im Ergebnis ist der Regressionskoeffizient alpha. Interpretativ wäre das so zu sehen, man nehme eine Vergleichsindex-Rendite im Zeitpunkt t und addiere dazu das Alpha (Regressionskoeffizient) und die Residue (Epsilon) und man erhält je nach Güte der Regression den Rendite des Investmentfonds.

Meine Vorgehensweise sieht nun wie folgt aus. Ich definiere die Renditen des Investmentfonds als abhängige Variable y und die Renditen des Vergleichsindex als unabhängige Variable x und führe eine gewöhnliche lineare Regression in SPSS durch, die als Signifikanztest den t-test verwendet - soweit so gut.
Wäre da nur nicht das Problem das meine Renditezeitreihen leider nicht normalverteilt sind, und somit folglich nicht für einen t-test geeignet sind.

Gibt es eine Möglichkeit in SPSS bei einer linearen Regression den t-test zur Signifikanzprüfung zu entfernen und anstelle davon z.B. den Mann-Whitney-U-Test zur Signifikanzprüfung von nicht-normalverteilten Werten in die Ausgabe hinzuzufügen?
Oder gehe ich grundsätzlich falsch vor?

Vielen Dank im voraus und beste Grüße
Totalreturn
Beiträge: 2
Registriert: 23.01.2017, 14:02

Re: Signifikanztest bei einer linearen Regression

Beitrag von Totalreturn »

Hallo,

keiner ne Antwort?
Anzeige:Statistik und SPSS: Die besten Bücher
Als Buch oder E-Book - Jetzt bestellen
spss datenanalyse
SPSS - Moderne Datenanalyse - Jetzt bestellen!
statistik datenanalyse
Statistik - Der Weg zur Datenanalyse - Jetzt bestellen!
Antworten