Mehrere Regressionen und korrigiertes R quadrat

Fragen und Diskussionen rund um die Arbeit mit SPSS. Für allgemeine Statistik-Themen, die nicht mit SPSS zusammenhängen, bitte das Statistik-Forum nutzen.
Antworten
timbow
Beiträge: 1
Registriert: 25.06.2014, 16:38

Mehrere Regressionen und korrigiertes R quadrat

Beitrag von timbow »

Hallo Leute,

vielleicht könnt ihr mir bei meinem ersten Problem hier helfen. Ich habe einen Datensatz für eine lineare Regression vorbereitet mit einer Spalte von Werten für die abhängige Variable und vielen verschiedenen Spalten von Werten für die unabhängigen Variablen. Wenn ich die Regression auf einmal mit allen unabhängigen Vars durchführe ist mein Model nicht signifikant. Mein Prof meinte deshalb ich solle für jede unabhängige Variable eine einzelne Regressionsanalyse durchführen. Und siehe da, drei der Variablen sind tatsächlich signifikant. Wie interpretiere ich denn nun die einzelnen korrigierten R quadrate? Die Regression mit Var1 liefert einen beta = -0,82 und R2 = 0,65, die mit Var2 einen beta = 0,62 und R2 = 0,33, die mit Var3 wie die erste einen beta = -0,83 und R2 = 0,65.

Mir ist klar, dass bei mehreren Variablen in einer Regressionsanalyse das korrigierte R2 den Anteil der erklärten Varianz angibt. Wie ist das nun, wenn ich die Analysen einzeln aber mit immer denselben abhängigen Variablen durchführe? Ich kann das ja schlecht einfach zusammen zählen, da dann ja ein Wert größer als 100% heraus kommt.

Ich hoffe ihr versteht mein Problem und könnt mir helfen?

Viele Grüße
Tim
Anzeige:Statistik und SPSS: Die besten Bücher
Als Buch oder E-Book - Jetzt bestellen
spss datenanalyse
SPSS - Moderne Datenanalyse - Jetzt bestellen!
statistik datenanalyse
Statistik - Der Weg zur Datenanalyse - Jetzt bestellen!
Antworten