Hallo zusammen,
momentan bin ich an der Auswertung meiner Bachelorarbeit in SPSS. Freue mich, wenn mir jemand ein kurzes Feedback geben kann, ob ich so richtig vorgehe.
Ich möchte 9 Hypothesen meiner Stichprobe N=500 prüfen. Diese bestehen immer aus je einer unabhängigen Variablen (Skalenniveaus variieren je nach Hypothese) und einer abhängigen metrisch skalierten Variable, die für jede Hypothese dieselbe ist. Meine unabhängigen Variablen setzen sich aus fünf metrisch skalierten und vier nominal skalierte Variablen zusammen.
Ich bin in SPSS wie folgt vorgegangen:
Vorgehen bei den fünf Hypothesen mit je einer metrischen abhängigen und einer metrisch unabhängigen Variable:
Hier habe ich die Rangkorrelation nach Spearman herangezogen, da ich zuvor festgestellt habe, dass meine Variablen nicht normalverteilt sind. Es heißt, dass man bei einer Strichprobe N>30 (meine Stichprobe ist N=500) dennoch die Korrelation nach Pearson rechnen könnte. Da meine Daten aber kaum linear sind und ich auch ein paar Ausreißer in meinen Daten feststelle, habe ich mich für die Korrelation nach Spearman entschieden. Stimmt das? Oder sind meine Überlegungen hier falsch?
Vorgehen bei zwei Hypothesen mit je einer nominal skalierten Variable mit dichotomer Ausprägung und einer metrischen Variable:
Habe mich für eine punktbiserale Korrelation entschieden. Diese habe ich in SPSS mit der Pearson-Korrelation gerechnet. Ist das so richtig?
Vorgehen bei zwei Hypothesen mit je einer nominal skalierten Variable (mehrere Ausprägungen) und einer metrischen Variable:
Hier bin ich auf Eta gestoßen. Ist das richtig? Jedoch fehlt mir hier die Signifikanz in meiner Ausgabetabelle. Wie wird diese überprüft?
Ich habe schon das halbe Internet durchforstet und wäre sehr froh, wenn mir jemand ein Feedback geben könnte, ob meine Überlegungen zu meinen Hypothesen richtig sind. DANKE vorab!
Liebe Grüße
Laura
Korrelationen in SPSS
-
- Beiträge: 2734
- Registriert: 01.02.2018, 10:45
Re: Korrelationen in SPSS
hallo Laura
hab nichts falsches feststellen können...
1)Spearman ist nicht interpretierbar! Pearson schon r2 mach beide.
du musst ja alle Korrelationen auch graphisch darstellen,
das steudiagramm zu1 zeigt ja die Ausreißer und eventuell die Nichtlinearität, daran kann man die interpretaion von Pearson relativieren.
du schreibst nur von zusammenhängen, gibts Regression UV-->AV?
2)punktbiserial auch eher ungewöhnlich,
mach lieber t-Test für zwei unabhängige Stichproben, ist aber identisch eta2=rpbis2
3)Varianzanalyse mit eta2 (Allgemeines lineares Modell univariat)
gruß
dutchie
hab nichts falsches feststellen können...
1)Spearman ist nicht interpretierbar! Pearson schon r2 mach beide.
du musst ja alle Korrelationen auch graphisch darstellen,
das steudiagramm zu1 zeigt ja die Ausreißer und eventuell die Nichtlinearität, daran kann man die interpretaion von Pearson relativieren.
du schreibst nur von zusammenhängen, gibts Regression UV-->AV?
2)punktbiserial auch eher ungewöhnlich,
mach lieber t-Test für zwei unabhängige Stichproben, ist aber identisch eta2=rpbis2
3)Varianzanalyse mit eta2 (Allgemeines lineares Modell univariat)
gruß
dutchie
-
- Beiträge: 4
- Registriert: 11.03.2018, 21:48
Re: Korrelationen in SPSS
Hallo dutchie,
vielen lieben Dank für deine schnelle Antwort!! Hilft mir echt weiter und tut gut mal ein Feedback zu bekommen. Sowas ist goldwert!
Zu 1) Guter Tipp. Werde nun beide anführen. Streudiagramme hatte ich schon. Dann werde ich dazu einfach noch erklären zu was ich tendiere. Regressionen passt zu meiner Zielsetzung der Arbeit nicht ganz, da es bei diesen auch mehr um die Vorhersage einer Variable mithilfe einer anderen geht. Ich möchte nur Zusammenhänge (mit Stärke und Richtung) zwischen einer Variable und einer anderen feststellen. Aber danke für den Hinweis
Zu 2) Bei dem t-Test ist ja die Voraussetzung, dass mein untersuchtes Merkmal in den Grundgesamtheiten der beiden Gruppen normalverteilt ist. Ich habe über explorative Datenanalyse mittels Shapiro Wilk Test und Kolmogorov-Smirnov Anpassungstest eine Signifikanz von ,000 ermittelt und habe aus diesem Grund keine Normalverteilung meiner Variablen feststellen können. Daher kann ich dann nicht den t-Test machen oder? Was steht dann zur Auswahl? Soll ich dann wieder die punktbiserale Korrelation machen?
Zu 3) Die einfaktorielle Varianzanalyse klingt gut, aber auch hier habe ich das Problem, dass meine abhängige Variable nicht in jeder Gruppe normalverteilt ist. Ab > 25 Personen pro Gruppe wäre das anscheinend kein Problem, aber bei mir sind Gruppen auch kleiner als 25. Hmmm...wie soll ich denn nun vorgehen?
Freue mich, wenn du mir nochmal weiterhelfen könntest. Stehe echt auf dem Schlauch :/
Liebe Grüße
Laura
vielen lieben Dank für deine schnelle Antwort!! Hilft mir echt weiter und tut gut mal ein Feedback zu bekommen. Sowas ist goldwert!
Zu 1) Guter Tipp. Werde nun beide anführen. Streudiagramme hatte ich schon. Dann werde ich dazu einfach noch erklären zu was ich tendiere. Regressionen passt zu meiner Zielsetzung der Arbeit nicht ganz, da es bei diesen auch mehr um die Vorhersage einer Variable mithilfe einer anderen geht. Ich möchte nur Zusammenhänge (mit Stärke und Richtung) zwischen einer Variable und einer anderen feststellen. Aber danke für den Hinweis
Zu 2) Bei dem t-Test ist ja die Voraussetzung, dass mein untersuchtes Merkmal in den Grundgesamtheiten der beiden Gruppen normalverteilt ist. Ich habe über explorative Datenanalyse mittels Shapiro Wilk Test und Kolmogorov-Smirnov Anpassungstest eine Signifikanz von ,000 ermittelt und habe aus diesem Grund keine Normalverteilung meiner Variablen feststellen können. Daher kann ich dann nicht den t-Test machen oder? Was steht dann zur Auswahl? Soll ich dann wieder die punktbiserale Korrelation machen?
Zu 3) Die einfaktorielle Varianzanalyse klingt gut, aber auch hier habe ich das Problem, dass meine abhängige Variable nicht in jeder Gruppe normalverteilt ist. Ab > 25 Personen pro Gruppe wäre das anscheinend kein Problem, aber bei mir sind Gruppen auch kleiner als 25. Hmmm...wie soll ich denn nun vorgehen?
Freue mich, wenn du mir nochmal weiterhelfen könntest. Stehe echt auf dem Schlauch :/
Liebe Grüße
Laura
-
- Beiträge: 2734
- Registriert: 01.02.2018, 10:45
Re: Korrelationen in SPSS
Hallo laura
Ich denk n=500, wieso sind dann bei der ANOVA so wenige pro Stufe, oder hast du soviel Stufen.
NV braucht du für punktbiserial genauso wie für t-Test. das ist derselbe Vorgang
und t-Test bei 2 Stufen ist dasselbe wie ANOVA für zwei Stufe
und punktbiserial = eta2 bei zwei stufen.
Die Berechnung von r2 rpbis und eta2 als Korrelationskoeffizient (KoKo) ist immer richtig
unabhängig ob NV oder nicht, die kannst du auf jedenfall zur beschreibung des
Zusammenhangs hernehmen.
Wenn nicht NV dann ist die Berechnung von p (Signifikanzniveau) fehlerhaft.
Jetzt kommts drauf.. ist p=.80 "sehr" nicht sig. denn macht die fehlende NV
die sache kaum schlimmer, solange die Verteilung nur schief und eingipflig ist, ist auch alles ok
schwierig wird die sache wenn die Verteilung, bimodal ist, zwei Gipfel hat.
Du kannst zur Absicherung der SIgnifikanz wie bei Spearman-Pearson
auch noch t-Test - U-Test und ANOVA (brauchst du für eta2) - H-Test rechnen,
aber zur Beschreibung der Größe des Zusammenhangs die erwähnten KoKos nehmen.
Und somit immer die ordinalen Tests auch noch heranziehen zur Signifikanzprüfung.
Außerdem könnte es sein, dass dein SPSS bootstrap Verfahren hat,
die geben auch die Signifikanz an, haben aber keine Voraussetzungen.
dann hast du z.B. r=.56 und p(Pearson)=... p(spearman)=...p(bootstrap)...
sehr wahrscheinlich stimmen die drei p gut überein, und eine eindeutige
interpretation ist möglich. Wenn die drei sich unterscheiden, mal drüber mal drunter 5%,
entscheide ich mich immer konservativ also für H0.
gruß
dutchie
Ich denk n=500, wieso sind dann bei der ANOVA so wenige pro Stufe, oder hast du soviel Stufen.
NV braucht du für punktbiserial genauso wie für t-Test. das ist derselbe Vorgang
und t-Test bei 2 Stufen ist dasselbe wie ANOVA für zwei Stufe
und punktbiserial = eta2 bei zwei stufen.
Die Berechnung von r2 rpbis und eta2 als Korrelationskoeffizient (KoKo) ist immer richtig
unabhängig ob NV oder nicht, die kannst du auf jedenfall zur beschreibung des
Zusammenhangs hernehmen.
Wenn nicht NV dann ist die Berechnung von p (Signifikanzniveau) fehlerhaft.
Jetzt kommts drauf.. ist p=.80 "sehr" nicht sig. denn macht die fehlende NV
die sache kaum schlimmer, solange die Verteilung nur schief und eingipflig ist, ist auch alles ok
schwierig wird die sache wenn die Verteilung, bimodal ist, zwei Gipfel hat.
Du kannst zur Absicherung der SIgnifikanz wie bei Spearman-Pearson
auch noch t-Test - U-Test und ANOVA (brauchst du für eta2) - H-Test rechnen,
aber zur Beschreibung der Größe des Zusammenhangs die erwähnten KoKos nehmen.
Und somit immer die ordinalen Tests auch noch heranziehen zur Signifikanzprüfung.
Außerdem könnte es sein, dass dein SPSS bootstrap Verfahren hat,
die geben auch die Signifikanz an, haben aber keine Voraussetzungen.
dann hast du z.B. r=.56 und p(Pearson)=... p(spearman)=...p(bootstrap)...
sehr wahrscheinlich stimmen die drei p gut überein, und eine eindeutige
interpretation ist möglich. Wenn die drei sich unterscheiden, mal drüber mal drunter 5%,
entscheide ich mich immer konservativ also für H0.
gruß
dutchie
-
- Beiträge: 4
- Registriert: 11.03.2018, 21:48
Re: Korrelationen in SPSS
Hallo dutchi,
vielen vielen Dank für deine Ausführungen - klingt alles sehr schlüssig Was würde ich nur ohne deine Hilfe machen! Toll, dass es Menschen gibt wie dich. Das werde ich mir alles auf jeden Fall kommende Tage nochmal zu Gemüte führen und ausprobieren. Eventuell melde ich mich dann nochmal, aber ich gebe mein Bestes!
Liebe Grüße
Laura
vielen vielen Dank für deine Ausführungen - klingt alles sehr schlüssig Was würde ich nur ohne deine Hilfe machen! Toll, dass es Menschen gibt wie dich. Das werde ich mir alles auf jeden Fall kommende Tage nochmal zu Gemüte führen und ausprobieren. Eventuell melde ich mich dann nochmal, aber ich gebe mein Bestes!
Liebe Grüße
Laura