Frage zur Berechnung der Korrelation
-
- Beiträge: 9
- Registriert: 22.06.2007, 07:58
Frage zur Berechnung der Korrelation
Hallo zusammen,
ich bin am Verzweifeln und hoffe hier auf Hilfe. Ich habe bereits alle möglichen Bücher durchforstet und war mir eigentlich auch sicher, dass ich verstanden hätte, was zu tun ist, aber das war anscheinend ein Irrtum.
Es geht um Folgendes:
Wir sollen drei Subskalen eines Fragebogens (nennen wir in mal F1) einer Validitätsprüfung unterziehen. Dazu habe ich jetzt in SPSS jeweils die Summenwerte der einzelnen Skalen des Fragebogens berechnet.
Zusätzlich habe ich die Summenwerte aus anderen Fragebögen (F2-F?), die ich mit den Subskalen des F1 korrelieren soll.
Ich hatte nun einfach die Summenwerte miteinander korrelieren lassen, also z. B. die Rohwerte der ersten Subskala des F1 habe ich in Beziehung gesetzt zu den Rohwerten des Fragebogens F2.
Dann war ich gestern bei dem Dozent und der hat mir dann irgendwas von Mittelwerten erzählt, was mich etwas verwirrt hat. Deswegen habe ich noch mal nachgefragt und per Mail heute das hier erhalten:
lesen Sie im Bortz oder in den SPSS-Werken mal das Kapitel zu Korrelationen nach, dort wird erklärt, dass Sie die individuelle Abweichung vom Mittelwert berechnen müssen (s. auch z-Werte), da die Streuung auch berücksichtigt werden muss.
Anschließend können Sie die Werte korrelieren.
Entgegen einer Vermutung ist die relative Berechnung (%) wie bei der Covarianz nicht möglich.
Die individuelle Abwechung vom Mittelwert ist doch aber schon in der Formel für den Korrelationskoeffizient enthalten, also das macht SPSS doch schon von selbst oder bin ich blöd? Ich verstehe irgendwie nicht, was er von mir will.
Kann mir bitte irgendjemand weiterhelfen? Das wäre sehr, sehr nett!
Vielen Dank schon mal im Voraus!!
ich bin am Verzweifeln und hoffe hier auf Hilfe. Ich habe bereits alle möglichen Bücher durchforstet und war mir eigentlich auch sicher, dass ich verstanden hätte, was zu tun ist, aber das war anscheinend ein Irrtum.
Es geht um Folgendes:
Wir sollen drei Subskalen eines Fragebogens (nennen wir in mal F1) einer Validitätsprüfung unterziehen. Dazu habe ich jetzt in SPSS jeweils die Summenwerte der einzelnen Skalen des Fragebogens berechnet.
Zusätzlich habe ich die Summenwerte aus anderen Fragebögen (F2-F?), die ich mit den Subskalen des F1 korrelieren soll.
Ich hatte nun einfach die Summenwerte miteinander korrelieren lassen, also z. B. die Rohwerte der ersten Subskala des F1 habe ich in Beziehung gesetzt zu den Rohwerten des Fragebogens F2.
Dann war ich gestern bei dem Dozent und der hat mir dann irgendwas von Mittelwerten erzählt, was mich etwas verwirrt hat. Deswegen habe ich noch mal nachgefragt und per Mail heute das hier erhalten:
lesen Sie im Bortz oder in den SPSS-Werken mal das Kapitel zu Korrelationen nach, dort wird erklärt, dass Sie die individuelle Abweichung vom Mittelwert berechnen müssen (s. auch z-Werte), da die Streuung auch berücksichtigt werden muss.
Anschließend können Sie die Werte korrelieren.
Entgegen einer Vermutung ist die relative Berechnung (%) wie bei der Covarianz nicht möglich.
Die individuelle Abwechung vom Mittelwert ist doch aber schon in der Formel für den Korrelationskoeffizient enthalten, also das macht SPSS doch schon von selbst oder bin ich blöd? Ich verstehe irgendwie nicht, was er von mir will.
Kann mir bitte irgendjemand weiterhelfen? Das wäre sehr, sehr nett!
Vielen Dank schon mal im Voraus!!
-
- Beiträge: 67
- Registriert: 17.01.2007, 18:15
Hallo Fenni,
nicht verzweifeln, du hast völlig recht. Wenn du den Korrelationskoeffizient Pearsons r berechnest, werden die Daten bereits entsprechend von SPSS transformiert. Das gilt natürlich nur für Koeffizienten, die metrisches Skalennivau erfordern, bei z.B. Chi² basierten Koeffizienten ist das anders. Trotzdem will dein Dozent, dass du die Werte erst z-standardisierst. Mache das einfach mal und vergleiche die Höhe dieser Korrelation mit dem Wert der Korrelation der Rohdaten, du müsstest dann dasselbe Ergebnis erhalten. Vielleicht meinte er ja auch etwas anderes, frage ihn dann noch mal.
Allgemeines zur Z-Transformierung und wie man das mit SPSS machen kann habe ich vor kurzem in diesem Threat beschrieben:
http://www.statistik-tutorial.de/forum/ ... .php?t=830
Gruß, Volker
nicht verzweifeln, du hast völlig recht. Wenn du den Korrelationskoeffizient Pearsons r berechnest, werden die Daten bereits entsprechend von SPSS transformiert. Das gilt natürlich nur für Koeffizienten, die metrisches Skalennivau erfordern, bei z.B. Chi² basierten Koeffizienten ist das anders. Trotzdem will dein Dozent, dass du die Werte erst z-standardisierst. Mache das einfach mal und vergleiche die Höhe dieser Korrelation mit dem Wert der Korrelation der Rohdaten, du müsstest dann dasselbe Ergebnis erhalten. Vielleicht meinte er ja auch etwas anderes, frage ihn dann noch mal.
Allgemeines zur Z-Transformierung und wie man das mit SPSS machen kann habe ich vor kurzem in diesem Threat beschrieben:
http://www.statistik-tutorial.de/forum/ ... .php?t=830
Gruß, Volker
-
- Beiträge: 9
- Registriert: 22.06.2007, 07:58
Hallo Volker,
super, erst mal vielen, vielen Dank für deine Antwort! Es geht um Pearsons r.
Kannst du den Link zu dem anderen Thema vielleicht noch mal posten, irgendwie bekomme ich ihn nicht zum Funktionieren?
Ich habe noch zwei Fragen:
1. Ist es ein Problem, wenn die zwei Bögen (oder Skalen), die ich vergleichen will, nicht das gleiche Antwortformat haben? Also wenn man den Bogen F1 mit Werten von 1 (stimme gar nicht zu) bis 6 (stimme sehr zu) ausfüllen kann und den Bogen F2 z. B. mit den Werten 1 bis 4?
Ich hatte jetzt für beide erst mal die Mittelwerte berechnet (also die Rohwerte dann noch mal durch die Anzahl der Fragen getrennt), aber das hat an r natürlich nichts geändert... Also dürfte es doch egal sein, oder muss ich dafür dann doch erst irgendeine Normierung durchführen?
2. Wenn mein "Vergleichsfragebogen" F2 jetzt aus mehreren kleineren Subskalen besteht, dich ich zu einem zusammenfassen will, kann ich die Summenwerte dann addieren? Das war das, was ich zuerst gemacht hatte, also z. B. hatte ich drei "Miniskalen" mit je 3 Items, von denen ich dann die Rohwerte einfach addiert hatte (also S1+S2+S3 = F3). Dann hatte der Dozent aber was gesagt vom Bilden des Mittelwerts ((S1+S2+S3)/3 = F3). Wenn ich das tue, dann müsste ich ja den Mittelwert auch mit dem Mittelwert von F1 korrelieren, oder?
Wäre super, wenn du mir da noch mal weiterhelfen könntest!
Danke nochmal.
super, erst mal vielen, vielen Dank für deine Antwort! Es geht um Pearsons r.
Kannst du den Link zu dem anderen Thema vielleicht noch mal posten, irgendwie bekomme ich ihn nicht zum Funktionieren?
Ich habe noch zwei Fragen:
1. Ist es ein Problem, wenn die zwei Bögen (oder Skalen), die ich vergleichen will, nicht das gleiche Antwortformat haben? Also wenn man den Bogen F1 mit Werten von 1 (stimme gar nicht zu) bis 6 (stimme sehr zu) ausfüllen kann und den Bogen F2 z. B. mit den Werten 1 bis 4?
Ich hatte jetzt für beide erst mal die Mittelwerte berechnet (also die Rohwerte dann noch mal durch die Anzahl der Fragen getrennt), aber das hat an r natürlich nichts geändert... Also dürfte es doch egal sein, oder muss ich dafür dann doch erst irgendeine Normierung durchführen?
2. Wenn mein "Vergleichsfragebogen" F2 jetzt aus mehreren kleineren Subskalen besteht, dich ich zu einem zusammenfassen will, kann ich die Summenwerte dann addieren? Das war das, was ich zuerst gemacht hatte, also z. B. hatte ich drei "Miniskalen" mit je 3 Items, von denen ich dann die Rohwerte einfach addiert hatte (also S1+S2+S3 = F3). Dann hatte der Dozent aber was gesagt vom Bilden des Mittelwerts ((S1+S2+S3)/3 = F3). Wenn ich das tue, dann müsste ich ja den Mittelwert auch mit dem Mittelwert von F1 korrelieren, oder?
Wäre super, wenn du mir da noch mal weiterhelfen könntest!
Danke nochmal.
-
- Beiträge: 67
- Registriert: 17.01.2007, 18:15
Hallo Fenni,
ich habe den Link soeben ausprobiert, bei mir klappt es auch nicht. Wenn du ihn aber in den Zwischenspeicher kopiertst und dann in ein Browserfenster einfügst funktioniert er.
Kurz etwas zur Terminologie. Du hast Daten, die aus zwei unterschiedlichen Erhebungen stammen. Diese Daten hast du in eine SPSS-Datei zusammegefügt, die Daten liegen dir jetzt als zwei Variablen vor, die du korrelieren möchtest. Ist das so weit richtig? Bögen kann man nämlich nicht korrelieren .
Schön wäre es, wenn beide Skalen dieselbe Breite hätten, für die Berechnung von Pearsons r ist das aber keine Voraussetzung, hauptsache, man kann sie als metrisch definiert betrachten. Denn wie du schon selbst gesagt hast, werden die Daten bei der Berechnung des Koeffizienten bereits z-transformiert und dadurch vergleichbar gemacht. Deshalb ändert sich an den berechneten Koeffizienten auch nichts.
Zu einer zweiten Frage. So wie du das schilderst hast du mehrere Variablen, aus denen du einen ungewichteten additiven Index erstellen möchtest. Hier musst du aber aufpassen, denn Variablen mit ungleicher Skalenbreite darfst du nicht einfach addieren. Schaue dir den oben genannten Topic an, da habe ich auch die Vorgehensweise bei der Konstruktion solcher Indices beschrieben.
Dass dein Dozent sagte, das du den Index noch durch die Anzahl der Items dividieren sollst hat einen einfachen Grund. Angenommen, deine drei Variablen haben alle eine Skalenbreite von 1 bis 5. Bei einer einfachen Addition können die Befragten dann auf diesem Index Werte von 3 bis 15 erreichen. Der Index hat also eine andere Skalenbreite als die Ausgangsvariablen. Dadurch, dass du den Index anschließend noch durch die Anzahl der Variablen dividierst, hat auch der Index eine Skalenbreite wie die einzelnen Variablen. Dies erleichtert die Interpretation des Index. Für die Berechnung von Pearsons r ist es aber egal, ob du den Index noch nachträglich durch die Anzahl der Variablen dividierts oder nicht. Dieses Dividieren stellt nur eine lineare Transformation dar, d.h. an den Relationen der Skalenwerte untereinander ändert sich nichts.
Du kannst jetzt deinen Index wie eine ganz normale Variable behandeln. Du kannst also den Index mit der Variable F2 usw. korrelieren. So lange es dir nur auf den Korrelationskoeffizienten ankommt ist es auch egal, ob du deinen Index noch anschließend dividierst oder nicht, das Ergebnis ist identisch.
Dann weiterhin viel Erfolg
Gruß, Volker
ich habe den Link soeben ausprobiert, bei mir klappt es auch nicht. Wenn du ihn aber in den Zwischenspeicher kopiertst und dann in ein Browserfenster einfügst funktioniert er.
Kurz etwas zur Terminologie. Du hast Daten, die aus zwei unterschiedlichen Erhebungen stammen. Diese Daten hast du in eine SPSS-Datei zusammegefügt, die Daten liegen dir jetzt als zwei Variablen vor, die du korrelieren möchtest. Ist das so weit richtig? Bögen kann man nämlich nicht korrelieren .
Schön wäre es, wenn beide Skalen dieselbe Breite hätten, für die Berechnung von Pearsons r ist das aber keine Voraussetzung, hauptsache, man kann sie als metrisch definiert betrachten. Denn wie du schon selbst gesagt hast, werden die Daten bei der Berechnung des Koeffizienten bereits z-transformiert und dadurch vergleichbar gemacht. Deshalb ändert sich an den berechneten Koeffizienten auch nichts.
Zu einer zweiten Frage. So wie du das schilderst hast du mehrere Variablen, aus denen du einen ungewichteten additiven Index erstellen möchtest. Hier musst du aber aufpassen, denn Variablen mit ungleicher Skalenbreite darfst du nicht einfach addieren. Schaue dir den oben genannten Topic an, da habe ich auch die Vorgehensweise bei der Konstruktion solcher Indices beschrieben.
Dass dein Dozent sagte, das du den Index noch durch die Anzahl der Items dividieren sollst hat einen einfachen Grund. Angenommen, deine drei Variablen haben alle eine Skalenbreite von 1 bis 5. Bei einer einfachen Addition können die Befragten dann auf diesem Index Werte von 3 bis 15 erreichen. Der Index hat also eine andere Skalenbreite als die Ausgangsvariablen. Dadurch, dass du den Index anschließend noch durch die Anzahl der Variablen dividierst, hat auch der Index eine Skalenbreite wie die einzelnen Variablen. Dies erleichtert die Interpretation des Index. Für die Berechnung von Pearsons r ist es aber egal, ob du den Index noch nachträglich durch die Anzahl der Variablen dividierts oder nicht. Dieses Dividieren stellt nur eine lineare Transformation dar, d.h. an den Relationen der Skalenwerte untereinander ändert sich nichts.
Du kannst jetzt deinen Index wie eine ganz normale Variable behandeln. Du kannst also den Index mit der Variable F2 usw. korrelieren. So lange es dir nur auf den Korrelationskoeffizienten ankommt ist es auch egal, ob du deinen Index noch anschließend dividierst oder nicht, das Ergebnis ist identisch.
Dann weiterhin viel Erfolg
Gruß, Volker
-
- Beiträge: 9
- Registriert: 22.06.2007, 07:58
Hallo Volker,
erst mal wieder vielen, vielen Dank für die Antwort. Dieses Forum ist wirklich gut !
Die Versuchspersonen haben eine "Fragebogenbatterie" ausgefüllt. Darunter war der erste Fragebogen, F1, der mit Hilfe der anderen Bögen, die teilweise das gleiche messen wie F1 validiert werden soll.
F1 besteht aus mehreren Subskalen, z. B. eine namens "Selbstvertrauen". Ich habe also in SPSS jetzt eine Variable "Selbstvertrauen_F1". F1 ist sechsstufig, ich habe also z. B. für meine Versuchsperson 1 dort jetzt eine "27" stehen (Rohwert durch Addition der Antworten der einzelnen Items).
Jetzt möchte ich "Selbstvertrauen_F1" korrelieren mit den Rohwerten des Fragebogens 2 ("F2"), der auch Selbstvertrauen misst. Da hätte ich z. B. jetzt für die Versuchsperson 1 eine "57" stehen (F2 ist vierstufig).
Als letztes möchte ich "Selbstvertrauen_F1" noch korrelieren mit Daten aus dem Fragebogen F3. Dort wurden in drei einzelnen Variablen ("allgemeines Selbstvertrauen", "volitionales Selbstvertrauen 1" und "volitionales Selbstvertrauen 2") jeweils Werte errechnet (für die Vp 1 z. B. "7", "5" und "5", F3 ist fünfstufig). Da diese drei Variablen aber jeweils nur aus drei Items bestanden, sollen sie jetzt zu einer Variable zusammengefasst werden. Ich hatte dazu einfach die drei Werte addiert ("17"), da das für mich das gleiche ist, als wenn wir von vornherein eine Skala mit 9 Items gehabt hätten (sie stammen ja alle aus dem gleichen Bogen und habe alle das gleiche Antwortformat, also auch die gleiche Skalenbreite). Und an dieser Stelle meinte der Dozent aber, ich solle den Mittelwert berechnen (der wäre ja dann 5,7). Und jetzt ist meine Frage, wieso ich den Mittelwert verwenden muss und falls ich das tue, ob ich den dann trotzdem mit der "27" der Vp 1 korrelieren lassen kann oder ob ich hier dann erst durch die Anzahl der Items teilen mus. Aber wenn ich deine Ausführungen richtig verstanden habe, dann dürfte das ja fast egal sein.
Vielleicht kannst du mir noch mal endgültige Klärung geben, was ich nun mit was korrelieren kann, falls ich durch meine Erklärung da oben jetzt nicht noch mehr Verwirrung gestiftet habe.
Vielen Dank auf jeden Fall schon mal für die ganze Hilfe!
erst mal wieder vielen, vielen Dank für die Antwort. Dieses Forum ist wirklich gut !
Ja, sorry, das hatte ich gestern eigentlich auch schon ausprobiert, aber aus irgendwelchen Gründen ging da auch das bei mir nicht. Jetzt funktioniert es aber, danke!Volker hat geschrieben: ich habe den Link soeben ausprobiert, bei mir klappt es auch nicht. Wenn du ihn aber in den Zwischenspeicher kopiertst und dann in ein Browserfenster einfügst funktioniert er.
OK, das ist wohl wahr . Ich erkläre noch mal ganz kurz, welche Daten ich genau habe:Volker hat geschrieben:Kurz etwas zur Terminologie. Du hast Daten, die aus zwei unterschiedlichen Erhebungen stammen. Diese Daten hast du in eine SPSS-Datei zusammegefügt, die Daten liegen dir jetzt als zwei Variablen vor, die du korrelieren möchtest. Ist das so weit richtig? Bögen kann man nämlich nicht korrelieren .
Die Versuchspersonen haben eine "Fragebogenbatterie" ausgefüllt. Darunter war der erste Fragebogen, F1, der mit Hilfe der anderen Bögen, die teilweise das gleiche messen wie F1 validiert werden soll.
F1 besteht aus mehreren Subskalen, z. B. eine namens "Selbstvertrauen". Ich habe also in SPSS jetzt eine Variable "Selbstvertrauen_F1". F1 ist sechsstufig, ich habe also z. B. für meine Versuchsperson 1 dort jetzt eine "27" stehen (Rohwert durch Addition der Antworten der einzelnen Items).
Jetzt möchte ich "Selbstvertrauen_F1" korrelieren mit den Rohwerten des Fragebogens 2 ("F2"), der auch Selbstvertrauen misst. Da hätte ich z. B. jetzt für die Versuchsperson 1 eine "57" stehen (F2 ist vierstufig).
Als letztes möchte ich "Selbstvertrauen_F1" noch korrelieren mit Daten aus dem Fragebogen F3. Dort wurden in drei einzelnen Variablen ("allgemeines Selbstvertrauen", "volitionales Selbstvertrauen 1" und "volitionales Selbstvertrauen 2") jeweils Werte errechnet (für die Vp 1 z. B. "7", "5" und "5", F3 ist fünfstufig). Da diese drei Variablen aber jeweils nur aus drei Items bestanden, sollen sie jetzt zu einer Variable zusammengefasst werden. Ich hatte dazu einfach die drei Werte addiert ("17"), da das für mich das gleiche ist, als wenn wir von vornherein eine Skala mit 9 Items gehabt hätten (sie stammen ja alle aus dem gleichen Bogen und habe alle das gleiche Antwortformat, also auch die gleiche Skalenbreite). Und an dieser Stelle meinte der Dozent aber, ich solle den Mittelwert berechnen (der wäre ja dann 5,7). Und jetzt ist meine Frage, wieso ich den Mittelwert verwenden muss und falls ich das tue, ob ich den dann trotzdem mit der "27" der Vp 1 korrelieren lassen kann oder ob ich hier dann erst durch die Anzahl der Items teilen mus. Aber wenn ich deine Ausführungen richtig verstanden habe, dann dürfte das ja fast egal sein.
OK, aber wenn ich nur Variablen der gleichen Skalenbreite addieren möchte, müsste das doch gehen, oder nicht (siehe Abschnitt davor)?Volker hat geschrieben: Zu einer zweiten Frage. So wie du das schilderst hast du mehrere Variablen, aus denen du einen ungewichteten additiven Index erstellen möchtest. Hier musst du aber aufpassen, denn Variablen mit ungleicher Skalenbreite darfst du nicht einfach addieren. Schaue dir den oben genannten Topic an, da habe ich auch die Vorgehensweise bei der Konstruktion solcher Indices beschrieben.
Vielleicht kannst du mir noch mal endgültige Klärung geben, was ich nun mit was korrelieren kann, falls ich durch meine Erklärung da oben jetzt nicht noch mehr Verwirrung gestiftet habe.
Vielen Dank auf jeden Fall schon mal für die ganze Hilfe!
-
- Beiträge: 67
- Registriert: 17.01.2007, 18:15
Hallo Fenni,
du hast jetzt die Variablen „Selbstvertrauen_F1“ und „Selbstvertrauen_F2“ in einer SPSS-Datei. „Selbstvertrauen_F1“ ist ein Summenindex, den du durch Addition mehrerer einzelner Variablen erstellt hast, ebenso „Selbstvertrauen_F2“. Ich denke, du kannst diese additiven Indices einfach korrelieren.
Da die beiden Indices als Grundlage Variablen mit unterschiedlicher Breite haben (F1 sechstufig und F2 vierstufig) kann man sich in der Tat überlegen, ob man nicht vorher die Variablen z-transformiert und dann erst die Indices bildet, bzw. die beiden Indices nachträglich z-transformiert. Für die Berechnung von Pearsons r dürfte dies aber keine Rolle spielen. Willst du die beiden Indices aber deskriptiv analysieren, dann müssen sie sogar z-transformiert werden.
Jetzt möchtest du noch einen Index aus einem dritten Fragebogen mit „Selbstvertrauen_F1“ korrelieren. Der Index wird aus der Addition von drei bestehenden Indices gebildet, die wiederum jeweils auf drei Variablen beruhen. Der Index „F3“ beruht also insgesamt auf der Addition der Werte aus 9 Variablen, diese Variablen haben eine Skalenbreite von fünf. Hier gilt dasselbe wie bei der Korrelation von „Selbstvertrauen_F1“ mit „Selbstvertrauen_F2“. Du kannst sie einfach korrelieren. Eine Transformation in Mittelwerte spielt auch keine Rolle bei der Berechnung von Pearsons r, schadet aber auch nicht. Daher kannst du das ruhig machen, wenn dein Dozent das gerne hat.
Noch kurz zu den drei Bedingungen, die bei der Konstruktion von Indices erfüllt sein müssen.
1) Gleiche Skalenbreite: Deine Variablen haben zwar unterschiedliche Skalenbreiten, aber für die Bildung der einzelnen Indices nimmst du ja immer nur Variablen mit derselben Skalenbreite. Daher hast du hier kein Problem.
2) Gleiche Polung: Ich nehme an, dass du auch überprüft hast, ob die einzelnen Skalen gleich gepolt sind. Also ein hoher Wert steht immer für ein hohes Selbstbewusstsein, ein niedriger Wert für ein niedriges Selbstbewusstsein, usw. Wenn das der Fall ist, hast du hier auch kein Problem.
3) Eindimensionalität: Als letztes musst du noch überprüfen, ob die einzelnen Variablen dieselbe Dimension haben. Oft wird das einfach anhand der Fragestellung ermittelt, also qualitativ. Da du aber eine quantitative Analyse vornimmst, solltest du das auch quantitativ überprüfen. Dazu berechnest du Cronbachs alpa. Der Wert für Cronbachs alpha sollte um 0.8 liegen oder höher. Aber wahrscheinlich hat dir das dein Dozent bereits gesagt.
Wenn diese drei Bedingungen erfüllt sind, kannst du deine Indices so bilden und korrelieren, wie du es beschrieben hast.
Mit der Dimensionalität könntest du allerdings Probleme bekommen. Dein Index „F3“ beruht ja auf drei bereits existierenden Indices („allgemeines Selbstvertrauen", "volitionales Selbstvertrauen 1" und "volitionales Selbstvertrauen 2"). Diese Indices stehen für drei Subdimensionen, du hast also schon mal keine Eindimensionalität. Eventuell kannst du die nicht einfach additiv zu einem neuen Index verrechnen. In so einem Fall müsstest du einen gewichteten additiven Index erstellen. Aber ich will dir jetzt keine unnötigen Sorgen machen. Falls dein Dozent dazu nichts gesagt hat, wollen wir auch keine „Pferde scheu machen“.
Dann viel SP(a)SS
Gruß, Volker
PS. Übrigens, wenn ich mit ungewichteten additiven Indices arbeite, berechne ich auch immer den Mittelwert. Solche Indices sind einfacher zu interpretieren.
du hast jetzt die Variablen „Selbstvertrauen_F1“ und „Selbstvertrauen_F2“ in einer SPSS-Datei. „Selbstvertrauen_F1“ ist ein Summenindex, den du durch Addition mehrerer einzelner Variablen erstellt hast, ebenso „Selbstvertrauen_F2“. Ich denke, du kannst diese additiven Indices einfach korrelieren.
Da die beiden Indices als Grundlage Variablen mit unterschiedlicher Breite haben (F1 sechstufig und F2 vierstufig) kann man sich in der Tat überlegen, ob man nicht vorher die Variablen z-transformiert und dann erst die Indices bildet, bzw. die beiden Indices nachträglich z-transformiert. Für die Berechnung von Pearsons r dürfte dies aber keine Rolle spielen. Willst du die beiden Indices aber deskriptiv analysieren, dann müssen sie sogar z-transformiert werden.
Jetzt möchtest du noch einen Index aus einem dritten Fragebogen mit „Selbstvertrauen_F1“ korrelieren. Der Index wird aus der Addition von drei bestehenden Indices gebildet, die wiederum jeweils auf drei Variablen beruhen. Der Index „F3“ beruht also insgesamt auf der Addition der Werte aus 9 Variablen, diese Variablen haben eine Skalenbreite von fünf. Hier gilt dasselbe wie bei der Korrelation von „Selbstvertrauen_F1“ mit „Selbstvertrauen_F2“. Du kannst sie einfach korrelieren. Eine Transformation in Mittelwerte spielt auch keine Rolle bei der Berechnung von Pearsons r, schadet aber auch nicht. Daher kannst du das ruhig machen, wenn dein Dozent das gerne hat.
Noch kurz zu den drei Bedingungen, die bei der Konstruktion von Indices erfüllt sein müssen.
1) Gleiche Skalenbreite: Deine Variablen haben zwar unterschiedliche Skalenbreiten, aber für die Bildung der einzelnen Indices nimmst du ja immer nur Variablen mit derselben Skalenbreite. Daher hast du hier kein Problem.
2) Gleiche Polung: Ich nehme an, dass du auch überprüft hast, ob die einzelnen Skalen gleich gepolt sind. Also ein hoher Wert steht immer für ein hohes Selbstbewusstsein, ein niedriger Wert für ein niedriges Selbstbewusstsein, usw. Wenn das der Fall ist, hast du hier auch kein Problem.
3) Eindimensionalität: Als letztes musst du noch überprüfen, ob die einzelnen Variablen dieselbe Dimension haben. Oft wird das einfach anhand der Fragestellung ermittelt, also qualitativ. Da du aber eine quantitative Analyse vornimmst, solltest du das auch quantitativ überprüfen. Dazu berechnest du Cronbachs alpa. Der Wert für Cronbachs alpha sollte um 0.8 liegen oder höher. Aber wahrscheinlich hat dir das dein Dozent bereits gesagt.
Wenn diese drei Bedingungen erfüllt sind, kannst du deine Indices so bilden und korrelieren, wie du es beschrieben hast.
Mit der Dimensionalität könntest du allerdings Probleme bekommen. Dein Index „F3“ beruht ja auf drei bereits existierenden Indices („allgemeines Selbstvertrauen", "volitionales Selbstvertrauen 1" und "volitionales Selbstvertrauen 2"). Diese Indices stehen für drei Subdimensionen, du hast also schon mal keine Eindimensionalität. Eventuell kannst du die nicht einfach additiv zu einem neuen Index verrechnen. In so einem Fall müsstest du einen gewichteten additiven Index erstellen. Aber ich will dir jetzt keine unnötigen Sorgen machen. Falls dein Dozent dazu nichts gesagt hat, wollen wir auch keine „Pferde scheu machen“.
Dann viel SP(a)SS
Gruß, Volker
PS. Übrigens, wenn ich mit ungewichteten additiven Indices arbeite, berechne ich auch immer den Mittelwert. Solche Indices sind einfacher zu interpretieren.
-
- Beiträge: 9
- Registriert: 22.06.2007, 07:58
-
- Beiträge: 9
- Registriert: 22.06.2007, 07:58
Hallo Volker,
es tut mir furchtbar Leid, aber ich muss dich noch mal "nerven". Ich hoffe, du kannst mir noch mal ein bisschen deiner Zeit schenken.
Ich habe nun mal meine Variablen zunächst alle z-transformiert und danach die verschiedenen Korrelationen gebildet. Und siehe da: es kamen überall die gleichen Werte heraus .
Dieser Teil ist also schon mal klar und abgehakt .
Wenn ich nun aber meine Indices auch noch deskriptiv analysieren will, was du ja hier
Was an deskriptiver Statistik wäre denn hier sinnvoll anzugeben bzw. wie hast du deine obige Aussage zu diesem Thema gemeint?
Vielen, vielen Dank schon mal, wenn du mir noch mal helfen könntest!
es tut mir furchtbar Leid, aber ich muss dich noch mal "nerven". Ich hoffe, du kannst mir noch mal ein bisschen deiner Zeit schenken.
Ich habe nun mal meine Variablen zunächst alle z-transformiert und danach die verschiedenen Korrelationen gebildet. Und siehe da: es kamen überall die gleichen Werte heraus .
Dieser Teil ist also schon mal klar und abgehakt .
Wenn ich nun aber meine Indices auch noch deskriptiv analysieren will, was du ja hier
auch angedeutet hattest, was muss ich dann tun? Wenn ich die "normalen" Mittelwerte der verschiedenen Variablen angebe (z. B. einen Mittelwert von "Selbstvertrauen_F1" von 26.42) dann sagt der mir ja irgendwie noch überhaupt nichts aus. Zumal ich ja eigentlich erst mal noch durch die Anzahl der Items teilen müsste, um einen Mittelwert zu haben, der auf der sechsstufigen Skala liegt (hier 3.77). Aber dadurch, dass die Variablen unterschiedliche Skalenbreiten haben, kann ich ja die Mittelwerte der einzelnen Variablen untereinander nicht vergleichen. Inwiefern hilft mir hier denn nun die z-Standardisierung weiter? Von den z-standardisierten Variablen kann ich ja keine Mittelwerte berechnen bzw. der Mittelwert ist dann ja immer Null...Volker hat geschrieben: Willst du die beiden Indices aber deskriptiv analysieren, dann müssen sie sogar z-transformiert werden.
Was an deskriptiver Statistik wäre denn hier sinnvoll anzugeben bzw. wie hast du deine obige Aussage zu diesem Thema gemeint?
Vielen, vielen Dank schon mal, wenn du mir noch mal helfen könntest!
-
- Beiträge: 67
- Registriert: 17.01.2007, 18:15
Hallo Fenni,
schön, dass es jetzt mit der Indexbildung und den Korrelationen klappt.
Zu deiner Frage mit den deskriptiven Auswertungen. Gut dass du hier noch mal nachfragst hast, ich muss etwas genauer ausführen, was ich meinte. Als erstes sollte ich aber noch darauf hinweisen, dass ich in der Literatur deskriptive Analysen mittels Z-Werten nur selten gefunden habe, das hat mit der Interpretation dieser Werte zu tun. Dazu aber unten.
Das „muss“ ist natürlich davon abhängig, wie du deine Vergleiche durchführen möchtest. Willst du bei Variablen mit unterschiedlicher Skalenbreite direkt vergleichen, wie bestimmte Personen oder Gruppen geantwortet haben, kommst du um eine Z-Standardisierung nicht herum. Denn ein Wert 3 bedeutet auf einer 6er-Skala etwas anderes als auf einer 4er-Skala (ich glaube, ich wiederhole mich). Daher kannst du die absolute Höhe der Werte auf solchen Skalen nicht direkt in Beziehung setzen. Willst du aber genau dieses, kannst du das nur mit den nicht standardisierten Skalen. Dann solltest du aber in deiner Interpretation darauf hinweisen, dass unterschiedliche Skalenbreiten vorliegen.
Der Vorteil von Z-Werten ist der, dass hier die relative Lage der Werte zum arithmetischen Mittel angegeben wird. Ein negativer Wert bedeutet, dass eine Angabe unterhalb des Mittelwertes vorliegt, ein positiver Wert liegt entsprechend oberhalb des Mittelwertes. Du kannst auch die Werte direkt in Beziehung setzen. Praktisch dabei ist, dass du die Indices nicht durch die Anzahl der Variablen dividieren musst. Die Z-Werte sind gleich, ob du sie für addierte Rohwerte oder für deren Mittelwerte berechnest.
Bei der Interpretation von Z-Werten muss man wissen, dass diese immer einen Mittelwert von 0 und eine Standardabweichung von 1 haben. Daher wundere dich nicht, wenn du bei der Berechnung des Mittelwertes deiner z-standardisierten Variable eben diese Werte bekommen hast. Die ausgewiesenen Werte sind Standardabweichungen, je näher die Werte an 0 liegen, desto geringer ist die Streuung in der Verteilung, je stärker sie von 0 abweichen, desto größer ist die Streuung. (Werte im Betrag von |1,96| und größer weichen sogar signifikant vom Mittelwert ab. Solche Hinweise wären bedeutsam für die Inferenzstatistik, das ist aber ein anderes Thema).
Du kannst aber Subgruppenanalysen mit Z-Werten durchführen. Du kannst z.B. berechnen, ob es geschlechtsspezifische Unterschiede in deinen Indices „Selbstvertrauen_F1“ und „Selbstvertrauen_F2“ gibt. Dazu berechnest du die Mittelwerte für Männer und Frauen auf den Z-Werten für deine Indices. Eventuell bekommst du unterschiedliche Z-Werte, wie z.B.
„Selbstvertrauen_F1“: Männer: -1 und Frauen +1.
„Selbstvertrauen_F2“ Männer +0,5 und Frauen -0,5.
Die Interpretation bei diesem fiktiven Beispiel würde lauten, dass sich Männer und Frauen auf den beiden Skalen unterschiedlich beurteilen, da sich das Vorzeichen dreht. Die Differenz zwischen Männern und Frauen hat auch unterschiedliche Größen. Bei „Selbstvertrauen_F1“ beträgt der Abstand in dem fiktiven Beispiel 2 Standardabweichungen, bei „Selbstvertrauen_F2“ nur noch eine Standardabweichung. Es kann ein Skaleneffekt vorliegen (6er- und 4er-Skala), vielleicht beruht dieser Effekt auch auf unterschiedliche Formulierengen der Items. Eventuell liegt aber zwischen den beiden Beurteilungen auch ein längerer Zeitraum, so dass tatsächlich eine Veränderung des Selbstvertrauens vorliegt.
Mit Z-Werten kannst du natürlich auch die üblichen Berechnung für deskriptive Analysen durchführen, z.B. Häufigkeitsauszählungen, Range, Modus und Median berechnen, Histogramme erstellen usw. Du kannst dann auch direkte Vergleiche zwischen „Selbstvertrauen_F1“ und „Selbstvertrauen_F2“ anstellen. Die Berechnung von Mittelwerten und Standardabweichungen ist aber nur für Subgruppen sinnvoll (Geschlecht, Alterskohorten, Bildungsstand, usw), da du sonst immer die Werte 0 und 1 erhalten wirst.
Ich hoffe, ich konnte dir weiterhelfen
Gruß, Volker
schön, dass es jetzt mit der Indexbildung und den Korrelationen klappt.
Zu deiner Frage mit den deskriptiven Auswertungen. Gut dass du hier noch mal nachfragst hast, ich muss etwas genauer ausführen, was ich meinte. Als erstes sollte ich aber noch darauf hinweisen, dass ich in der Literatur deskriptive Analysen mittels Z-Werten nur selten gefunden habe, das hat mit der Interpretation dieser Werte zu tun. Dazu aber unten.
Das „muss“ ist natürlich davon abhängig, wie du deine Vergleiche durchführen möchtest. Willst du bei Variablen mit unterschiedlicher Skalenbreite direkt vergleichen, wie bestimmte Personen oder Gruppen geantwortet haben, kommst du um eine Z-Standardisierung nicht herum. Denn ein Wert 3 bedeutet auf einer 6er-Skala etwas anderes als auf einer 4er-Skala (ich glaube, ich wiederhole mich). Daher kannst du die absolute Höhe der Werte auf solchen Skalen nicht direkt in Beziehung setzen. Willst du aber genau dieses, kannst du das nur mit den nicht standardisierten Skalen. Dann solltest du aber in deiner Interpretation darauf hinweisen, dass unterschiedliche Skalenbreiten vorliegen.
Der Vorteil von Z-Werten ist der, dass hier die relative Lage der Werte zum arithmetischen Mittel angegeben wird. Ein negativer Wert bedeutet, dass eine Angabe unterhalb des Mittelwertes vorliegt, ein positiver Wert liegt entsprechend oberhalb des Mittelwertes. Du kannst auch die Werte direkt in Beziehung setzen. Praktisch dabei ist, dass du die Indices nicht durch die Anzahl der Variablen dividieren musst. Die Z-Werte sind gleich, ob du sie für addierte Rohwerte oder für deren Mittelwerte berechnest.
Bei der Interpretation von Z-Werten muss man wissen, dass diese immer einen Mittelwert von 0 und eine Standardabweichung von 1 haben. Daher wundere dich nicht, wenn du bei der Berechnung des Mittelwertes deiner z-standardisierten Variable eben diese Werte bekommen hast. Die ausgewiesenen Werte sind Standardabweichungen, je näher die Werte an 0 liegen, desto geringer ist die Streuung in der Verteilung, je stärker sie von 0 abweichen, desto größer ist die Streuung. (Werte im Betrag von |1,96| und größer weichen sogar signifikant vom Mittelwert ab. Solche Hinweise wären bedeutsam für die Inferenzstatistik, das ist aber ein anderes Thema).
Du kannst aber Subgruppenanalysen mit Z-Werten durchführen. Du kannst z.B. berechnen, ob es geschlechtsspezifische Unterschiede in deinen Indices „Selbstvertrauen_F1“ und „Selbstvertrauen_F2“ gibt. Dazu berechnest du die Mittelwerte für Männer und Frauen auf den Z-Werten für deine Indices. Eventuell bekommst du unterschiedliche Z-Werte, wie z.B.
„Selbstvertrauen_F1“: Männer: -1 und Frauen +1.
„Selbstvertrauen_F2“ Männer +0,5 und Frauen -0,5.
Die Interpretation bei diesem fiktiven Beispiel würde lauten, dass sich Männer und Frauen auf den beiden Skalen unterschiedlich beurteilen, da sich das Vorzeichen dreht. Die Differenz zwischen Männern und Frauen hat auch unterschiedliche Größen. Bei „Selbstvertrauen_F1“ beträgt der Abstand in dem fiktiven Beispiel 2 Standardabweichungen, bei „Selbstvertrauen_F2“ nur noch eine Standardabweichung. Es kann ein Skaleneffekt vorliegen (6er- und 4er-Skala), vielleicht beruht dieser Effekt auch auf unterschiedliche Formulierengen der Items. Eventuell liegt aber zwischen den beiden Beurteilungen auch ein längerer Zeitraum, so dass tatsächlich eine Veränderung des Selbstvertrauens vorliegt.
Mit Z-Werten kannst du natürlich auch die üblichen Berechnung für deskriptive Analysen durchführen, z.B. Häufigkeitsauszählungen, Range, Modus und Median berechnen, Histogramme erstellen usw. Du kannst dann auch direkte Vergleiche zwischen „Selbstvertrauen_F1“ und „Selbstvertrauen_F2“ anstellen. Die Berechnung von Mittelwerten und Standardabweichungen ist aber nur für Subgruppen sinnvoll (Geschlecht, Alterskohorten, Bildungsstand, usw), da du sonst immer die Werte 0 und 1 erhalten wirst.
Ich hoffe, ich konnte dir weiterhelfen
Gruß, Volker
-
- Beiträge: 9
- Registriert: 22.06.2007, 07:58
Hallo Volker,
nachdem ich mich die ganze Zeit nicht gemeldet habe, wollte ich mich jetzt doch endlich noch mal für deine zweite, sehr ausführliche Antwort bedanken. Auch die hat mir noch einmal sehr weitergeholfen! Ich habe mich jetzt dafür entschieden, erst einmal keine Mittelwerte bei der Ergebnisdarstellung anzugeben. Eben habe ich meine Ausarbeitung abgegeben und erwarte jetzt mal die Dinge, die da kommen .
Vielen, vielen Dank für deine Hilfe!
nachdem ich mich die ganze Zeit nicht gemeldet habe, wollte ich mich jetzt doch endlich noch mal für deine zweite, sehr ausführliche Antwort bedanken. Auch die hat mir noch einmal sehr weitergeholfen! Ich habe mich jetzt dafür entschieden, erst einmal keine Mittelwerte bei der Ergebnisdarstellung anzugeben. Eben habe ich meine Ausarbeitung abgegeben und erwarte jetzt mal die Dinge, die da kommen .
Vielen, vielen Dank für deine Hilfe!