Variablen zusammenfassen

Fragen und Diskussionen rund um die Arbeit mit SPSS. Für allgemeine Statistik-Themen, die nicht mit SPSS zusammenhängen, bitte das Statistik-Forum nutzen.
Antworten
Roiber
Beiträge: 4
Registriert: 07.06.2008, 16:34

Variablen zusammenfassen

Beitrag von Roiber »

Hallo zusammen!

Im Rahmen meiner Diplomarbeit habe ich eine Umfrage durchgefuehrt, die sich an der SERVQUAL-methode zur Messung der Dienstleistungsqualitaet orientiert. Ich habe nun 40 Items (also Variablen) abgefragt, die ich nun gerne in ihnen uebergeordnete Dimensionen (sozuzagen Sammelbegriffe) zusammenfassen moechte. Ich will also jeweils 4 Variablen in eine zusammenfassen, da sie den selben Bereich messen sollen. Leider habe ich noch keine Informationen dazu gefunden, ob das bzw. wie das funktioniert :roll: ... Ich bin fuer jede Hilfe sehr dankbar!

Roiber
KarinJ
Beiträge: 939
Registriert: 13.05.2008, 10:52

Beitrag von KarinJ »

hallo,

du könntest die 4 variablen (die du ja nach theoretischen aspekten als zusammengehörend auffasst) in eine reliabilitätsanalyse stecken, um zu prüfen, ob man die 4 variablen zu einer skala addieren darf. es ergibt sich dabei ein maß für die innere konsistenz / homogenität (cronbachs alpha), das erfasst, in wie weit die items in der gleichen weise beantwortet wurden. und wenn das entsprechend groß ist, hat man eine legitimation, um die variablen zusammenzufassen.
Roiber
Beiträge: 4
Registriert: 07.06.2008, 16:34

Beitrag von Roiber »

Danke fuer den vorschlag. Ich habe bereits eine reliabilitaetsanalyse durchgefuehrt. Jetzt ist eben die frage, wie ich die Variablen die eine dimension messen zusammenfassen kann? Will am ende anstatt 40 eben nunr noch 10 variablen haben. Ansosnten wird die signifikanz analyse uferlos und bezieht sich eben nur auf die einzelnen items, aber nicht auf die dimensionen...

Vielen Dank fuer eure Ideen!
KarinJ
Beiträge: 939
Registriert: 13.05.2008, 10:52

Beitrag von KarinJ »

bilde eine summe aus den 4 items oder einen mittelwert. so erhält man eine skala.
Roiber
Beiträge: 4
Registriert: 07.06.2008, 16:34

Beitrag von Roiber »

du meinst, ich soll also einfach die mittelwerte aller faelle innerhalb einer dimension bilden und komme so zu meiner einteilung? kann ich so dann auch die signifikanz und varianz zwischen den einzelnen dimensionen berechnen, oder gilt das dann ncihtmehr?
Und wie mache ich das technishc bei SPSS?

Vielen dank fue die Hilfe! Tust mir wirklich einen grossen gefallen!
KarinJ
Beiträge: 939
Registriert: 13.05.2008, 10:52

Beitrag von KarinJ »

wenn du dir "richtige" fragebögen ansiehst (damit meine ich die, die es zu kaufen gibt), dann wird die skala meist aus der summe oder dem mittelwert der items gebildet. die reliabilitätsanalyse ergibt dann ein maß für die güte dieser zusammenfassung.

wenn also eine reliabilitätsanalyse gute kennwerte für deine dimensionen ergeben hat, kannst du nun summe oder mittelwert pro dimension bilden.

in spss macht man das über transformieren -> berechnen -> neuen namen für zielvariable angeben, und ins formelfeld die betreffende formel. also entweder (var1 + var2 + var3 + var4) / 4 oder als mean(var1, var2, var3, var4). der unterschied ist, dass im ersten fall der mittelwert nur gebildet wird, wenn alle items eine antwort haben (keine missings). im 2. fall (mit der funktion) wird sie auch gebildet, wenn werte fehlen. man kann dies verhindern, indem man die zahl der items angibt, die vorhanden sein müssen z.b. alle wäre mean.4(var1,...).

jetzt kannst du mit den dimensionen rechnen z.b. deskriptiv für jede mittelwert und varianz ausrechnen, oder vergleichend (d.h. mit signifikanz) z.b. als korrelation der dimensionen.
Roiber
Beiträge: 4
Registriert: 07.06.2008, 16:34

Beitrag von Roiber »

Hi,

erstmal vielen dank fuer den tip! Habe meine Items jetzt zu Dimensionen zusammenfassen koennen und versuche mit diesen weiterzuarbeiten. Jetzt stellen sich aber schon wieder mehrere frage. Mein statistik sowie spss wissen reicht da leider nicht mehr aus....Deshalb bitte ich nochmal auf diesem wege um rat.

1. die zusammengefassten dimensionen muessen wenn die einzelnen Items auf einer Ordinalskala bemessen wurden, doch ebenfalls eine Ordinalskala besitzen?

2. Ich habe versucht die Dimensionen (Teilaspekte der Qualitaet) hinsichtlich einer Korrelation mit einem extra erhobenen Item (Overall Quality) zu untersuchen. Jede Dimension wurde also anhand des Spareman's rho test auf correlation mit der overall quality untersucht. Nun habe ich probleme bei der deutung der Ergebnisse... Im fall eines Correlation Coefficients von .233 und einem wert fuer Sig.(2-tailed) .066 kann NICHT von einer Correlation gesprochen werden? Bei einem Correlation Coefficient von .260 und und einem wert fuer Sig.(2-tailed) von .040 KANN von einer Correlation ausgegangen werden? Ist das grundsaetzlich richtig? Gibt die fussnote unter den tabellen auskunft ueber signifikante korrelationen. bzw besteht keine, wenn sie nicht erscheint?

3. In einem Fall bekomme im Spareman's test werte von Correlation Coefficients von .019 und einen wert fuer Sig.(2-tailed) von .881. Es besteht also keine signifikante correlation? Fuehre mit den gleichen variablen einen Chi-test durch bekomme ich einen wert Pearson Chi-Square von 12.099. Asymp. Sig (2-sided) betraegt .913. in der fussnote zum ersten wert steht ( 30 cells (90.9%) have expected count less than 5. The minimum count is .02). Unterstuetz diese aussage nun den spearman test? wie ist sie zu interpretieren und was bedeuted die letzte zeile?

Viel text viele Fragen, aber ich komm nicht weiter ohne support!
Vielen Dank:!:
KarinJ
Beiträge: 939
Registriert: 13.05.2008, 10:52

Beitrag von KarinJ »

zu 1) ordinalskala = daten bilden eine rangreihenfolge. die dimensionen sind sicher auch rangskaliert (d.h. man kann die daten in eine reihenfolge bezüglich dem ausmaß des gemessenen merkmals bringen).

zu 2) der korrelationskoeffizient gibt die stärke des linearen zusammenhangs an (siehe fachliteratur z.b. bortz dafür, welche höhe des koeffizienten für einen starken / mäßigen / schwachen zusammenhang steht). die signifikanz (alpha oder probability p) gibt an, wie zufällig der gefundene zusammenhang ist. ab .05 (p ist gleich oder kleiner .05) sagt man, dass der gefundene zusammenhang sehr unwahrscheinlich ist. in diesem fall besteht also der zusammenhang in der genannten stärke und richtung. falls p größer als .05, dann besteht der zusammenhang nicht und die gefundene stärke wurde zufällig gefunden und sagt nichts über den wahren wert des zusammenhangs aus.

die signifikanten korrelationen werden markiert oder können markiert werden und zwar durch sternchen (je nach höhe von p mit * oder **). was nicht markiert wird, sind p zwischen .05 und .1, welche man als tendenziell signifikant bezeichnen kann. manche leute reagieren darauf aber sehr allergisch.

tipp: erstelle für jeden koeffizienten ein scatterplot, um zu prüfen, ob der zusammenhang eventuell anders ist als linear oder durch ausreisser zustande kommt.

zu 3) wenn sig größer als .05, dann besteht keine korrelation. beim chi²-test hast du die PEARSON-korrelation herausbekommen. du kannst ja mal mit der prozedur "korrelation" prüfen, ob dann der gleiche koeffizient herauskommt wie bei chi², wenn du pearson einstellst. meiner ansicht nach ist das die ursache.

der chi²-test soll nicht interpretiert werden, wenn zellen mit einer häufigkeit von unter 5 vorkommen. es gibt noch eine andere, etwas weniger strenge meinung, die sagt, er soll nicht interpretiert werden, wenn 20% (?) der zellen eine zellenbesetzung von unter 5 haben.
Anzeige:Statistik und SPSS: Die besten Bücher
Als Buch oder E-Book - Jetzt bestellen
spss datenanalyse
SPSS - Moderne Datenanalyse - Jetzt bestellen!
statistik datenanalyse
Statistik - Der Weg zur Datenanalyse - Jetzt bestellen!
Antworten