Forschung / Transfer

In Daten verborgenes Wissen

Kerstin StrangfeldForschung / Transfer Leave a Comment

In Daten verborgenes Wissen

Image
,
3. Juli 2023
Oft setzen Promovierende bei ihrer empirischen Forschung auf ein Mixed-Method Verfahren. Das bedeutet, dass sie sowohl qualitative als auch quantitative Methoden zum Einsatz bringen, um Antworten auf ihre Forschungsfrage(n) zu finden. Um das NextGen Team in beiden Verfahren fit zu machen, oder vorhandenes Wissen aufzufrischen, haben wir uns zunächst mit der Erhebung und Auswertung von qualitativen Interviews durch einen Erfahrungsaustausch in einer Peer Group Session (PGS) befasst und sind zwei Wochen später in einem Workshop von Markus Schubert (Conoscope) in die quantitative Auswertung von Fragebögen mittels des Statistikprogramms SPSS eingetaucht.
Wie sich qualitative und quantitative Forschung voneinander unterscheiden, kann in Julia Winterlichs Blogbeitrag nachgelesen werden.
Image
Empirisch Forschen? Ja! Aber wie?

Was alles möglich ist.

Bereits einige Monate zuvor hatten wir uns in einer PGS über die Arbeit in SPSS ausgetauscht und nützliche, wenn auch vergleichsweise einfache Mengenanalysen und Kreuztabellen erstellt. Aus meiner Studienzeit wusste ich allerdings noch, dass wir damit nur an der Oberfläche kratzten, denn was keiner von uns (mehr) beherrschte, waren multivariate Analysen.

Auswahl der Stichprobe und die Sache mit der Signifikanz

Natürlich startet eine quantitative Auswertung mit einer Forschungsfrage, aus der, mit Hilfe von Fachliteratur, ein Fragebogen entwickelt wird, der sich zielgruppenspezifisch an die Befragten richtet. In vielen Fällen wird auch auf vorhandene, bereits getestete Fragebögen zurückgegriffen. Wie ein guter Fragebogen auszusehen hat, war nicht Teil des Workshops, wohl aber, an wie viele Befragte er sich richten sollte.

Wie wir erfuhren, sind bei sehr großen Grundgesamtheiten, (z.B. allen Autobesitzer:innen Deutschlands) erste relativ verlässliche Ergebnisse ab einer Stichprobe von 500 Befragten zu erwarten. Die Irrtumswahrscheinlichkeit beträgt dann nur noch ca. 5%. Zusätzlich sollte die Stichprobe der üblichen Durchmischung der Zielgruppe entsprechen, die es zuvor durch Recherche erst einmal zu bestimmen gilt. Für alle quantitativen Befragungen unter der genannten Fallzahlgrenze steigt die Fehlerwahrscheinlichkeit und sinkt die Aussagekraft der Befragung. Bei einer geringeren Grundgesamtheit kann die Stichprobe kleiner ausfallen. Dafür gibt es Berechnungsformeln. Diese Formeln liegen auch diversen Online-Tools zu Grunde liegen, die man als Arbeitserleichterung einsetzen kann.

Valide Forschung braucht Signifikanz, und zwar mindestens einen Wert unter 0,05. Wer das nicht zuordnen kann und in seiner Promotion quantitative Methoden anwenden möchte, dem sei zu einer Auffrischung in der Datenanalyse geraten.

Multivariate Analysen holen das Beste aus Befragungsdaten

Wenn ich einen Datensatz vor mir habe, frage ich mich, welches versteckte Wissen darin schlummert.

Markus Schubert
Conoscope

Unser NextGen Team bekam einen realen Datensatz  zur Verfügung gestellt, den wir gemeinsam begannen, nach verborgenem Wissen zu durchstöbern. Die Herangehensweise war, die Befragten in Gruppen zusammenzufassen. Dazu nutzten wir bestimmte Schlüsselfragen, deren Antworten möglichst normalverteilt sein sollten. Ob die ausgewählte Frage dieser Verteilung entsprach, überprüften wir mittels eines Histogramms. Für diese Überprüfung bieten sich allgemein nur Daten an, die metrisch erfasst wurden. Das sollten Forscher:innen vor der Befragung beachten, damit sie wichtige Informationen in Skalen abfragen.
Image
Wir führten t- und F-Tests durch, um die Varianz der Daten zu bestimmen oder Verdichtungen zu finden. Verdichtungen können beispielsweise bei der Ausprägung der Werte „kreativ“ und „intuitiv“ auftauchen. Das bedeutet, dass Personen, die sich als kreativ bezeichnen, sich oft auch als intuitiv bezeichnen würden. Ob diese Verdichtungen tatsächlich in den Daten stecken, zeigt die Korrelation zwischen den Werten. Je weiter sie sich 1,0 annähern, desto stärker ist der Zusammenhang. Bei -1,0 wäre ein negativer Zusammenhang gegeben.

Vom Clustering zur Interpretation

Liegen mehrere solcher (Faktoren-) Analysen vor, können sie geclustert werden. Zusammenpassende Typologien mussten wir aber nicht selbst finden. Das übernimmt ein Algorithmus in SPSS. Wir konnten an dieser Stelle Einfluss darauf nehmen, wie viele Cluster das Programm erstellen soll. Das ist wichtig, wenn es an die Interpretation geht. Wie wir an unserem Cluster aus den Beispieldaten sahen, fanden wir nicht zu jeder Aufteilung, die SPSS vorschlug, eine stimmige Deutung. Diese gehört aber zu den meisten Forschungsarbeiten dazu.
Image
Durch die Clusterung erwuchsen aus unseren Daten mehr als nur Mengenangaben und Kreuzzusammenhänge. Die Befragung erhielt Dimensionen. Befragte wurden zu Typologien. Einer bestimmten Software gegenüber allgemein sehr positiv eingestellte Nutzer:innen nannten wir Enthusiast:innen, gering bewertende Nutzer:innen wurden zu Kritiker:innen. Das war spannend. Und zuvor noch verborgen in den Daten.

Es lohnt sich

Es lohnt sich also, sich genauer mit erhobenen Daten zu befassen. Auch aus Befragungen, deren Befragungsbögen nicht perfekt waren, lassen sich durch gute Auswertung oft noch weitere Erkenntnisse gewinnen oder zumindest Hypothesen für Folgebefragungen bilden.

Ein Eintages-Workshop reicht natürlich nicht aus, um alles zu begreifen oder anwenden zu können, deshalb haben bereits individuelle Vertiefungen stattgefunden. Aber selbst ein einziger Workshop zeigt bereits auf, was in der Datenanalyse möglich und machbar ist und sensibilisiert für die Befragung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert