1 / 34

Forschungsstatistik I

Forschungsstatistik I. Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz. Stunde 18.01.05. Themen der Woche. Partialkorrelation Multiple Korrelation und Regression Pfadanalyse. x 1. x. x 2. x 1. x. x 2.

donnel
Télécharger la présentation

Forschungsstatistik I

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz Stunde 18.01.05

  2. Themen der Woche • Partialkorrelation • Multiple Korrelation und Regression • Pfadanalyse

  3. x1 x x2 x1 x x2 Deutungsmöglichkeiten der bivariaten Korrelation • Kausalität:X1® X2 • Latente Drittvariable: • Direkte und indirekte Kausalität:

  4. z rzx rzy G G rxy x y Partialkorrelation Die Korrelation zweier Variablen, die vom Effekt anderer (spezifizierter) Variablen bereinigt wurden. Prüfung einer Kausalvermutung: rxy komme dadurch zustande, daß z ursächlich auf x und y einwirkt:

  5. rexey x y rxy z z Partialkorrelation Prüfung • Sage x aus z voraus und berechne Residuen ex • Sage y aus z voraus und berechne Residuen ey • Berechne die Korrelation rexey Ist Partialkorrelation (Korrelation rexey) Null, so beruht die Korrelation rxy tatsächlich nur auf der Einwirkung von z.

  6. Partialkorrelation Y aus Z X aus Z ex und ey korrelieren: [Tafelbeispiele]

  7. Datenbeispiel X: Rechnen Y: Sprache Z: Förderdauer rxy=.56 rxz=.72 ryz=.73 Korreliert Rechen und Sprache nur, weil die Kinder Frühförderung erhalten haben?

  8. rxy.z=.07 Datenbeispiel: Korr. der Residuen X: Rechnen Y: Sprache Z: Förderdauer Residuen: Korrelation der Residuen: Ja: Ohne die Frühförderung sind Rechen- und Sprachleistung unabhängig! [Tafelbetrachtung]

  9. Multiple Regression Ziele • Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren • Mit konkreten Meßvariablen • Information über die Wichtigkeit einzelner Einflußgrößen im Kontext von Multikollinearität

  10. Multiple Korrelation & Regression Variable X, Y, Z: Sage Z aus X und Y vorher ! Die ß- Koeffizienten müssen nach dem Kleinstquadratkriterium bestimmt werden!

  11. Beobachtetes Kriterium Vorhergesagtes Kriterium Allgemeine Schätzgleichung

  12. Schätzfehler: Optimierungskriterium für die Regressionsgewichte: wobei Modellformulierung Schätzung der Regressionsgewichte

  13. Modellformulierung, standardisiert Kriterium: mit die additive Konstante fällt weg, nur Gewichte für Prädiktoren Schätzung der Regressionsgewichte

  14. Lösung: Normalgleichungen Vektorschreibweise: Multipliziere nacheinander mit jedem Prädiktor, summiere über Fälle und teile durch N, führt auf: Schätzung der Regressionsgewichte

  15. Normalgleichungen in Matrix Notation System: wobei: Lösung: Inverse Prädiktorkorrelationsmatrix vormultiplizieren Schätzung der Regressionsgewichte

  16. 3 Variablen Fall Kleinstquadratkriterium: Für den 3 Variablenfall (x,y,z) bequem nach Standardisierung über Normalgleichungen zu lösen! führt auf: [Tafelrechnung]

  17. Multipler Korrelationskoeffizient Bedeutung aus Varianzzerlegung: Schätzung der Regressionsgewichte

  18. 1) Ist die Korrelation der vorhergesagten Werte mit den beobachteten Werten Z Multipler Korrelationskoeffizient Im 3 Variablenfall: • 2) Ist immer größer oder gleich der größten Einzelkorrelation • 3) Sein Quadrat gibt wieder den Anteil der Vorhersagevarianz an der Gesamtvarianz an:

  19. Multiple Korrelation & Regression Interpretation • Sind die Prädiktoren unabhängig, so sind die ß-Gewichte • gleich den Kriteriumskorrelationen und die aufgeklärte • Varianz ist die Summe der Quadrate der ß-Gewichte 1) • Sind die Prädiktoren abhängig (interkorreliert), so • unterscheiden wir 3 Fälle: 2) • Der Pädiktor enthält Information, die schon der andere Prädiktor enthält: er ist redundant • Der Prädiktor unterdrückt irrelevante Varianzanteile in dem anderenPrädiktor: er ist ein Suppressor • Der Prädiktor besitzt Kriteriumsvarianz, die der andere Prädiktor nichtbesitzt und unterdrückt irrelevante Varianz des anderen Prädiktors:er ist valide und nützlich. Interpretation

  20. Interpretation der Lösung 1.Unabhängige Prädiktoren Bei rein unabhängigen Prädiktoren sind die b- Gewichte identisch mit den Kriteriumskorrelationen Der multiple Determinationskoeffizient ist dann einfach die Summe der quadrierten Kriteriumskorrelationen (=erklärter Varianzanteil) Interpretation

  21. Interpretation: abhängige Prädiktoren Untersuchung der Abhängigkeit im Kontext von Multikollinearität • Bedeutet die Abhängigkeit Redundanz, d.h. messen die vielen Variablen Aspekte gemeinsam, so daß man prinzipiell weniger (latente) Variablen benötigt? (unerwünschter Aspekt) • Erfassen die Abhängigkeiten Teile der Kontamination der Variablen und wirken so optimierend auf die gesamte Schätzgleichung (Suppressionseffekt, erwünscht)? Interpretation

  22. Multiple Korrelation & Regression Redundanz Die Variable j ist redundant zur Vorhersage von Variable k, Wenn gilt: Nützlichkeit der Variable j zur Vorhersage von k: • U ist der Betrag, um den R2 wächst durch Aufnahme von Variable j in die Gleichung. [Tafelbeispiele] Interpretation

  23. Identifikation von Suppressionseffekten Für mehr als 3 Variablen über die Nützlichkeit: Variable j ist Suppressor, wenn gilt Also die Zunahme der erklärten Varianz durch Aufnahme der Variable muss grösser sein als die quadrierte einzelne Validität. Für nur 3 Variablen (x,y,z) relativ einfach (z = Kriterium): Variable y ist Suppressor, wenn gilt Interpretation

  24. Multiple Korrelation & Regression Suppression rxz ryz=0 rxy X Y Z Y „bindet“ irrelevante Kriteriumsinformation Partialkorrelation rxz.y ist erheblich größer als rxz [Berechnungsbeispiele, Venn-Diagramme]

  25. Pfadanalyse Ziele • Prüfung eines a-priori erstellten Hypothesensystems über kausale Abhängigkeiten • Beziehungsgeflecht von beobachtbaren Variablen wird über ein System von linearen Gleichung analysierbar • Pfadkoeffizienten modellieren direkt und indirektkausale Effekte

  26. Als lineare Gleichung: Beziehungen

  27. x1 x x2 x1 x x2 Deutungsmöglichkeiten der bivariaten Korrelation • Kausalität: X1® X2 • Latente Drittvariable: • Direkte und indirekte Kausalität:

  28. b21 x2 b32 x1 b31 x3 Gleichungen aus Pfaden Variablen, von denen Pfeile ausgehen, sind erklärend und stehen rechts vom Gleichheitszeichen Pfadanalyse

  29. p2a ea p21 z2 p32 z1 p3b p31 z3 eb Pfade + Messfehler, standardisiert Additive Konstanten fallen weg Pfadanalyse

  30. Lösung: Normalgleichungen Bilde das innere Produkt jede Zielvariable mit jeder ihrer Prädiktoren, teile durch Anzahl der Fälle N: Annahme: Variablen und Fehler sind unkorreliert: Pfadanalyse

  31. Pfadkoeffizienten Lösung des Gleichungssystems nach den Pfadkoeffizienten gibt: Pfadkoeffizienten haben die Form der b - Gewichte der multiplen Regressionsanalyse. Sie können über dieselben Methoden ermittelt werden (Vormultiplizieren mit der Inversen der entsprechenden Korrelationsmatrix) Pfadanalyse

  32. p21 z2 p32 z1 p31 z3 Fundamentalsatz der Pfadanalyse Pfadanalyse

  33. 0.5 z2 0.2 z1 z3 0.4 Direkte und indirekte Pfade Dekomposition der Korrelation: Direkter kausaler Effekt = Pfadkoeffizient Indirekter kausaler Effekt = Produkt der Pfadkoeffizienten Pfadanalyse

  34. 0.5 z2 0.2 z1 z3 0.4 Direkte und indirekte Pfade Pfadanalyse

More Related