1 / 54

Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie

Termin 1. Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie. Kai Vogt vogtkai@gmx.net. Hallo erst mal ! . Fragen entweder direkt an mich oder an vogtkai@gmx.net Aufgabenblätter gibt es im Buch, im Tutorat oder im Ordner in der Psycho-Bib

elkan
Télécharger la présentation

Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Termin 1 TutoratDeskriptive Statistik und Wahrscheinlichkeitstheorie Kai Vogt vogtkai@gmx.net

  2. Hallo erst mal !  • Fragen entweder direkt an mich oder an vogtkai@gmx.net • Aufgabenblätter gibt es im Buch, im Tutorat oder im Ordner in der Psycho-Bib • Habt ihr im voraus Wünsche und Ideen zum Ablauf? • Was unterscheidet Statistik I und II voneinander?

  3. Ziele des Tutorats! • Überblick über den Stoff verschaffen!!! • Vertiefung von Themen aus der Vorlesung • Offene Fragen in der Gruppe klären • Verstehen von grundlegenden Ideen • Rechnen trainieren • Sp(a)ss  • …

  4. Gliederung Wiederholung: (lineare) Korrelation (Produkt-Moment-Korrelation) rxy Multiple Korrelationen Ry.x1x2 Partialkorrelation rxy.z Semipartialkorrelation rx(y.z) Inkrementelle Validität Suppressor-Effekt Multikollinearität Wiederholung: Lineare Regression Multiple Regression Biased Estimate & Capitalization of Chance Kreuzvalidierung Signifikanzprüfung Strategien bei der multiplen Regression Aufgaben

  5. Wiederholung: Korrelation (Semester 1) Die Produkt-Moment-Korrelation, die Kovarianz und die sonstigen Korrelationskoeffizienten aus dem ersten Semester sind Maße für den (linearen) Zusammenhang zwischen zwei Variablen. Positive Korrelation bzw. positiver Zusammenhang Negative Korrelation bzw. negativer Zusammenhang Keine Korrelation bzw. kein Zusammenhang

  6. Multiple Korrelation

  7. Multiple Korrelation • Erstes Semester: Zusammenhänge zwischen 2 Variablen! • Psychologische „Phänomene“ sind aber selten nur mit einer Variable korreliert • Bsp: Welche Variablen stehen im Zusammenhang mit Aggressivität? • Genetische Einflüsse, Hormone, Erziehung, Umwelt usw… Deswegen… Multiple Korrelation = Korrelationen zwischen mehr als zwei Variablen!

  8. x x y y z z Multiple Korrelation ryx = rxy (einfache Korrelation) Ry.xz (multiple Korrelation) Z.B.: Zusammenhang zwischen Erziehung, genetischem Einfluss und Aggressivität Z.B.: Zusammenhang zwischen genetischem Einfluss und Aggressivität

  9. Partialkorrelation • Partialkorrelation rxy.z • Herauspartialisieren eines dritten Merkmals aus beiden Variablen • Warum? • Störvariablen „rausrechnen“ • Beispiel: • Der Einfluss der Erziehung in der Kindheit (Variable y) und die Aggressivität (Variable x) korrelieren hoch miteinander. Durch die Partialkorrelation kann der Einfluss der Gene (Variable z) „rausgerechnet“ werden. • Anzahl der Ertrinkenden und die Menge von konsumiertem Eis korrelieren hoch. Man kann mit der Partialkorrelation den Einfluss des Wetters neutralisieren. x.z y.z

  10. x y.z Semipartialkorrelation • Semipartialkorrelation rx(y.z) • Herauspartialisieren eines dritten Merkmals aus nur einer • Variable • Warum? • Berechnung des zusätzlichen (inkrementellen) Erklärungswerts • (Varianzaufklärung) der verbleibenden Variable Beispiel: Wie groß ist der Anteil an der Gesamtvarianz (erklärbarer Anteil) der Variable Aggressivität (x) der nur durch die Variable Erziehung in der Kindheit (y) erklärt werden kann?  Berechnung der Semipartialkorrelation Die Schulnote korreliert hoch mit dem IQ-Wert. Hat die Motivation des Schülers auch noch einen eigenen Erklärungswert?

  11. x y.z Partialkorrelation VS. Semipartialkorrelation Inkrementelle Validität Zweck: Zum „rausrechnen“ von Störvariablen aus einem interessierenden Zusammenhang Zweck: Zur Ermittlung der inkrementellen Validität einer Variable an einem Kriterium Inkrementelle Validität = Anteil an Varianz den ausschließlich eine gewählte Variable aufklären kann. Der Varianzanteil des Kriteriums wird nicht verringert! x.z y.z rxy.z rx(y.z)

  12. Inkrementelle Validität („zusätzliche erklärte Varianz“) der Variable w am Kriterium y Inkrementelle Validität • Definition: • Eine Variable besitzt inkrementelle Validität, wenn ihre Aufnahme als zusätzlicher Prädiktor den Anteil der aufgeklärten Varianz (R²) am Kriterium erhöht – also die Vorhersage verbessert. x y z w

  13. Suppressor-Effekt Ein Prädiktor verbessert die multiple Korrelation (erhöht den Wert) ohne dass er selbst mit dem Kriterium korreliert. Der Suppressor-Effekt kann über die Semipartialkorrelation belegt werden. x1 y x2 ryx1= .55 < ry(x1.x2)= .66 Die Semipartialkorrelation (x2 aus x1 herausgerechnet) ist größer als die Korrelation zwischen y und x1! Diese Tatsache belegt einen Suppressor-Effekt!

  14. Multikollinearität x y = Die Prädiktoren korrelieren miteinander, so dass manche Varianzanteile des Kriteriums von verschiedenen Prädiktoren erklärt werden können. Die Summe der einzelnen Determinationskoeffizienten ist aufgrund dieser Überlappung größer als der multiple Determinationskoeffizient! Seltene Ausnahme: Bei einem Suppressor- Effekt kann der multiple Determinationskoeffizient größer sein als die Summe der einzelnen Determinationskoeffizienten! z w Beispiel: Y= Aggressivität X= Erziehung Z=Genetischer Einfluss Gemeinsamer Anteil von X & Z: Gene sind von den Eltern die möglicherweise auch auf Grund ihrer Veranlagung einen aggressiven Erziehungsstil pflegen.

  15. Wiederholung lineare Regression

  16. Lineare Regression • Ziel: Vorhersage einer Variable y durch eine Variable x. • Wörtlich: Rückführung • Eine solche Vorhersage ist nur möglich, wenn x und y zusammenhängen, also miteinander korrelieren. • Die vorherzusagende Variable (y) heißt Kriteriumsvariable • Die zur Vorhersage verwendete Variable (x) heißt Prädiktorvariable Anwendungsbeispiele: • Werte von X wurden bereits erhoben, Werte von Y sind nicht bekannt • X kann zum jetzigen Zeitpunkt erfasst werden, Y erst viel später • X ist leicht (einfach, preiswert, schnell) zu erfassen, Y nur durch teure, aufwändige Untersuchung zu erheben

  17. Lineare Regression - grafisch Prinzip:Es wird eine Gerade ermittelt, die den Zusammenhang zwischen x und y beschreibt. Mit einer solchen Gerade kann zu jedem Wert von x ein Wert von y vorausgesagt werden. z.B. x=120  y=30 x=80 y=13

  18. Mathematisches Prinzip:Methode der kleinsten Quadrate Für einen Datensatz (eine Punktewolke) werden a und b so gewählt, dass der quadrierte Vorhersagefehler über alle Probanden minimal ist: Für die Ermittlung der Regressionsgleichung wird die Differenz der tatsächlichen von den vorhergesagten y-Werten also quadriert. Das hat 2 Vorteile… (1) Abweichungswerte sind immer positiv. (2) Große Abweichungen werden stärker berücksichtigt als kleine Abweichungen.

  19. Strukturformel der Linearen Regression Allgemeine Funktion einer Gerade: wobei b für die Steigung und a für den y-Achsen-Abschnitt steht. Bei der Regression schreibt man:

  20. Voraussetzungen der linearen Regression • Folgende Voraussetzungen müssen erfüllt sein, damit eine lineare Regressionsanalyse berechnet werden darf: • Die Variablen x und ymüssen intervallskaliert sein • Die Variablen x und ymüssen normalverteilt sein. • Die Homoskedastizität der Variablen muss gegeben sein. • Die Residuen müssen unabhängig und normalverteilt sein. • Wichtig: Nur lineare Zusammenhänge dürfen berücksichtigt werden.

  21. multiple Regression

  22. Multiple Regression • Problem: • Komplexe Welt: Kriterium hängt meist nicht nur von einem Prädiktor ab. • Zusammenhänge mit vielen Variablen. Und daher muss z.B. bei einer Vorhersage auch mehrere Variablen berücksichtigt werden. • Beispiel: • Sportliche Leistung kann nur präzise vorhergesagt werden • wenn viele wichtige Variablen miteinbezogen werden: • Training, Talent, Umfeld, Psychologische Stabilität, Ehrgeiz usw…

  23. Strukturgleichung: Multiple Regression • Erweiterung der einfachen linearen Regression •  mehrere Prädiktorvariablen • Bestimmung über die Methode der kleinsten Quadrate

  24. Regressionskoeffizienten (b) • „b-Gewichte“ der einzelnen Prädiktorvariablen (auch Partialregressionskoeffizienten) • relatives Gewicht einer Prädiktorvariablen in der Vorhersage (Sprich: Wie wichtig ist eine Variable für die Vorhersage! • Z.B.: Trainingszeit hat einen großen Einfluss auf die Vorhersage einer Sportlichen Leistung (großes „b-Gewicht“). Die Anzahl der Topfpflanzen in der Wohnung dagegen nicht (sehr kleines „b-Gewicht“)! Die Regressionsgewichte können mit einem t-Test auf Signifikanz geprüft werden.

  25. Konstante (a) Auch die Regressionskonstante wird mit einem t-Test auf Signifikanz geprüft!

  26. Standardisierte Regressionsgewichte (β – Gewichte) Die Regressionsgerade kann auch in einer standardisierten Form beschrieben werden: unstandardisiert: standardisiert: Die additive Konstante (a) entfällt, da die zy einen Mittelwert von Null hat. Vorteil: Die Beta-Gewichte nehmen nur Werte zwischen -1 und +1 an. Sie können wie Korrelationskoeffizienten interpretiert werden.

  27. BiasedEstimate & Capitalizationof Chance Bei einer Multiplen Regression werden eine Vielzahl von Korrelationskoeffizienten zwischen den einzelnen Prädiktoren und dem Kriterium berücksichtigt! Diese Koeffizienten korrelieren aber möglicherweise auch miteinander (= Multikollinearität)! Resultierendes Problem: R² überschätzt den Populationszusammenhang = „biased estimate“ Je mehr Prädiktoren in der Regression berücksichtigt werden, desto größer wird der „biased estimate“ (exponentieller Anstieg) = „Capitalization of Chance“

  28. BiasedEstimate & Capitalizationof Chance Bei einer Multiplen Regression werden eine Vielzahl von Korrelationskoeffizienten zwischen den einzelnen Prädiktoren und dem Kriterium berücksichtigt! Diese Koeffizienten korrelieren aber möglicherweise auch miteinander (= Multikollinearität)! Resultierendes Problem: R² überschätzt den Populationszusammenhang = „biased estimate“ Je mehr Prädiktoren in der Regression berücksichtigt werden, desto größer wird der „biased estimate“ (exponentieller Anstieg) = „Capitalization of Chance“

  29. BiasedEstimate & Capitalizationof Chance • Faktoren die den biasedestimate(Überschätzung der Multiplen Korrelation in anderen Stichproben bzw. der Population) beeinflussen: • Anzahl Prädiktoren • Je mehr Prädiktoren desto größer Verzerrung • = Cap. of .Chance • Höhe der Korrelationen zwischen den Prädiktoren • Je höher (=Multikollinearität) desto größer Verzerrung • Stichprobengröße • Je größer desto kleiner die Verzerrung • Lösungen: korrigiertes R², Kreuzvalidierung, N↑, nur relevante und möglichst unkorrelierte Prädiktoren aufnehmen.

  30. Kreuzvalidierung einer Multiplen Regression

  31. Korrigiertes R² Schrumpfungskorrektur nach Olkin & Pratt: Beispiel: k=3; N=20; R² = .50

  32. Signifikanzprüfung

  33. Signifikanztest der multiplen Regression Die multiple Regression wird mit einem F-Testauf Signifikanz getestet. Der F-Test beruht auf einer Zerlegung der Varianz des Kriteriums in einen erklärten und einen nicht erklärten Teil. Die Quadratsumme (SS = „sum of squares“) ist einunstandardisiertes Maß für die Variabilität.

  34. Quadratsummen standardisiert:„Mean Sums of Squares“ unstandardisiert:„Sums of Squares“ K: Anzahl der Prädiktoren N: Anzahl der Probanden

  35. Signifikanztest der mult. Regression 1) 2) • Häufig in SPSS ausgegeben • Häufig in Studien / Texten angegeben Wenn Femp > Fkrit ist das Testergebnis signifikant  Die Prädiktoren weisen dann insgesamt einen bedeutsamen Zusammenhang mit dem Kriterium auf.

  36. Signifikanztest - Beispiel Es besteht ein bedeutsamer Zusammenhang zwischen dem Kriterium und den Prädiktoren! Die Prädiktoren können das Kriterium zuverlässig vorhersagen

  37. Strategien bei der multiplen Regression

  38. Strategien • Inhaltliche Auswahl • Alle möglichen Untermengen • Vorwärtsselektion • Rückwärtselimination • Schrittweise Regression

  39. Aufgaben

  40. Aufgabe 1 Eine Regressionsanalyse ergab folgende Zusammenhänge:

  41. Aufgabe 1 Berechnen sie für die drei Personen mit folgenden Prädiktorwerten den vorhergesagten Kriteriumswert: - Computerk. 4, Umgangsformen 9 - Computerk. 6, Umgansformen 6 - Computerk. 8, Umgangsformen 3 Nehmt an, dies sei das statistisch aggregierte Ergebnis eines Assessment-Centers und hohe Werte weisen auf hohe Eignung hin. Welchen der drei Bewerber stellt ihr aufgrund der vorliegenden Vorhersage seiner Passung zum Unternehmen ein?

  42. Lösung Aufgabe 1 • 4 x 0,033 + 9 x 0,067 + 1,065 = 1,8 • 6 x 0,033 + 6 x 0,067 + 1,065 = 1,67 • 8 x 0,033 + 3 x 0,067 + 1,065 = 1,53 Bewerber a), da er die höchsten Werte und damit voraussichtlich die beste Eignung aufweist.

  43. Aufgabe 2 Nennen sie die Vorteile der Standardisierung der Koeffizienten bei der multiplen Regression. Die Beta-Gewichte nehmen nur Werte zwischen -1 und +1 an und können damit wie Korrelationskoeffizienten interpretiert werden – d.h. ihr relativer Einfluss auf die Vorhersage wird direkt und zwischen verschiedenen Vorhersagen vergleichbar deutlich.

  44. Aufgabe 3 Welche Vor- und Nachteile hat die Verwendung der Inhaltlichen Auswahl bei der Bestimmung der Anzahl der Prädiktoren für eine multiple Regression?

  45. Lösung Aufgabe 3 Vorteile: • Hypothesengeleitetes Vorgehen • Keine Capitalization on Chance Nachteile: • Möglicherweise Aufnahme von mehr Prädiktoren als unbedingt erforderlich (Prädiktoren, die keinen signifikanten Beitrag leisten) • Möglicherweise werden wichtige Prädiktoren „übersehen“ bzw. „vergessen“

  46. Arbeitsblatt Aufgabe 4 Eine Regressionsanalyse ergab folgende Zusammenhänge:

  47. Berechnen Sie den vorhergesagten Wert für „Note“ für • eine Person mit rating02=3 und rating13=6, und • (b) für eine Person mit rating02=8 und rating13=8.

  48. Ergebnis Aufgabe 4

  49. Arbeitsblatt Aufgabe 5 Eine Multiple Korrelation mit 3 Prädiktoren klärt 60% der Varianz des Kriteriums auf. Die Stichprobe besteht aus 40 Probanden. Ist dieser Zusammenhang signifikant? Fkrit = 2,92

  50. Ergebnis Aufgabe 5 • Der Zusammenhang des Kriteriums mit den Prädiktoren ist statistisch bedeutsam.

More Related