1 / 71

Teorie e Tecniche di Psicometria

Teorie e Tecniche di Psicometria. Roberto Bolzani & Mariagrazia Benassi. Programma del Corso. Introduzione. Legge statistica e legge deterministica Le principali definizioni di probabilità Proprietà della probabilità. Programma del Corso. Parametri statistici. Parametri descrittivi

cleo
Télécharger la présentation

Teorie e Tecniche di Psicometria

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Teorie e Tecniche di Psicometria Roberto Bolzani & Mariagrazia Benassi

  2. Programma del Corso Introduzione • Legge statistica e legge deterministica • Le principali definizioni di probabilità • Proprietà della probabilità

  3. Programma del Corso Parametri statistici • Parametri descrittivi • Distribuzioni di probabilità • Densità di probabilità • Le principali distribuzioni di probabilità

  4. Programma del Corso Il test statistico • Logica del test statistico • L’ipotesi nulla • Significatività • Potenza del test • Numerosità del campione

  5. Programma del Corso Test parametrici • Il t-test • Analisi della varianza • Analisi della regressione • Analisi per prove ripetute • Analisi multivariata • Il modello lineare generale

  6. Programma del Corso Test non-parametrici • Confronto fra variabili qualitative • Le tavole di contingenza • La regressione logistica

  7. Bibliografia • Bolzani R., Canestrari R. (1994) Logica del test statistico. Milano, Casa Editrice Ambrosiana. • Bolzani R. (1999) Problemi di statistica. Milano, Casa Editrice Ambrosiana. • Bolzani R., Benassi M. (2003) Tecniche Psicometriche. Roma, Carocci

  8. Introduzione • Legge deterministica: corrispondenza univoca fra due eventi, causa ed effetto. • Legge probabilistica: corrispondenza fra un evento e un insieme di possibili eventi

  9. Finalità della Ricerca Scientifica • Dimostrazione di leggi scientifiche su base sperimentale • Interpretazione dei dati sperimentali

  10. Definizioni di probabilità • Classica. Dato un insieme di eventi equiprobabili la probabilità di un evento è data da numero di eventi favorevoli numero di casi possibili • Frequentista. La probabilità di un evento è la frequenza con cui esso si presenta in un numero molto elevato di prove.

  11. Definizioni di probabilità • Assiomatica. La probabilità è definita dalle condizioni: • Ad ogni evento A corrisponde un valore p(A) maggiore o uguale a zero • La probabilità di tutti gli eventi possibili è uno • La probabilità che si verifichi A o B, essendo A e B mutuamente escludenti, è data dalla somma della probabilità di A e della probabilità di B

  12. In formule: • p(A)  0 • p() = 1 • p(A o B) = p(A) + p(B) se p(A&B)=0

  13. Definizioni di probabilità • Soggettiva. La probabilità di un evento E è la misura del grado di fiducia che un individuo coerente attribuisce, secondo le sue informazioni, all’avverarsi di E. • coerenza • informazione

  14. Il Paradosso di Bertrand Problema: Calcolare la probabilità di trovare una corda casuale di una circonferenza più lunga del lato del triangolo equilatero iscritto.

  15. Il Paradosso di Bertrand 1a Soluzione: Scegliere un punto interno alla circonferenza inscritta p=1/4

  16. Il Paradosso di Bertrand 2a Soluzione: Scegliamo il punto d’origine della corda nell’apice del triangolo p=1/3

  17. Il Paradosso di Bertrand 3a Soluzione: Scegliere un punto casuale su un raggio della circonferenza p=1/2

  18. Proprietà della Probabilità La probabilità di un evento impossibile è zero. Non vale la proposizione inversa. Se la probabilità è zero l'evento non è necessariamente impossibile. • Es. La probabilità di ottenere 7 nel lancio di un dado a sei facce è zero. La probabilità di avere su infiniti lanci di una moneta nemmeno un risultato 'testa' è zero ma l'evento non è impossibile.

  19. Proprietà della Probabilità La probabilità di un evento certo è uno. Non vale la proposizione inversa. Es. La probabilità di ottenere un numero compreso fra uno e sei in un lancio di un dado è uno. La probabilità di avere su infiniti lanci di una moneta almeno un risultato 'testa' è uno pur non essendo l'evento certo.

  20. Proprietà della Probabilità Probabilità condizionata: p(A|B) = probabilità che avvenga A essendo avvenuto B. Es. probabilità di ottenere 12 in due lanci di un dado sapendo che nel primo lancio è risultato 6.

  21. Proprietà della Probabilità Eventi indipendenti: A e B sono indipendenti quando l’avverarsi di uno non influenza l’avverarsi dell’altro. Cioè p(A|B) = p(A) Es. la probabilità di avere testa nel primo lancio e croce nel secondo

  22. Proprietà della Probabilità Eventi disgiunti: A e B sono eventi disgiunti se il verificarsi dell'uno esclude il verificarsi dell'altro. Es. testa e croce

  23. Proprietà della Probabilità Evento prodotto: Evento in cui si verifica sia A che B: p(A&B) = p(A)  p(B|A). Se A e B sono indipendenti: p(A&B)= p(A)  p(B)

  24. Proprietà della Probabilità Evento somma: Evento in cui si verifica A o B o, se non sono disgiunti, entrambi: p(A+B) = p(A) + p(B) ‑ p(A&B) Es. Nel lancio di un dado: P(pari)=1/2 P(<4)= 1/2 P(pari e <4) = 1/6 P(pari o <4)= 1/2+1/2-1/6 = 5/6

  25. Proprietà della Probabilità Evento complementare: Evento in cui non si verifica A: p(Ã)=1 ‑ p(A). Es. il complementare del risultato 6 è il risultato 1 o 2 o 3 o 4 o 5.

  26. Parametri descrittivi • Frequenza di un evento: Numero di volte in cui si verifica un evento diviso per il numero totale delle occorrenze.

  27. Parametri descrittivi • Media: somma di tutti i valori di una variabile divisa per il numero totale dei valori. • Varianza: somma dei quadrati degli scarti dei singoli valori dalla media divisa per i gradi di libertà. • Deviazione standard: radice quadrata della varianza

  28. Parametri descrittivi • Valore atteso (Expected value) • caso discreto • caso continuo • Varianza: valore atteso degli scarti al quadrato

  29. Parametri descrittivi • Legge dei grandi numeri: Al crescere del numero delle prove dove pE è la probabilità dell'evento E, fE la sua frequenza,  una costante qualsiasi > 0.

  30. Parametri descrittivi • Percentile: ordinando i casi secondo il valore di una variabile, l'n-esimo percentile è il limite al di sotto del quale si trova l'n% dei casi. • Mediana: punto che divide la popolazione in due parti di uguale numerosità. Corrisponde al 50 percentile. • Moda: valore per cui si ha un picco di frequenza. Caratterizza la distribuzione, che risulta unimodale, bimodale etc. a seconda dei picchi presenti.

  31. Distribuzioni di Probabilità Insieme dei valori di probabilità che competono a ciascun valore della variabile. Funzione di distribuzione: funzione che rappresenta per ogni x la probabilità di ottenere un valore minore o uguale a x.

  32. Distribuzioni di Probabilità • Se la variabile è discreta abbiamo una probabilità per ogni valore x discreto della variabile. • La funzione di distribuzione si ottiene sommando le probabilità di tutti i casi aventi un valore inferiore ad X.

  33. Distribuzioni di Probabilità • Se la variabile è continua la probabilità di un singolo valore della variabile è nulla essendo la probabilità di un valore su infiniti valori possibili. La funzione di distribuzione viene allora definita da • La funzione f(x) è la densità di probabilità e rappresenta la probabilità che il valore di x sia compreso in un intervallo infinitesimo, diviso per l’ampiezza dell’intervallo.

  34. Distribuzioni di Probabilità DISTRIBUZIONE UNIFORME Distribuzione relativa ad una variabile discreta o continua avente uguale probabilità per ciascun suo valore.

  35. Distribuzioni di Probabilità Distribuzione Binomiale Se il risultato di una prova può essere il successo S o l'insuccesso I con uguale probabilità p=q=1/2, i risultati possibili di due prove sono SS SI IS II ciascuno con probabilità 1/4.

  36. Distribuzione Binomiale In generale su n prove la probabilità di s successi è data da: dove

  37. Distribuzione Binomiale • Se p=q=1/2 La distribuzione sarà simmetrica

  38. Distribuzione Binomiale Funzione di Distribuzione (Distribuzione Cumulativa)

  39. Distribuzione Binomiale Se la probabilità di successo p è diversa dalla probabilità di insuccesso q=1‑p allora la probabilità di s successi è data da

  40. Distribuzione Binomiale Se La distribuzione sarà asimmetrica

  41. Distribuzione Binomiale Funzione di Distribuzione (Distribuzione Cumulativa)

  42. Test con la distribuzione binomiale

  43. Test con la distribuzione binomiale

  44. Test con la distribuzione binomiale

  45. Distribuzioni di Probabilità DISTRIBUZIONE NORMALE (GAUSSIANA) • Limite della distribuzione binomiale. • Curva degli errori. • Distribuzione a massima entropia.

  46. DISTRIBUZIONE NORMALE (GAUSSIANA) Limite della distribuzione binomiale. Al crescere di n la distribuzione binomiale tende ad una distribuzione normale con media np e varianza npq.

  47. DISTRIBUZIONE NORMALE (GAUSSIANA) Curva degli errori. Condizioni: • un errore è la somma di molte componenti di uguale ampiezza • le diverse componenti sono fra loro indipendenti • ciascuna componente è positiva o negativa con uguale probabilità allora l'ampiezza dell'errore ha una distribuzione normale.

  48. DISTRIBUZIONE NORMALE (GAUSSIANA) Distribuzione a massima entropia. La distribuzione normale è la distribuzione di probabilità con la massima entropia per una variabile compresa fra ‑ e + ed avente un data media e varianza. È quindi la distribuzione meno strutturata, la più casuale.

  49. DISTRIBUZIONE NORMALE (GAUSSIANA) Una generica variabile normale con media  e varianza ² èindicata con N(,²) e la sua densità di probabilità è

  50. DISTRIBUZIONE NORMALE (GAUSSIANA) Essendo la distribuzione di una variabile continua il suo valore per un dato x corrisponde alla densità di probabilità per quel valore.

More Related