1 / 20

Lezione B.2 Introduzione alla probabilità e alle probabilità condizionate

TQuArs – a.a. 2010/11 Tecniche quantitative per l’analisi nella ricerca sociale Giuseppe A. Micheli. Lezione B.2 Introduzione alla probabilità e alle probabilità condizionate. Una teoria molto utile per la pratica. Una branca della matematica, detta. Calcolo delle probabilità.

vinnie
Télécharger la présentation

Lezione B.2 Introduzione alla probabilità e alle probabilità condizionate

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. TQuArs – a.a. 2010/11 Tecniche quantitative per l’analisi nella ricerca sociale Giuseppe A. Micheli Lezione B.2 Introduzione alla probabilità e alle probabilità condizionate

  2. Una teoria molto utile per la pratica.. Una branca della matematica, detta Calcolo delle probabilità • ricostruisce per via deduttiva (non induttiva!) la ‘struttura’ di tutti i possibili campioni, quando: • Sia nota la composizione dell’intera popolazione • Il campione sia estratto rigorosamente ‘a caso’ • L’inferenza funziona dunque: • assumendo che siano soddisfatte le regole del calcolo delle probabilità • risalendo dal risultato empirico ottenuto nel campione a una valutazione generale del collettivo

  3. Breve storia del concetto di probabilità Fino al tardo Rinascimento la parola ‘probabile’ indicava una opinione ‘approvata’ da una auctoritas degna di rispetto (Aristotele, le Scritture). Lungo il XVI secolo come fornitore di probabilità tende ad essere accettato un nuovo tipo di testimonianza autorevole: l’evidenza dei ‘segni’ che la Natura offre, ma che richiedono di essere interpretati (G. Fracastoro, De contagione, 1546). Così il concetto moderno di probabilità matura con gradualità ma insieme le sue due anime: L’anima ‘frequentista’ (l’evidenza sta nei segni naturali a favore, donde il calcolo degli ‘azzardi’ di combinazioni possibili) L’anima ‘soggettivista’ (l’evidenza sta nella coerenza interna del ragionamento che inter-preta i segni a favore)

  4. L’emergenza della probabilità Il concetto di probabilità ‘calcolabile’ emerge in modo maturo tutto insieme in più studiosi nell’arco di soli 10 anni, mante-nendo la sua dualità di fondo tra: Una probabilità ‘aleatoria’ Una probabilità ‘epistemica’ B.Pascal 1662, Logique ou l’art de penser (scommessa sulla esisten-za di Dio) C.Huysgens 1657, De ratiociniis in aleae ludo (scommesse e vita-lizi) G.Leibniz 1665, De conditionibus (diritti condizionali, grado di pro-babilità di un verdetto) J.Graunt 1662,Natural & political observations (funzione di morta-lity hazard)

  5. La legge empirica del caso L’approccio frequentista interpreta la probabilità come qualità primaria di un fenomeno, approssimata dalla frequenza relativa al ripetersi di molti esperimenti sempre uguali. Questa concezione discende da un risultato ‘di senso comune’: Sia {Xn} una successione di ri-levazioni sulle misure di un e-sperimento (per es. la succes-sione di lanci di una moneta). Sia mn la media di tutti gli e-sperimenti dal primo all’ultimo condotto (per es. la frequenza di ‘teste’ nei lanci). Empiricamente si trova che la media tende a stabilizzarsi al crescere delle misure. Legge empirica del caso frequenza di ‘teste’ 1.0 0.5 Numero dei lanci 1 10 100 Definiamo probabilità il valo-re a cui ‘converge’ la media mn degli esperimenti.

  6. Definizioni frequentista e classica di probabilità La legge empirica del caso giustifica una definizione frequentista del concetto di probabilità: “Per un evento che si ritiene si ripeta sempre nelle stesse condizioni, la probabilità è il rapporto tra il numero di volte che l’evento capita e il numero totale delle osservazioni”. questa definizione presuppone la ripetibilità di un esperi-mento. Il concetto di probabilità si estende invece anche ad eventi non ripetibili, o unici (se non ci fosse stato Serajevo, è probabile che la guerra mondiale sarebbe scoppiata più tardi) ma… Definizione più formale è quella ‘classica’ (Laplace 1795): Essa è viziata da una clamorosa tautologia, ‘riparata’ dal princi-pio di ragione insufficiente: PROBABILITA’di un evento A è il rapporto tra il numero di casi fa-vorevoli al verificarsi di A e il to-tale dei casi possibili, a condizione che siano tutti EQUIPOSSIBILI. I casi sono equipossibili se non vi sono valide ragioni per sostenere il contrario

  7. Calcolare la probabilità di un evento semplice Uno spazio degli eventi è come un barattolo in cui siano stati inseriti tutti gli eventi semplici. F M F M F M M spazio degli eventi In questo ‘barattolo’ siano rinchiusi, per esempio, i sette studenti di una classe: quattro maschi, tre femmine. Supponiamo che si sappia che uno solo di loro verrà promosso, e non per merito ma ‘a caso’! Se l’esperimento consiste nell’estrarre a caso l’unico studente che verrà promosso, la definizione di Laplace ci consente già di calcolare la pro-babilità che sia promossa una ragazza piuttosto che un ragazzo: P(F/esperimento unico) = (casi favorevoli)/(casi possibili) = 3/7 = 0,429 P(M/esperimento unico) = (casi favorevoli)/(casi possibili) = 4/7 = 0,571

  8. Calcolare probabilità ‘composte’ Ma supponiamo che ora il professore voglia fare un paio di interrogazioni (non una sola), e che anche in questo caso selezioni gli studenti da interrogare rigorosamente a caso. Ora l’esperimento si complica: esso non si risol-ve più in una sola estrazione, ma nella combi-nazione di due esperimenti. F M F M F M M spazio degli eventi Come calcolare, per esempio, la probabilità che entrambi gli studenti in-terrogati siano ragazze? Per rispondere va sciolto un dubbio preliminare: Sono due interrogazioni in giorni differenti? Può anche essere ‘estratto’ lo stesso studente due volte Sono due interrogazioni nello stesso giorno? Gli studenti devono essere due distinti

  9. Prima via di calcolo: esperimenti composti Per calcolare una probabilità condizionata seguiremo due vie equivalenti: Il ‘calcolo’ delle probabilità vincolata avviene a partire dall’algebra degli eventi e dalla teoria delle probabilità che diamo già per acquisita. Un approccio assiomatico Perviene alla probabilità vincolata tramite il calcolo di tutte le combinazioni di risultati fa-vorevoli all’accadere di un dato evento. Un approccio combinatorio Seguiamo la prima strada, e consideriamo una classe di 7 studenti, 4 ragazzi (M) e 3 ragazze (F), che racchiudiamo in un barattolo (lo possiamo definire ‘spazio degli eventi’). Sappiamo che due di loro saranno interrogati oggi, e saranno scelti (orrore!) a caso. Saranno ragazzi o ragazze? Due in- terroga- ti:M o F? M M F M M M F Non si tratta di un esperimento semplice (una singola estrazione), ma di un esperimento composto. Composto cioè a sua volta da due esperimenti sem-plici che però sono forse legati tra loro dal disegno di campionamento pre-scelto: dal modo cioè in cui avviene la selezione delle unità estratte a sorte.

  10. Campionamento con/senza reimmissione Supponiamo che la prima estratta sia stata una ragazza (F). E’ sensato che essa non possa essere conteggiata (e interrogata) due volte (una persecuzione!); cioè che non venga reinserita nell’urna per la seconda estrazione. Così facendo, alla seconda estrazione il baratto-lo (l’urna) avrà una composizione differente (4 M, 2 F) e la probabilità di estrarre ancora F cambia: F M M F P(F/I esp=F) = 2/6 M M F Ma supponiamo che l’estrazione non riguardi una interrogazione (non reiterabile) ma la sottoposizione di una domanda (due domande a uno stesso studente ‘se po ffà’!). Ora la ragazza già interpellata è reinserita nell’urna e la probabilità cercata è P(F/I esp=F) = 3/7 ed è ora immutata rispetto al primo esperimento! F Siamo dunque di fronte a due differenti disegni di campionamento: senza reimmissione, con reim-missione. La probabilità che cerchiamo è ‘condi-zionata’ dal tipo di campionamento prescelto. M M F M M F

  11. Principio delle probabilità composte Abbiamo usato una scrittura nuova: P(II=F/I=F) per indicare la probabi-lità di osservare (alla II estrazione) una F, vincolata al (condizionata dal) fatto che nella I estrazione sia stata osservata una F. Chiamiamo questa espressione probabilità condizionata. Essa compare in un fondamentale postulato del calcolo delle probabilità, il La probabilità dell’intersezione di due eventi A e B è pari al prodotto tra la probabilità del primo evento e la pro-babilità del secondo condizionata al verificarsi del primo P(A  B)= P(A).P(B/A) = P(B).P(A/B) Principio delle probabilità composte Nota bene: spesso scriveremo una probabilità congiunta P(AB) per brevità in questo modo: pAB Nel caso di estrazione dalla popolazione di sette studenti senza reimmissione nella urna (al mas-simo una interrogazione a testa) la probabilità che siano interrogate due ragazze è quindi: P(I=FII=F)=P(I=F).P(II=F/I=F)=(3/7).(2/6)=6/42= 0,14

  12. Eventi indipendenti Supponiamo ora che le due estrazioni avvengano da urne distinte, con la stessa composizione. Estrarre una F dalla I urna non condiziona l’esito della II estrazione! F F F F F F M M M M M M M M Definiamo indipendenti due eventi A e B se la probabilità di accadi-mento dell’uno non è influenzata dall’esito dell’altro P(B/A) = P(B) o anche P(A/B) = P(A) e quindi… Se due eventi sono indipendenti la probabilità dell’intersezione è pari al prodotto delle probabilità P(A  B)= P(A).P(B) Esempio dei sette studenti ‘con reimmis-sione’ (regola di ‘estrazione’: possibili più domande allo stesso studente): P(I=FII=F)=P(I=F).P(II=F)= =(3/7).(3/7) = 9/49 = 0,18 Fin qui gli eventi A e B sono risultati di uno stesso esperimento, ripetuto sulla stes-sa popolazione. L’intersezione (AB) può anche abbinare: a) risultati riferiti a due caratteri diversi rilevati sulla stessa popolazione o b) risultati riferiti a uno stesso carattere rilevato in due popolazioni distinte

  13. Un esempio: dai quattro salti in compagnia MA Facciamo un secondo esempio. La prima volta che vanno fuori insie-me la sera 10 ragazzi (5 maschi, 5 femmine) decidono di andare a ballare. Dei maschi 3 sono biondi (MA) e 2 castani (MB), tra le ra-gazze 2 sono bionde (FA) e 3 castane (FB). FB MB FB MA FB FA MB MA FA E’ la prima volta che escono, s’è detto, e gli abbinamenti per ballare avvengono quindi ‘a caso’. E’ come se la formazione delle coppie avvenisse per estrazione da urne distinte per popolazioni distinte (una per i maschi, una per le femmine). I risultati della prima urna non condizionano quelli della seconda (nessuna simpatia o nessun veto preconcetto). La probabilità di ogni possibile combinazione è quindi calcolabile a partire dalle probabilità dei singoli eventi, tra loro indipendenti: P(FB MA)= P(FB).P(MA/FB)= P(FB).P(MA) = (3/5)x(3/5)= 9/25 P(FB MB)= P(FB).P(MB/FB)= P(FB).P(MB) = (3/5)x(2/5)= 6/25 P(FA MA)= P(FA).P(MA/FA)= P(FA).P(MA) = (2/5)x(3/5)= 6/25 P(FA MB)= P(FA).P(MB/FA)= P(FA).P(MB) = (2/5)x(2/5)= 4/25

  14. .. alla formazione di coppie fisse MB FA Passa qualche tempo, e le coppie tra gli 8 ragazzi sono ormai fisse. Non c’è più indipendenza tra i due eventi ‘estrazione di un lui’ e ‘estrazione di una lei’. Ora anche se conosco sia la probabilità di un ragazzo casta-no (P(MB)=2/5) sia la probabilità di una ragazza castana (P(FB)=3/5) non sono in grado di calcolare la probabilità di trovarmi di fronte a una coppia di ragazzi entrambi castani. Essa infatti dipende da come si sono ‘combinate’ le coppie: MA MA MA MB Per esempio così: 2(MAFA),1(MAFB), 2(MBFB) In questo caso P(FA/MB)=0 (chi si somiglia si piglia) Ma anche così: 3(MAFB), 2(MBFA) In questo caso P(FA/MB)=1 (attrazione degli opposti) Oppure così: 1(MAFA),2(MAFB),1(MBFA),1(MBFB) In questo caso P(FA/MB)=0,5 (una via di mezzo) Le probabilità condizionate dipendono dall’effettiva distribuzione delle probabilità congiunte.

  15. Tabella di distribuzione congiunta Possiamo ricondurre le numerosità (#) congiunte che abbiamo elencato a una forma compatta, quella di una tabella a doppia entrata. Come nel gioco della battaglia navale (F7: affondato!), ogni casella interna alla tabella riporta il numero di casi in cui si osservano congiuntamente l’evento indicato in testa a quella riga e l’evento indicato in testa a quella colonna. Dividendo la numerosità di casi favorevoli a una certa combina-zione di caratteri (per es. ragazzi biondi e ragazze castane) per il numero totale delle coppie si trova la corrispondente probabilità congiunta. Per es. P(MBFA) = P(MB,FA) = 0/5 P(FA/MB)=#(MB,FA)/#(MB)=0/2=0 Biondi con bionde: chi si somiglia si piglia P(MBFA) = P(MB,FA) = 2/5 P(FA/MB)=#(MB,FA)/#(MB)=2/2=1 Biondi con castane:gli opposti si attirano

  16. Un altro esempio: disoccupazione e natalità Facciamo un altro esempio, ragionando più in grande. Delle 90 province di un paese 60 abbiano un tasso di disoccupazione alto (D+), le altre 30 un tasso basso (D-). Quindi P(D+)=0,67. Sappiamo anche che 40 province su 90 hanno un tasso di natalità alto (N+), le altre 50 basso (N-). Quindi P(N+)=0,44. Ci domandiamo: qual è la probabilità di una provincia ad alta nata-lità e ad alta disoccupazione P(N+/D+) e qual è la probabilità di una provincia ad alta natalità e bassa disoccupazione P(N+/D-)? La risposta è: “chi lo sa?”. Infatti per definizione P(B/A)=P(AB)/P(A), quindi si possono determinare le probabilità condizionate solo se si conosce la forma della distribuzione delle probabilità congiunte. Ancora una volta si possono dare tante distinte distribuzioni congiunte di pro-babilità, a cui si associano probabilità condizionate differenti. Noi facciamo tre ipotesi di combinazioni possibili (voi fatene altre!): in tutte tre sono rispettate le probabilità ‘semplici’ indicate.

  17. Flip-flop theory.. Anche in questo caso invece di elencare le combinazioni (DN) in diverse possibili distribuzioni adottiamo la forma più compatta della tabella a doppia entrata. Morale: spesso ad ogni possibile forma della associazione tra due caratteri sappiamo abbinare una diversa teoria (gli studiosi parlano di flip-flop theories..) Notate bene: nel primo caso P(N+/D+)=40/60 è maggiore di P(N+/D-)=0/30. In questo caso ci butteremmo sull’ipotesi che disoccupazione vuol dire pover-tà e i poveri si sa fan molti figli. Nel secondo caso invece P(N+/D+)=20/60 è minore di P(N+/D-)=20/30. In questo caso ci butteremmo sull’ipotesi che una coppia razionale farà figli solo ha un lavoro. Se poi P(+/D+) e P(N+/D-) sono grosso modo uguali, come nel terzo caso, non sapremmo (per fortuna!) che interpreta-zione dare..

  18. Probabilità composte di più di due eventi Con l’introduzione del concetto di probabilità condizionata siamo in grado di calco-lare probabilità composte (o congiunte) in cui gli esperimenti non siano solo due. Torniamo quindi a modelli probabilistici con un esperimento ripetuto più volte sulla stessa popolazione. Ci troveremo di nuovo davanti al bivio tra esperimenti indipendenti (con reimmissione) o dipendenti. Partiamo da un esempio classico, sulla composizione di una delegazione estratta a caso. Una Commissione della Camera composta da 11 deputati, 7 del Polo (P) e 4 dell’Ulivo (U), deve affidare a una delegazione ristretta di 3 un compito delicato,ma non riesce a mettersi d’accordo sui nomi. Deve allora estrarla a sorte. Ci si chiede: Ovviamente nessun deputato può essere nominato due volte in una stessa commissione! • Qual è la probabilità che: • sia composta tutta da P? • sia composta tutta da U? • abbia maggioranza P? P P U U P P Il problema dunque è di campionamento senza reimmissione nell’urna P U U P P scuoti prima dell'uso

  19. Maggioranza e unanimità (senza reimmissione) Probabilità che la commissione sia composta tutta da P: P(P,P,P) = P(I=P)*P(II=P/I=P)*P(III=P/(I=P)(II=P)) = = (7/11)*(6/10)*(5/9) = (7*6*5)/(11*10*9) = 0,212 Probabilità che la commissione sia composta tutta da U: P(U,U,U) = P(I=U)*P(II=U/I=U)*P(III=U/(I=U)(II=U)) = = (4/11)*(3/10)*(2/9) = (4*3*2)/(11*10*9) = 0,024 Probabilità che la commissione abbia maggioranza P: P(P,P,P  P,P,U  P,U,P  U,P,P) = P(P,P,P)+3 P(P,P,U) P(P,P,U) = P(I=P)*P(II=P/I=P)*P(III=U/(I=P)(II=P)) = =(7/11)*(6/10)*(4/9)=(7*6*4)/(11*10*9)=0,170 Dunque P(maggioranza P) = 0,212 + (3*0,170) = 0,722 Verificate o dimostrate voi che P(P,P,U) = P(P,U,P) = P(U,P,P) !

  20. Maggioranza e unanimità (con reimmissione) Torniamo alla nostra Commissione. Ora deve nominare un Presidente a rotazione per ogni settimana, per tre settimane. Ma anche in questo caso litigano a sangue e decidono di rimettere alla sorte le tre nomine. Solo, è legittimo in questo caso che una stessa persona svolga più volte lo stesso ruolo. Si tratta quindi di campionamento con reimmissione. Prob (commissione tutta di P) = = P(P,P,P) = P(P)*P(P)*P(P) = = [(7/11)3] =[(0,6363] = 0,258 Prob (maggioranza di P) = = P(P,P,P) + 3 P(P,P,U) = = 0,258 + 3 [P(P)*P(P)*P(U)]= = 0,258 + 3[(7/11)2 * (4/11)]= = 0,258 + 3[0,147]= 0,699 Prob (commissione tutta di U) = = P(U,U,U) = P(U)*P(U)*P(U) = = [(4/11)3] =[(0,3643] = 0,048 Di quale combinazione non abbiamo calcolato la probabilità? Calcolatela, e verificate che la som-ma di probabilità disgiunte è = 1!!

More Related