1 / 56

Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna)

Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna). BIOSTAT 2013 Asti, 1° luglio 2013. 1) Eventi elementari e composti.

trilby
Télécharger la présentation

Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna)

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Introduzione al calcolo delle probabilitàa cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013

  2. 1) Eventi elementari e composti • Un esperimento aleatorio consiste in una prova (o insieme di prove) il cui risultato è noto solo dopo l’effettuazione dell’esperimento stesso. La prova può essere appositamente eseguita (lancio di un dado) oppure essere una prova di osservazione (rilevazione della pressione sistolica di un paziente). • Il risultato di un esperimento aleatorio si dice evento. Prima di eseguire l’ esperimento un evento E può essere certo, possibile o impossibile. Una volta eseguito l’esperimento l’evento E può risultare vero o falso. • I singoli risultati di un esperimento sono detti eventi elementari; aggregando tra loro gli eventi elementari si possono costruire eventi composti. • Per ottenere degli eventi composti si possono utilizzare le operazioni logiche sugli eventi.

  3. Esempi di esperimento aleatorio • Si conta il numero di battiti cardiaci di un paziente durante un minuto. Eventi elementari : 65 battiti, 80 battiti, 87 battiti, 125 battiti ecc. Eventi composti: - bradicardia leggera (da 55 a 69 battiti) - ritmo cardiaco “normale” (da 70 a 84 battiti) - ritmo cardiaco accelerato (da 85 a 99 battiti) - tachicardia (da 100 a 119 battiti) ecc. ° Si conta il numero di petali di una margherita. ° Si misura la statura di un adolescente. ° Si estrae una carta da un mazzo francese di 52.

  4. 2) Operazioni logiche sugli eventi Evento contrario Se E è un evento associato a un determinato esperimento aleatorio, l’evento contrario – E è l’evento che risulta vero quando E risulta falso, e viceversa. Unione di due eventi Se A e B sono due eventi, l’unione A U B è l’evento che si verifica se, al termine dell’esperimento, almeno uno degli eventi A e B risulta vero. Intersezione di due eventi Se A e B sono due eventi, l’intersezione A ∩ B è l’evento che si verifica se, al termine dell’esperimento, entrambi gli eventi A e B risultano veri. Differenza di due eventi Se A e B sono due eventi, la differenza A - B è l’evento che si verifica se, al termine dell’esperimento, l’evento “minuendo” A risulta vero e l’evento “sottraendo” B risulta falso.

  5. Esempio di operazioni logiche • Esperimento: si misura la temperatura corporea di un paziente anziano. • Evento A “la temperatura è superiore a 38°C”; Evento B “la temperatura è compresa tra 37°C e 39°C” • Evento contrario –A : “la temperatura non supera i 38°C” • Unione A U B : “la temperatura supera i 37°C” • Intersezione A ∩ B: “la temperatura è compresa tra 38°C e 39°C” • Differenza A - B: “la temperatura supera i 39°C” • Differenza B - A: “la temperatura è compresa tra 37°C e 38°C” Come avviene per la differenza aritmetica, la differenza tra due eventi NON è simmetrica, per cui l’evento A-B è diverso da B-A.

  6. 3) Relazioni tra eventi • Un evento che risulta sempre vero, indipendentemente dal risultato dell’esperimento, si dice evento certo (simbolo W). • Un evento che risulta sempre falso, indipendentemente dal risultato dell’esperimento, si dice evento impossibile (simbolo f). • Due eventi A, B la cui intersezione A ∩ B è un evento impossibile, per cui essi non possono mai verificarsi contemporaneamente, si dicono eventi incompatibili. Dati tre o più eventi tali per cui ogni loro coppia è formata da eventi incompatibili, si dicono incompatibili a due a due. • Due eventi A, B la cui unione A U B è un evento certo, per cui almeno uno di essi deve per forza verificarsi, si dicono eventi esaustivi. Se gli eventi sono più di due, si dicono esaustivi se la loro unione è un evento certo.

  7. 4) Proprietà delle operazioni logiche • Proprietà associativa: (A U B) U C = A U (B U C); (A ∩ B) ∩ C = A ∩ (B ∩ C) • Proprietà commutativa: A U B = B U A; A ∩ B = B ∩ A • Proprietà distributiva: A U (B ∩ C) = (A U B) ∩ (AU C); A ∩ (B U C) = (A ∩ B) U ( A ∩ C) • Relazione con un evento certo: A U W = W ; A ∩ W = A; • Relazione con un evento impossibile: A U f = A ; A ∩ f = f

  8. 5) Spazio degli eventi • Lo spazio degli eventi è l’insieme di tutti gli eventi elementari associati a un esperimento aleatorio. Esso si indica con la lettera W . • Lo spazio degli eventi può essere: - finito, ossia formato da un numero limitato di eventi. - infinito numerabile, formato da un numero illimitato di eventi che possono essere ordinati in modo naturale. - infinito continuo, formato da un’infinità continua di eventi. • Lo spazio degli eventi è infinito continuo ogni volta che si esegue una misurazione. • Per determinare il numero di eventi di uno spazio finito, si può fare uso del calcolo combinatorio.

  9. 6) Calcolo combinatorio: permutazioni e disposizioni Permutazioni In quanti modi si possono permutare (ordinare) n elementi distinguibili? Al primo posto della sequenza ci sono n possibili scelte, al secondo ce ne sono n-1, al terzo n-2 e così via fino all’ultimo posto dove si colloca l’ultimo elemento rimasto a disposizione. Pertanto, le permutazioni di n elementi sono n(n-1)(n-2)…3∙2∙1 = n! Disposizioni semplici Se voglio costruire gruppi ordinati prendendo solo k degli n elementi a disposizione, le scelte possibili sono: n(n-1)(n-2)…(n-k+1)=n!/(n-k)! Disposizioni con ripetizione Se ammetto la possibilità di ripetere lo stesso elemento nel gruppo, le scelte possibili diventano n ∙ n ∙ n … ∙ n = nk

  10. Esempi di permutazioni e disposizioni • Un paziente decide di fare cinque esami clinici di controllo: ECG, EEG, Ematocrito, Ecografia addominale, Esame dermatologico. Può fare gli esami nell’ordine che preferisce, non essendoci nessuna urgenza. In quanti ordini diversi può eseguire gli esami? P5= 5! = 120 • Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici, Avendo in tutto 11 testi da studiare, quante scelte possibili ha? D11,6=11∙10∙9∙8∙7∙6 = 332.640 • Un medico ha la possibilità di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia. In quanti modi può scegliere il farmaco da dare a ciascuno? D(R)3,8=38 = 6.561

  11. 7) Calcolo combinatorio: combinazioni Combinazioni semplici Se voglio estrarre un sottoinsieme di k elementi da un insieme di n elementi, in quanti modi diversi posso farlo? Il numero di scelte corrisponde al cosiddetto coefficiente binomiale: Combinazioni con ripetizione Se ammetto la possibilità di ripetere lo stesso elemento nel gruppo, le scelte possibili diventano:

  12. (segue Combinazioni) Combinazioni multiple Se voglio suddividere n elementi in k gruppi, di cui il primo gruppo contiene n1 elementi, il secondo ne contiene n2 e così via, il numero di scelte possibili diventa: Esempio. Sesi vogliono suddividere 15 impiegati in tre uffici, rispettivamente di 6, 5, 4 impiegati ciascuno, le scelte possibili sono:

  13. Esempi di combinazioni • Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere. Se decide di portare con sé 5 libri, quante scelte possibili ha? • Un signore galante vuole regalare un mazzo di 4 fiori a una donna, e può scegliere tra 7 qualità differenti. Quante scelte possibili vi sono di formare il mazzo? • Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli, rispettivamente di 7, 5 e 4 anni. Se decidesse di regalare a ciascuno una bustina per ogni anno di età, in quanti modo diversi potrebbe distribuire le bustine?

  14. 8) Definizioni di probabilità • Definizione classica (Laplace) P(E)=N° di casi favorevoli / N° di casi possibili (è applicabile solo quando si eseguono prove ripetute nelle medesime condizioni, e quando i cosiddetti “casi possibili” sono tutti “alla pari”) • Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dell’evento E al tendere all’infinito del numero delle prove. (è applicabile a tutti i fenomeni in cui si può raccogliere una cospicua base di dati) • Definizione soggettivista (Ramsey, de Finetti) P(E)=grado di fiducia che un “valutatore”, in possesso di determinate informazioni, possiede nel verificarsi di un evento E. Il grado di fiducia può essere determinato attraverso il meccanismo della scommessa.

  15. 9) Assiomi del calcolo delle probabilità • I tre assiomi base della probabilità furono enunciati dal russo Andrej N. Kolmogorov (1903-1987) • Primo Assioma: la probabilità non ha segno, per cui non esistono eventi con probabilità inferiore allo zero: P(E)≥0 • Secondo Assioma: la probabilità dell’intero spazio degli eventi è pari a 1: P(Ω)=1 • Terzo Assioma: se due eventi sono incompatibili, la probabilità della loro unione è pari alla somma delle singole probabilità degli eventi: se A∩B=f, allora P(AU B) = P(A)+P(B) • Il terzo assioma può venire esteso anche a un’infinità numerabile di eventi, purchè siano incompatibili a due a due.

  16. 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov • Se l’evento E ha probabilità p (0<p<1), l’evento contrario –E ha probabilità 1-p. • Un evento impossibile ha probabilità nulla; P(f)=0. • La probabilità dell’evento differenza A-B è pari alla probabilità di A meno la probabilità dell’intersezione A∩B. • La probabilità dell’unione A U B di due eventi qualsiasi è pari alla somma delle probabilità di A e di B, meno la probabilità dell’intersezione A∩B. • La probabilità dell’intersezione A∩B di due eventi qualsiasi è pari alla somma delle probabilità di A e di B, meno la probabilità dell’unione A U B.

  17. 11) Probabilità condizionata • Gli eventi, in molti casi, si influenzano reciprocamente. Per esempio, in ambito biomedico, un tossicodipendente può contrarre più facilmente alcune patologie a causa dello stress fisico conseguente all’assunzione di sostanze tossiche. E’ quindi spesso opportuno studiare, oltre ai singoli eventi a alle loro probabilità, le relazioni tra eventi, e in particolare come l’avverarsi di un certo evento possa eventualmente modificare le probabilità di verificarsi di altri eventi. • La probabilità condizionata P(B|A) è appunto la probabilità che ha l’evento B di verificarsi, supponendo che l’evento A si sia già verificato: • Vale pertanto la seguente “regola del prodotto”:

  18. 12) Eventi indipendenti • Il verificarsi dell’evento A può aumentare la probabilità dell’evento B (allora vi è correlazione positiva tra i due eventi). Può diminuirla (correlazione negativa) o lasciarla invariata. • Se P(B|A) = P(B), allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (più sinteticamente indipendenti). • Se gli eventi A e B sono indipendenti, la probabilità della loro intersezione diviene: • Tale risultato può essere esteso a un numero qualsiasi di eventi. Si deve però distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due.

  19. Esempi di eventi “incompatibili “e “indipendenti” • I due aggettivi “incompatibili” e “indipendenti” identificano due situazioni completamente diverse che non vanno confuse. • Due eventi incompatibili si escludono categoricamente l’un l’altro: testa o croce, numero pari o dispari, soglia critica diagnostica superata o non superata, linfoma Hodgkin o non-Hodgkin e così via. • Due eventi indipendenti possono senz’altro verificarsi entrambi, il punto è che la probabilità rimane la stessa, appunto, indipendentemente dal verificarsi dell’altro evento. • Lanciando un dado e una moneta, gli eventi “4” e “croce” sono evidentemente indipendenti; altrettanto possono essere gli eventi “paziente diabetico” e “paziente di gruppo sanguigno A” oppure “voto nell’esame di statistica” e “segno zodiacale del candidato”.

  20. 13) Passaggio dall’evento contrario • Come già evidenziato in precedenza, la probabilità dell’evento contrario -E è uguale al complemento a 1 della P(E). A volte, per calcolare la probabilità di un evento, è molto più semplice calcolare prima la probabilità dell’evento contrario e sottrarla dal valore 1. • Per esempio, se lancio cinque volte il dado e voglio calcolare la probabilità dell’evento “almeno un dado presenta il 6” è molto più veloce calcolare la probabilità dell’evento contrario: • P(-E) = P(nessun dado presenta il 6) = (5/6)5 = 3125/7776 = 40,2% A questo punto si può calcolare P(E) = 1 – 0,402 = 0,598 = 59,8% • In generale, ogni volta che si vuol calcolare la probabilità di eventi del tipo “almeno un elemento è di un certo tipo” o magari “almeno due elementi…” ecc., si può fare il passaggio dall’evento contrario.

  21. (segue) • Se l’evento è del tipo «almeno 2 eventi si verificano», dal valore 1 vanno sottratti la probabilità che non si verifichi nessun evento e la probabilità che se ne verifichi uno solo. • Esempio: qual è la probabilità di ottenere almeno due teste lanciando sei monete? • P(0 teste) = (1/2)6 = 1/64 • P(1 testa) = 6 · (1/2)6= 6/64 • P(almeno due teste) = 1 – 1/64 – 6/64 = 57/64.

  22. 14) Il problema del compleanno • Un esempio di applicazione del metodo dell’evento contrario è il classico “problema del compleanno”, che consiste nel calcolare la probabilità che, in un insieme di k persone, almeno due festeggino il compleanno nello stesso giorno dell’anno. • Supponiamo che sia k = 35. La probabilità che tutti i 35 compleanni siano diversi, supposta l’indipendenza di tutti i compleanni. è la seguente: • P(tutti diversi) = 364/365∙ 363/365∙ 362/365∙...∙ 331/365 = 0,1856 • Pertanto la probabilità di avere almeno due compleanni coincidenti è la seguente: P(E) = 1 – P(-E) = 1 – 0,1856 = 0,8144 = 81,44% • Tale probabilità è decisamente più alta di quello che l’intuito porta a pensare, e aumentando il numero di persone la probabilità si avvicina rapidamente a uno. Con k=50 si ha infatti P(E) = 97,04%

  23. Il problema del compleanno (segue) • Per avere una probabilità di doppio compleanno superiore al 50%, è sufficiente considerare un gruppo di sole 23 persone. • Per avere una probabilità del 90%, occorre radunare 41 persone. Per avere una probabilità del 95% ce ne vogliono 47, mentre per superare il 99% ne sono necessarie 57. • Se la scelta fosse addirittura tra 1000 opzioni anziché 365 (esempio: ultime tre cifre della carta di identità), i risultati sarebbero ancora più sorprendenti: bastano infatti 38 individui per superare il 50% di probabilità, ce ne vogliono 68 per superare il 90% e appena 77 per superare il 95%.

  24. 15) Il teorema di Bayes: premesse • Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulò per primo un teorema di cui egli stesso non fece in tempo a cogliere l’importanza e la rilevanza che avrebbe avuto sulla probabilità moderna, al punto di essere il punto di riferimento di una importante scuola di pensiero “bayesiana”. Il teorema consiste nell’aggiornare le probabilità (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate. • Vediamo il teorema nella sua formulazione basilare. Siano H1, H2, …, Hk ipotesi esaustive e incompatibili a due a due, per cui una sola può essere vera e tutte le altre sono false. A ciascuna di queste ipotesi va assegnata una probabilità iniziale, che funge da “sistema di pesi”. • Siano P(H1), P(H2), … , P(Hk) le probabilità iniziali delle ipotesi a confronto, e sia E l’evento – o insieme di eventi – che è stato osservato. Quello che interessa sono le probabilità “aggiornate” P(Hj!E), j= 1,2, …, k

  25. Il teorema di Bayes: formulazione • Sia Hj una generica ipotesi tra quelle a confronto. Applicando la definizione di probabilità condizionata si ottiene: • Applicando ora la regola del prodotto e mettendo in evidenza le probabilità iniziali, si trova la formula finale: • Le probabilità inverse P(E|Hi) prendono il nome di verosimiglianze, e rivestono un ruolo fondamentale nel teorema di Bayes. In particolare, se in assenza di informazioni più precise si pone P(Hi)=1/k per ogni i, • Le probabilità finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze.

  26. Teorema di Bayes: applicazione • Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie: A, B e C. L’incidenza della patologia A è di 1 su 1000 persone, quella della patologia B è di 1 su 5000, quella della patologia C è di 1 su 25000. Le probabilità iniziali sono pertanto: • Per aumentare la precisione della diagnosi, il medico ordina di effettuare un esame clinico. Questo esame risulta positivo, tra i pazienti affetti dalla malattia A, nel 10% dei casi; tra i pazienti affetti da B nel 30% dei casi e, tra i pazienti affetti da C, nel 95% dei casi. Il paziente risulta positivo all’esame. Come cambia la distribuzione di probabilità dopo questo risultato clinico?

  27. (segue applicazione) In questo caso l’esame clinico, anziché chiarire la situazione, ha addirittura aumentato l’incertezza, per cui è sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual è la patologia di cui soffre il suo paziente.

  28. 16) Variabili aleatorie discrete • Una variabile aleatoria (reale) è un’applicazione che assegna a ogni evento un numero reale. Per esempio, se nell’esperimento del lancio di una moneta indico con 0 la croce e con 1 la testa, sto definendo una variabile aleatoria. • Se l’esperimento aleatorio di riferimento è un esperimento di conteggio, lo spazio degli eventi è finito o numerabile e la variabile che descrive l’esperimento è una variabile aleatoria discreta. • L’insieme dei valori che può assumere una v.a. discreta è detto il supporto della variabile stessa. Ognuno di questi valori ha una probabilità; l’insieme dei valori del supporto e delle loro probabilità costituisce la distribuzione della variabile aleatoria. La funzione che fornisce le probabilità dei valori del supporto è detta funzione di probabilità.

  29. 17) Funzione di ripartizione • Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilità. La funzione di ripartizione, per un generico valore reale x0, fornisce la probabilità che X non superi tale valore. Indicando tale funzione con FX(x0) si ha quindi: FX(x0) = P(X≤x0). • La funzione di ripartizione, definita per ogni x0 reale, ha le seguenti proprietà: - è non decrescente, per cui se a<b si ha FX(a) ≤ FX(b) - è continua a destra, per cui vale il limite: limxFX(x)= FX(); - valgono i seguenti due limiti: limx -∞ FX(x)= 0;limx +∞ FX(x)= 1;

  30. 18) Mediana e centili • Data la variabile aleatoria discreta X, si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X. • Se esiste un valore x* tale che: P(X<x*)<1/2 e P(X≤x*)>1/2, il valore x* si dice mediana della distribuzione. • Se invece esistono due valori x* e x** tali che: P(X<x*)<1/2, P(X≤x*)=P(X<x**)=1/2; (X≤x**)>1/2, si fissa la semisomma (x*+x**)/2 come mediana della distribuzione. • Se al posto di considerare la metà esatta della distribuzione (mediana) si vuole stabilire quale valore si trova in correspondenza di k/100 della distribuzione, si procede come fatto con la mediana, inserendo però il valore k/100 al posto di 1/2. Il valore ottenuto si dice k–esimo centile della variabile X.

  31. Esempi di determinazione di mediana e centili • Sia X una variabile aleatoria discreta con la seguente funzione di probabilità: P(X=x) = x/10, x = 1, 2, 3, 4. • La mediana si trova osservando che: P(X≤2)= 1/10 + 2/10 = 3/10 (< ½); P(X≤3)= 6/10 (>½). • Pertanto, il valore X=3 è il valore mediano. • Se invece si cerca il 25° centile, ossia il punto corrispondente a ¼ della distribuzione, si può osservare che P(X≤1)=1/10, P(X≤2)= 3/10. Essendo il primo valore minore di ¼ e il secondo maggiore, si può affermare che il 25° centile è il punto X=2. • Sia X il numero di teste nel lancio di 4 monete regolari, Si può calcolare la probabilità P(X=0)=1/16, P(X=1)=1/4, P(X=2)=3/8. • Cumulando le probabilità ottenute si verifica che Me(X) = 2.

  32. 19) Valore atteso di una v.a. discreta • La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa, e sommando i risultati. Il valore atteso di una v.a. X, indicato solitamente con E(X), è l’equivalente teorico della media aritmetica, e si ottiene considerando tutti i valori del supporto, e sostituendo alle frequenze relative le rispettive probabilità. Si ha quindi: • Il valore atteso è sempre compreso tra il valore più piccolo del supporto e quello più grande; inoltre vale la proprietà lineare:

  33. 20) Momenti di una v.a. discreta • Il momento di ordine k della v.a. X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso: • In particolare, il momento di ordine 1 coincide con il valore atteso, mentre secondo della v.a. X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso: Esempio: se consideriamo il lancio di un dado regolare otteniamo: E(X)= 1∙1/6+2∙1/6+3∙1/6+…+6∙1/6 = 21/6 = 3,5 E(X2)= 1∙1/6+4∙1/6+9∙1/6+…+36∙1/6 = 91/6 = 15,2 E(X3)= 1∙1/6+8∙1/6+27∙1/6+…+216∙1/6 = 441/6 = 73,5

  34. 21) Varianza di una v.a. discreta • La varianza di una v.a. discreta è una misura di variabilità, analoga a quella che si definisce per le variabili statistiche, così definita: V(X) = E[X-E(X)]2 = E(X2) – [E(X)]2 • La varianza, essendo una quantità quadratica, non può mai essere negativa ed è espressa nel quadrato dell’unità di misura dei valori assunti da X. • Valgono le seguenti proprietà: - V(X+b) = V(X) - V(aX) = a2 V(X) ; in particolare: V(-X) = V(X) - V(aX+b) = a2V(X) • La radice quadrata della varianza di dice scarto di X: - S(X) = √V(X) • Vale al proprietà: S(aX+b) = |a|∙S(X)

  35. Esempio di calcolo • Sia X una v.a. discreta con la seguente funzione di probabilità: P(X=x) = (5-x)/15, x=0, 1, 2, 3, 4 • Il valore atteso è pari a: E(X) = 0∙5/15 + 1∙4/15 + 2∙3/15 + 3∙2/15 + 4∙1/15 = 20/15 =4/3. • Il momento secondo è invece il seguente: E(X2) = 1∙4/15 + 4∙3/15 + 9∙2/15 + 16∙1/15 = 50/15 = 10/3. • La varianza è infine pari a V(X) = E(X2) – [E(X)]2 = 10/3–(4/3)2= 30/9 – 16/9 = 14/9.

  36. 22) Variabile aleatoria di Bernoulli • Sia X l’esito di una prova in cui vi sono due possibili risultati, rispettivamente indicati con i valori 0 e 1. Sia p la probabilità del valore 1. X si dice variabile aleatoria di Bernoulli di parametro p. • Dunque: P(X=0)=1-p; P(X=1)=p . • Funzione di ripartizione F(x) = 0 per x < 0 = 1-p per 0 ≤ x < 1 = 1 per x ≥ 1 • E(X) = 0∙(1-p)+1∙p = p, E(X2) = p, V(X) = p(1-p)

  37. 23) Variabile aleatoria binomiale • Si effettua un esperimento formato da n prove di Bernoulli, indipendenti e con parametro p costante. Sia X il numero dei “successi” ossia il numero di eventi a cui corrisponde il valore 1. • Funzione di probabilità: • E(X) = n∙p, V(X) = n∙p∙(1-p) • In particolare, se p=1/2 la funzione di probabilità diviene: • Per questo valore si ha inoltre: E(X) = n/2, V(X) = n/4

  38. 24) Variabile aleatoria di Poisson • La variabile di Poisson è molto versatile, ed è stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse è il numero di volte in cui un determinato evento si presenta in un intervallo prefissato., supponendo che la probabilità istantanea dell’evento sia sempre la stessa. • Indicando con l il numero medio di volte in cui l’evento viene osservato nel periodo di tempo, la funzione di probabilità è la seguente: • In particolare, la probabilità del valore zero è P(X=0) = e-l; i valori più probabili sono quelli vicini a l dopodichè la probabilità decresce molto rapidamente. • Il valore atteso e la varianza di X sono entrambi uguali a l.

  39. Esempio di applicazione di Poisson • Il numero di attacchi di emicrania subiti da un paziente ogni settimana può essere un esempio di variabile poissoniana. Se il numero medio di attacchi è 2,5 la distribuzione di probabilità (almeno per i primi valori) è la seguente: • P(X=0) = e-2,5 = 8,21% , P(X=1) = e-2,5 = 20,52% P(X=2) = e-2,5 = 25,65% , P(X=3) = e-2,5 = 21,38% P(X=4) = e-2,5 = 13,36% , P(X=5) = e-2,5 = 6,68% • SI può notare come i tre valori più probabili (1, 2, 3) hanno complessivamente quasi il 70% di probabilità, quindi il paziente di deve aspettare, con buona probabilità, di avere 1 2 o 3 attacchi alla settimana.

  40. 25) Variabili aleatorie continue • Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione. Statura, peso, glicemia, temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo. • In una variabile continua le probabilità non vengono assegnate ai singoli punti, ma piuttosto agli intervalli. Pertanto, al posto della funzione di probabilità tipica delle variabili discrete, si utilizza la funzione di densità di probabilità che dà una misura di addensamento della probabilità nei dintorni di un punto. La funzione di densità non è mai negativa, ma – non rappresentando direttamente una probabilità – può anche superare il valore 1. • La probabilità di un intervallo [a, b] si ottiene effettuando l’integrale definito, da aab, della funzione di densità di probabilità:

  41. 26) Descrizione di una v.a. continua • La funzione di ripartizione di una v.a. continua Y ha lo stesso significato della F.d.R. delle variabili discrete. Essa si ottiene, ancora una volta, applicando il calcolo integrale: • La mediana Me(Y) è il punto in cui la funzione di ripartizione vale esattamente ½, mentre il k-esimo centile è il punto y* in cui vale l’uguaglianza: FY(y*)=k/100 • Il valore atteso E(Y) si ottiene risolvendo il seguente integrale: • Il momento secondo E(Y2) si ottiene risolvendo invece l’ integrale:

  42. 27) Variabile aleatoria uniforme (o rettangolare) • Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto è formato da un intervallo chiuso [a, b] e ogni valore del supporto ha la stessa densità. • Se Y è una v.a. uniforme, la funzione di densità di Y è la seguente: • A sua volta, la funzione di ripartizione di Y è la seguente: • Il valore atteso E(Y) è pari alla semisomma degli estremi (a+b)/2 • La varianza V(Y) è pari a (b-a)2/12

  43. 28) Variabile aleatoria esponenziale • Una variabile aleatoria esponenziale rappresenta un fenomeno, a valori non negativi, in cui la densità è massima intorno al valore y=0 e decresce costantemente al crescere di y. • La funzione di densità di Y è la seguente: • A sua volta, la funzione di ripartizione di Y è la seguente: • Il valore atteso è pari al reciproco del parametro k: E(Y)=1/k. • La varianza è pari a V(Y)=1/k2.

  44. 29) Variabile aleatoria gaussiana • La v.a. gaussiana (o normale) è il modello continuo più noto e diffuso, ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri: la media m e lo scarto s, per cui si scrive N(m,s) • Il supporto è formato dall’intero asse reale, e la funzione di densità di Y è la seguente: • La v.a. gaussiana ha due proprietà molto importanti: - Se Y è N(m,s), la variabile W = a + bY (con b ≠0) è ancora una v.a. gaussiana, di media a + bme di scarto |b| s - Ogni combinazione lineare di v.a. gaussiane a due a due indipendenti è ancora una gaussiana.

  45. 30) Variabile aleatoria normale standardizzata • Data una v.a. gaussiana Y~N(m,s), se si sottrae la media m e si divide il risultato per lo scarto s, si ottiene una v.a. gaussiana Z = (Y-m)/s di media 0 e scarto 1, di cui sono riportati i valori e le loro densità e ripartizioni nelle cosiddette tavole statistiche, che si possono trovare in qualunque manuale. • La funzione di densità di una normale standardizzata è la seguente: • Per risolvere problemi probabilistici sulla v.a. normale generica, si fa solitamente ricorso alla v.a. standardizzata Z, trovando le probabilità cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa: Y = m + sZ .

  46. 31) Variabile aleatoria log-normale • Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W è normalmente distribuita. Pertanto, se la variabile aleatoria Y è N(m,s), la trasformata W = eY è di tipo log-normale. • La mediana di questa distribuzione è Me(W)=em,il valore atteso è pari a E(W)=em+s2/2 e la varianza è pari a V(W)=e2m+s2(es2-1). • Per esempio, se m = 2, s = 1 si ha: Me(W)=e2 E(W)=e5/2 , V(W)= e5(e-1).

  47. 32) Variabile aleatoria chi quadrato • Siano Z1, Z2, …, Zk variabili aleatorie normali, standardizzate, a due a due indipendenti. Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute, si ottiene una nuova variabile: W = Z12 + Z22 +… + Zk2 che prende il nome di v.a. chi quadrato con k gradi di libertà. • Se W è una v.a. chi quadrato con k gradi di libertà, allora si ha: E(W) = k, V(W) = 2k. • La funzione di ripartizione di W non è direttamente esplicitabile, per cui si deve fare ricorso alle tavole della distribuzione chi quadrato. • Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione, che risultano utili per i test statistici.

  48. 33) Variabile aleatoria t di Student • Sia Z una v.a. normale standardizzata e sia Wk una v.a. chi quadrato, con k gradi di libertà, indipendente da Z. La variabile aleatoria: si dice variabile t di Student con k gradi di libertà. Se k=1 la variabile T ha media e varianza non finite, mentre se k = 2 sessa ha media nulla e varianza non finita. Da k=3 in avanti, si ha: Anche la funzione di ripartizione di T non è direttamente esplicitabile, per cui si deve fare ricorso alle tavole della distribuzione t di Student. Sulle tavole della t ci sono unicamente i centili di coda destra, quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare.

  49. 34) Variabile aleatoria F di Snedecor-Fisher • Sia Uguna variabile aleatoria chi quadrato con g gradi di libertà, e sia Wh una variabile aleatoria chi quadrato con h gradi di libertà, indipendente da Ug • La variabile aleatoria prende il nome di variabile F di Snedecor – Fisher con g gradi di libertà al numeratore e h al denominatore (dai nomi di George Snedecor, statunitense e Ronald A. Fisher, britannico). • La variabile aleatoria F ha delle apposite tavole, ed essendo il numero di gradi di libertà un numero doppio, è necessaria una tavola per ogni centile di coda destra. • Per ottenere un centile di coda sinistra della v.a. F è necessario invertire il numero di gradi di libertà, trovare il centile complementare e considerare il reciproco del valore ottenuto.

  50. Funzione di densità della variabile log-normale

More Related