1 / 26

Funzione di distribuzione (detta anche cumulativa o di ripartizione)

Funzione di distribuzione (detta anche cumulativa o di ripartizione). = insieme dei risultati di un esperimento per i quali X risulta non superiore a x. X = variabile aleatoria quantitativa. Proprietà. funzione monotona non decrescente. Funzione di distribuzione discreta.

mala
Télécharger la présentation

Funzione di distribuzione (detta anche cumulativa o di ripartizione)

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Funzionedidistribuzione(detta anche cumulativa o di ripartizione) = insieme dei risultati di un esperimento per i quali X risulta non superiore a x X = variabile aleatoria quantitativa Proprietà funzione monotona non decrescente

  2. Funzionedidistribuzionediscreta

  3. Funzionedidistribuzionecontinua

  4. Densitàdiprobabilità X continua Proprietà

  5. Densità di probabilità gaussiana x2 x1

  6. Affidabilitàdiunsistema(sanitario) Probabilità che il sistema continui a erogare lo stesso servizio dopo un prefissato tempo t trascorso dal suo iniziale funzionamento T = durata di funzionamento, v.a. continua Probabilità di guasto entro il tempo t Probabilità di guasto nell’intervallo (t, t+dt)

  7. Funzionedidistribuzionecondizionata Con riferimento ad un esperimento qualsiasi, sia M un evento, tale che P(M)>0 e sia X una v.a. associata all’insieme S dei possibili risultati, si definisce funzione di distribuzione FX(x/M) della v.a. X ,condizionata da M, la probabilità condizionata dell’evento {X  x}: P{X  x, M} consiste di tutti i risultati  tali che X() x e M

  8. Densitàdi probabilità condizionata Per v.a. continue, si definisce analogamente la densità di probabilità condizionata: La fX(x/M) gode di tutte le proprietà della densità di probabilità ordinarie

  9. Affidabilitàcondizionata Con riferimento all’affidabilità del sistema si voglia valutare la probabilità di guasto, condizionata al fatto che il sistema sia ancora funzionante al tempo t

  10. Tassodiguasto Probabilità che il sistema si guasti nell’intervallo (t, t+dt) supposto che non si sia guastato prima di t Il tasso di guasto è solo funzione del tempo,coincide con la d.p. condizionata solo per  = t Integrando si ottiene la probabilità di guasto entro il tempo t La costante di integrazione è nulla perché

  11. Funzionideltassodiguasto Proprietà Prima o poi il sistema si guasta Es.: valutare le funzioni per (t) costante =   d.p. esponenziale e per  = kt (k costante)  d.p. di Rayleigh

  12. Sistemaserie Il guasto di una unità pregiudica il funzionamento dell’intero sistema Eventi indipendenti Si dimostra facilmente come, nel caso di tasso di guasto costante per tutte le unità, si abbia  2 n 1

  13. Sistemaparallelo Numero di unità superiori a quelle strettamente necessarie (ridondanti) P.es. nelle emergenze Il sistema è guasto solo se tutte le unità sono guaste, cioè, in alternativa, funziona se almeno una unità è funzionante Es.: nell’ipotesi di unità tutte ugualmente affidabili, valutare l’affidabilità del sistema parallelo se si ritiene funzionante quando almeno 2 unità funzionano 1 2 n

  14. Valoremedio Indice che descrive sinteticamente la statistica di un esperimento probabilistico. È il valore più significativo e rappresenta il baricentro dell’esperimento. È detto anche valore atteso (expected value). Tranne in casi particolari, non è però è il punto più probabile (moda) nel caso X sia continua se X è discreta

  15. Momentidiordinek Forniscono una più completa caratterizzazione della statistica della v.a. X continua X discreta

  16. Momenticentralidiordinek Varianza Operano sugli scarti dal valor medio ed eliminano l’effetto della posizione dell’origine nella scala di misura Il momento centrale del secondo ordine è detto varianza e rappresenta la dispersione dei valori del fenomeno attorno al valor medio

  17. DisuguaglianzadiChebyshev Vale per qualsiasi v.a. con varianza finita e fX(x) arbitraria Garantisce che tutti i valori sono addensati attorno al valor medio  definisce un limite dal valor medio oltre il quale la probabilità di X è nota (attraverso la varianza) ed è sufficientemente bassa Applicazioni: scarto di valori di misura estremi (a ds e sn), che hanno poca probabilità di accadere; pulizia dati. Es.: volendo scartare il 5% di dati si fissa =0.025

  18. Funzionedidistribuzionecongiuntadi due o più v.a. quantitative = insieme dei risultati di un esperimento per i quali risulta sia X non superiore a x, sia Y non superiore a y

  19. Indipendenza Date due o più v.a. quantitative, esse sono indipendenti se:

  20. Diagramma di Venn A B S Probabilitàcongiuntadidueeventidiscreti Per semplicità consideriamo due v.a. X e Y discrete o qualitative e rappresentiamo le probabilità dei rispettivi eventi A e B nello spazio S degli eventi. La probabilità congiunta è rappresentata dall’intersezione , cioè: AB

  21. TeoremadiBayes Discende dalla probabilità congiunta Inferenza bayesiana: la probabilità ‘a posteriori’ (condizionata) di un evento A può essere valutata attraverso la sua probabilità ‘a priori’ e le probabilità di un evento B che condiziona A. B è un’evento già accaduto, rappresenta l’informazione incorporata nel meccanismo inferenziale e contribuisce a ridurre l’incertezza nella stima di A aumento della probabilità ‘a posteriori’

  22. Densitàdiprobabilitàcongiuntadidue v.a. continue Per analogia al caso discreto si ha:

  23. TeoremadiBayesper v.a. quantitative X, Y generiche X, Y continue X discretaY continua X continuaY discreta

  24. Funzioni di distribuzione marginali Date due v.a. X, Y quantitative, si ha: È noto anche che:

  25. Densità di probabilità marginali Se X e Y sono continue, si hanno le densità di probabilità marginali: In base alla formula delle d.p. congiunte si trova:

  26. Proprietàdellamarginalizzazione Data una v.a. continua  che assume valori , è sempre possibile esprimere la densità di probabilità di un’altra v.a. X, come:

More Related