1 / 19

CAPITOLO 15

CLASSIFICAZIONE. CAPITOLO 15. La Classificazione supervisionata. A. Dermanis, L.Biagi. . . 1 n i. m i = x. 1 n i. x  S i. x  S i. C i = ( x – m i )( x – m i ) T. La Classificazione supervisionata.

trista
Télécharger la présentation

CAPITOLO 15

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. CLASSIFICAZIONE CAPITOLO 15 La Classificazione supervisionata A. Dermanis, L.Biagi

  2.  1 ni mi = x 1 ni xSi xSi Ci = (x – mi)(x – mi)T La Classificazione supervisionata I pixel noti in ciascuna classe ω1, ω2, ..., ωK, formano gli “insieme campione”S1, S2, ..., SK con n1, n2, ..., nK pixel ciascuno. Stime per ciascun insieme campione Si, (i = 1, 2, …, K) : Vettori delle medie: Matrici di covarianza: Metodi di classificazione supervisionata: Parallelepipedi Distanza euclidea Distanza di Mahalanobis Massima verosimiglianza Bayesiano A. Dermanis, L.Biagi

  3. dE(x,x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2 || x – mi || = min || x – mk || x i k La Classificazione con la distanza Euclidea (a) Semplice Assegna ciascun pixel alla classe con centro più vicino. Confini fra le classi: iperpiani perpendicolari nel punto medio al segmento congiungente i centri delle classi. A. Dermanis, L.Biagi

  4. dE(x,x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2 x i || x – mi || T || x – mi || = min || x – mk || k La Classificazione con la distanza Euclidea (b) Con livello di soglia T Assegna ciascun pixel alla classe con centro più vicino se distanza < livello di soglia || x – mi || > T, ix 0 Lascia non classificati i pixel (class ω0) la cui distanza da ogni centro è maggiore della soglia. A. Dermanis, L.Biagi

  5. dE(x,x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2 La Classificazione con distanza Euclidea Sbagliato Giusto Si introduce il ruolo della statistica nella classificazione! A. Dermanis, L.Biagi

  6. Deviazione standard per ogni banda ij = (Ci)jjj=1,2,…,B ParallelepipediPi x = [x1 … xj … xB]TPj mij – kij  xj  mij + kij j=1,2,…,B Classificazione: xPjxi  x Pix0 i La classificazione con il metodo dei parallelepipedi A. Dermanis, L.Biagi

  7. dM(x,x) = (x – x)TC–1 (x – x)  i xSi  1 N C = (x – mi)(x – mi)T = niCi i dM(x,mi) < dM(x,mk), ki dM(x,mi)  T, 1 N xi La classificazione con la distanza di Mahalanobis Distanza di Mahalanobis: (Matrice di covarianza) dM(x,mi) < dM(x,mk), kixi Classificazione (semplice): Classificazione con soglia: dM(x,mi) > T, ix0 A. Dermanis, L.Biagi

  8. 1 1 2 li(x) = exp [ – (x – mi)TCi–1 (x – mi) ] (2)B/2 |Ci|1/2 La classificazione con il metodo di massima verosimiglianza Funzione di distribuzione di probabilità o funzione di verosimiglianza per la classe ωi: li(x) > lk(x) k i  xi Classificazione: Equivalente all’uso della funzione di decisione: di(x) = 2 ln[li(x)] + B ln(2) = – ln |Ci| – (x–mi)TCi–1 (x–mi) di(x) > dk(x) k i  xi A. Dermanis, L.Biagi

  9. La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni :numero di pixel nella classeωi (i = 1,2, …, K) nx :numero di pixel con valore x nxi :numero di pixel con valore x in classe ωi A. Dermanis, L.Biagi

  10. La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni :numero di pixel nella classeωi (i = 1,2, …, K) nx :numero di pixel con valore x nxi :numero di pixel con valore x in classe ωi A. Dermanis, L.Biagi

  11. La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni :numero di pixel nella classeωi (i = 1,2, …, K) nx :numero di pixel con valore x nxi :numero di pixel con valore x in classe ωi Identità di base: A. Dermanis, L.Biagi

  12. La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni :numero di pixel nella classeωi (i = 1,2, …, K) nx :numero di pixel con valore x nxi :numero di pixel con valore x in classe ωi Identità di base: A. Dermanis, L.Biagi

  13. La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni :numero di pixel nella classeωi (i = 1,2, …, K) nx :numero di pixel con valore x nxi :numero di pixel con valore x in classe ωi Identità di base: A. Dermanis, L.Biagi

  14. p(i) = p(x) = nxi Ni nxi N nxi nx Ni N nx N p(x|i) = p(i|x) = p(x,i) = probabilità che un pixel appartenga alla classe ωi probabilità che un pixel abbia il valore x probabilità che un pixel della classe ωi abbia valore x (condizionata) probabilità che un pixel con valore x appartenga alla classe ωi (condizionata) probabilità che un pixel abbia il valore x e appartenga alla classe ωi (congiunta) A. Dermanis, L.Biagi

  15. p(i) = p(x) = nxi Ni nxi N nxi nx Ni N nx N p(x|i) = p(i|x) = p(x,i) = probabilità che un pixel appartenga alla classe ωi probabilità che un pixel abbia il valore x probabilità che un pixel della classe ωi abbia valore x (condizionata) probabilità che un pixel con valore x appartenga alla classe ωi (condizionata) probabilità che un pixel abbia il valore x e appartenga alla classe ωi (congiunta) A. Dermanis, L.Biagi

  16. p(i) = p(x) = nxi Ni nxi nx nxi N Ni N nx N p(x|i) = p(i|x) = p(x,i) = probabilità che un pixel appartenga alla classe ωi probabilità che un pixel abbia il valore x probabilità che un pixel della classe ωi abbia valore x (condizionata) probabilità che un pixel con valore x appartenga alla classe ωi (condizionata) probabilità che un pixel abbia il valore x e appartenga alla classe ωi (congiunta) formula di Bayes A. Dermanis, L.Biagi

  17. Pr(AB) Pr(A|B) = Pr(B) Pr(A|B) Pr(B) Pr(B|A) = Pr(A) p(x|i)p(i) p(i|x) = p(x) Teorema di Bayes: Pr(A|B)Pr(B) = Pr(AB) = Pr(B|A)Pr(A) evento A = occorrenza del valore x evento B = occorrenza della classe ωi p(i|x) > p(k|x) kixi Classificazione: p(x) = non necessaria (fattore comune) p(x|i) p(i) > p(x|k) p(k) k ixi Classificazione: A. Dermanis, L.Biagi

  18. p(x|i)p(i) = max [p(x|k)p(k) xi k 1 1 2 p(x|i) = li(x) = exp{– –(x–mi)TCi–1(x–mi) } (2)B/2|Ci|1/2 1 2 1 2 – –(x–mi)TCi–1(x–mi) – –ln[ |Ci| + ln[p(i)] = max (x–mi)TCi–1(x–mi) + ln[ |Ci| + ln[p(i)] = min Classificazione: per distribuzione Gaussiana: p(x|i) p(i) = max Anzichè: ln[p(x|i) p(i)] = ln[p(x|i) + ln[p(i) = max Equivalente o, finalmente: A. Dermanis, L.Biagi

  19. (x–mi)TCi–1(x–mi) = min p(1) = p(2) = … = p(K) C1 = C2 = … = CK = C p(1) = p(2) = … = p(K) C1 = C2 = … = CK = I   (x–mi)TCi–1(x–mi) + ln[ |Ci| = min (x–mi)TCi–1(x–mi) + ln[ |Ci| + ln[p(i)] = min (x–mi)T(x–mi) = min La Classificazione Bayesiana per una distribuzione Gaussiana: CASI SPECIALI: p(1) = p(2) = … = p(K)  Massima Verosimiglianza! Distanza di Mahalanobis! Distanza Euclidea! A. Dermanis, L.Biagi

More Related