1 / 62

Segmentation d ’IRM cérébrales multi-séquences et application à la sclérose en plaques

Segmentation d ’IRM cérébrales multi-séquences et application à la sclérose en plaques. Guillaume Dugas-Phocion. La sclérose en plaques. Maladie relativement mal comprise, que l ’on suppose auto-immune Altération de la gaine de myéline Plaques apparaissant à l ’IRM dans la matière blanche.

thetis
Télécharger la présentation

Segmentation d ’IRM cérébrales multi-séquences et application à la sclérose en plaques

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Segmentation d ’IRM cérébrales multi-séquences et application à la sclérose en plaques Guillaume Dugas-Phocion

  2. La sclérose en plaques • Maladie relativement mal comprise, que l ’on suppose auto-immune • Altération de la gaine de myéline • Plaques apparaissant à l ’IRM dans la matière blanche

  3. Ces paresthésies sont décrites comme des fourmillements ou un engourdissement plus que comme des picotements, souvent plus tardifs dans l ’ évolution de la maladie IRM et diagnostic • Diagnostic essentiellement basé sur l  ’examen clinique : • Signes sensitifs : paresthésies ascendantes des membres inférieurs, démarche talonnante, malhabilité d ’ une main • Signes moteurs • Signes visuels • Signes cognitifs

  4. IRM et diagnostic • Diagnostic essentiellement basé sur l  ’examen clinique : • Signes sensitifs • Signes moteurs : faiblesse musculaire, fatigue ; spasticité • Signes visuels • Signes cognitifs

  5. IRM et diagnostic • Diagnostic essentiellement basé sur l  ’examen clinique : • Signes sensitifs • Signes moteurs • Signes visuels : douleurs péri-orbitaire ou rétro-orbitaire, baisse de l ’acuité visuelle • Signes cognitifs

  6. IRM et diagnostic • Diagnostic essentiellement basé sur l ’examen clinique : • Signes sensitifs • Signes moteurs • Signes visuels • Signes cognitifs : troubles de la mémoire, du raisonnement abstrait et de l ’attention

  7. Le diagnostic reste un diagnostic d ’élimination plus qu ’un diagnostic positif. Les critères de Poser définissent deux groupes de SEP (définie et probables) et deux sous-groupes (le premier, clinique, le second recourant aux examens complémentaires IRM et diagnostic • Diagnostic essentiellement basé sur l  ’examen clinique • Rôle des examens complémentaires : • Ecarter d ’autres diagnostics possibles • Contribuer au diagnostic de SEP • Evaluer l ’efficacité des traitements

  8. Analyse du liquide céphalo-rachidien (LCR) : activité immunologique - lymphocytes T, globulines - non spécifique Les potentiels évoqués sont des potentiels électriques recueillis après une brève stimulation stéréotypée, appliquée de façon répétitive. Utilisés pour confirmer l ’atteinte clinique en cas de symptômes inhabituels. IRM et diagnostic • Diagnostic essentiellement basé sur l  ’examen clinique • Rôle des examens complémentaires • Examens complémentaires : • Analyse du liquide céphalo-rachidien (LCR) • Potentiels évoqués • IRM L ’IRM, au même titre que les autres examens complémentaires, n ’apporte au diagnostic qu ’un élément de dissémination spaciale, et temporel en cas de rehaussement du signal après injection de Gadolinium L ’évaluation de l ’IRM repose sur deux paramètres : la charge lésionnelle et l ’activité lésionnelle. Etudes en cours sur la corrélation entre localisation et symptômes. (Charil et Zijdenbos) Les lésions évocatrices de SEP sont confluentes, périventriculaires à contour irréguliers et/ou ovalaires perpendiculaires à l ’axe anté-postérieurs. Signes non-spécifiques de la SEP

  9. Prétraitement des données par un recalage rigide intra-patient sur l ’IRM T1 du même instant. Le recalage est un recalage iconique robuste avec pyramide d ’images Signature IRM des plaques • Données : IRM T1, T2 FSE, T2 FLAIR, Densité de Protons

  10. Signature IRM des plaques • Données : IRM T1, T2 FSE, T2 FLAIR, Densité de Protons • Caractéristiques générales : • Hypersignal en T2 et en DP : globalité des plaques • Hyposignal en T1 : zones nécrotiques • Hypersignal en T2 FLAIR : basse résolution

  11. Cette variabilité IRM est le reflet de la variabilité réelle des plaques : périventriculaires, juxtacorticales, dans le cervelet, dans le corps calleux, dans le tronc cérébrales ; lésions actives, œdémateuses, nécrotiques, jeunes, etc. Signature IRM des plaques • Données : IRM T1, T2 FSE, T2 FLAIR, Densité de Protons • Caractéristiques générales • Forte variabilité des plaques - intensité ou localisation

  12. Objectif à long terme • Obtention de chiffres directement exploitables • signification médicale réelle (charges lésionnelles) • estimation de l ’erreur sur ces chiffres • Validation par segmentation d ’experts • Corrélation avec les études sur les déficits physiques et cognitifs

  13. Difficultés • Forte variabilité inter-expert pour la validation • Définition difficile d ’un modèle IRM de lésion • On ne connaît pas a priori le poids relatif des lésions entre elles  Prétraitement : tout ce qui n ’est pas sain est potentiellement malade

  14. Hypothèses de base • Labélisation : matière blanche, matière grise, LCR. • Segmentation basée sur l ’intensité • Modèle de bruit gaussien  Segmentation basée sur un algorithme d ’Expectation Maximisation.

  15. Expectation maximisation

  16. Expectation maximisation

  17. Expectation maximisation

  18. Expectation maximisation

  19. Expectation maximisation • Densité de probabilité gaussienne : f(yj | lj, ) = Gl(yj - l) • Indépendance spatiale des voxels • Modèle de mixture de gaussienne • Algorithme en 2 étapes

  20. Expectation maximisation • Densité de probabilité gaussienne • Indépendance spatiale des voxels • Modèle de mixture de gaussienne • Algorithme en 2 étapes

  21. Expectation maximisation • Densité de probabilité gaussienne • Indépendance spatiale des voxels • Modèle de mixture f(Y | ) =  f(yj | ) avec f(yj | ) =  f(yj | lj=k, )·k • Algorithme en 2 étapes

  22. Expectation maximisation • Densité de probabilité gaussienne • Indépendance spatiale des voxels • Modèle de mixture de gaussienne • Algorithme en 2 étapes : • Expectation : labélisation des voxels • Maximisation : estimation des paramètres par maximisation de la vraisemblance

  23. Probabilité a priori dans le cadre de la loi de Bayes : attention au fait que dans notre cas, la probabilité a priori dépend de la position du voxel (Atlas probabiliste) Expectation maximisation • Expectation : calcul des probabilités pour chaque voxel f(lj | Y, (m-1)) = ___________________ • Maximisation : mise à jour des paramètres des classes f(yj | lj, (m-1)) * lj k f(yj | lj = k, (m-1)) * k

  24. Expectation maximisation • Expectation : calcul des probabilités pour chaque voxel • Maximisation : mise à jour des paramètres des classes (M estimateurs) k(m) = __________________________  k(m) = ___________________________________ j f(lj = k | Y, (m-1)) * yj (m-1) j f(lj = k | Y, (m-1)) j f(lj = k | Y, (m-1)) * (yj (m-1) - k(m)) * (yj (m-1) - k(m)) ’ j f(lj = k | Y, (m-1))

  25. EM Simple : résultats

  26. EM Simple : résultats

  27. EM Simple : résultats

  28. Rajouter l ’équation du seuil des points abherrants Rajouter le calcul du biais dans l ’EM Toucher un mot des contraintes locales Application aux lésions de SEP • Extraction des points aberrants comme pré-segmentation des lésions • Seuillage sur le χ2 correspondant à chaque classe • Algorithme à 3 étapes : • Expectation : labélisation des voxels • Maximisation : estimation des paramètres sans les voxels labellisés comme point aberrant • Extraction des points aberrants

  29. Application aux lésions de SEP

  30. Améliorations • Objectif : débruiter la segmentation des lésions • Diminuer la variance des classes pures • Conserver la sensibilité de la segmentation  Inclusion d ’un modèle de volume partiels

  31. 1 2 Modèle de volume partiel • Un voxel est dit partiel quand il est composé de plusieurs tissus

  32. Modèle de volume partiel • Dans le cas de l ’IRM, le bruit est considéré comme gaussien

  33. Modèle de volume partiel • Dans le cas de l ’IRM, le bruit est considéré comme gaussien • L’intensité est linéaire en la proportion de tissu dans les volumes partiels : • Ip = I1 + (1 - )I2

  34. Modèle de volume partiel • Dans le cas de l ’IRM, le bruit est considéré comme gaussien • L’intensité est linéaire en la proportion de tissu dans les volumes partiels : • Ip = I1 + (1 - )I2 • Le résultat est calculable dans le cas gaussien, pour  fixé : • I1 = G(1, 1) • I2 = G(2, 2) Ip = G(1 + (1 - ) 2, 1 + (1 - )2)

  35. 1 2 Modèle de volume partiel : simulation

  36. 1 2 Modèle de volume partiel partiel : simulation

  37. Algorithme • EM classique : deux étapes • Labélisation des voxels en fonction des paramètres courants • Estimations des paramètres en maximisant la vraisemblance

  38. Algorithme • EM avec classes partielles : trois étapes • Labélisation des voxels en fonction des paramètres courants - classes pures et partielles • Estimations des paramètres des classes pures en maximisant la vraisemblance • Calcul des paramètres des classes en fonction des paramètres des classes pures

  39. Résultats • EM avec classes partielles : trois étapes

  40. Résultats • EM classique : deux étapes

  41. Résultats • EM avec classes partielles : trois étapes

  42. Résultats • EM classique : deux étapes

  43. Résultats : segmentation

  44. Conclusion partielle • Conclusion partielle : légère diminution de la variance des classes pures. • Que se passe-t-il si on augmente le nombre de classes partielles ?

  45. Résultats • EM avec classes partielles : trois étapes

  46. Résultats • EM avec classes partielles : trois étapes

  47. Conclusion partielle (bis) • Conclusion partielle : comme prévu, la variance diminue progressivement • Cette diminution est trop faible pour être suffisante • Contraintes supplémentaires nécessaires • Contrainte locale (modification de la probabilité a-priori) sans exploser le temps de calcul • Contrainte sur la variance des classes pures ?

  48. Rajouter une suite de schémas qui montre comment on fait effectivement le calcul Atlas probabiliste pour les volumes partiels • Champs de Markov trop coûteuse en temps de calcul • On applique une contrainte locale une seule fois : • Premier EM sans volumes partiels • Extractions des zones susceptibles de contenir des voxels partiels • Mise à jour de l ’atlas • Deuxième EM incluant les classes partielles

  49. EM sans volumes partiels

  50. Génération d ’un masque pour chaque interface

More Related