1 / 75

Alignments mit Hidden Markov Modellen

Alignments mit Hidden Markov Modellen. Wofür sind HMM‘s gut?. Gehört eine Sequenz zu einer bestimmten Familie? Falls eine Sequenz aus einer Familie stammt, was kann man über ihre interne Struktur sagen?. Markov Kette. Modell zum Generieren von Sequenzen

mohawk
Télécharger la présentation

Alignments mit Hidden Markov Modellen

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Alignments mit Hidden Markov Modellen

  2. Wofür sind HMM‘s gut? • Gehört eine Sequenz zu einer bestimmten Familie? • Falls eine Sequenz aus einer Familie stammt, was kann man über ihre interne Struktur sagen?

  3. Markov Kette • Modell zum Generieren von Sequenzen • Die Wahrscheinlichkeit für das Auftreten eines Symbols hängt nur vom Vorgängersymbol ab • Wie wahrscheinlich ist eine Sequenz / Nukleotidfolge

  4. Markov Kette Beispiel für DNA:

  5. Markov Kette Transitionswahrscheinlichkeit: rst = P(xi = t | xi-1 = s) Wahrscheinlichkeit einer Sequenz: P(x) = P(xL | xL-1)*P(xL-1 | xL-2)* .. *P(x2 | x1)*P(x1) = P(x1)Пi=2rxi-1xi

  6. Markov Kette Beginzustand x0 = B mit: P(x1 = s) = rBs Endzustand xL+1 = E mit: P(E | xL = t) = rtE

  7. Hidden Markov Model • Keine 1 zu 1 Übereinstimmung von Zuständen und generierten Symbolen • Einbettung von Markov Ketten in die Zustände • Es gibt bestimmte vordefinierte Wahrscheinlichkeiten, dass ein Zustandübergang erfolgt • Sei ek(b) = P(xi = b | πi-1 = k) die WK, dass Symbol b im Zustand k auftritt (wobei π die Zustandsequenz ist)

  8. HMM Beispiel: unfaires Casino:

  9. HMM Beispiel: unfaires Casino: Problem: Wie findet man die richtige (wahrscheinlichste) Zustandssequenz, die der vorliegenden Symbolsequenz zugrunde liegt?

  10. Viterbi Algorithmus Beispiel: CpG - Inseln • Das Auftreten einer bestimmten Base (A, T, G, C) an einer bestimmten Stelle ist nicht gleich wahrscheinlich • In bestimmten DNA-Bereichen: Hohe Wahrscheinlichkeit, dass C zu einem T mutiert • Somit kleinere Wahrscheinlichkeit, dass ein C vor einem G steht • Es gibt allerdings Regione in welchen die Mutationswahrscheinlichket (von C zu T) deutlich kleiner ist (zum Beispiel bei den Startregionen diverser Gene)

  11. Viterbi Algorithmus Beispiel: CpG - Inseln Markov Kette

  12. Viterbi Algorithmus Beispiel: CpG - Inseln • Verschiedene Wahrscheinlichkeiten für das Auftreten eines Symbols (A, T, G, C), je nach dem ob es innerhalb (+ Modell) oder ausserhalb (- Modell) der CpG – Inseln stattfindet • Daraus leitet sich die WK rst für jedes dieser beiden Modelle: rst+ = cst+/∑t`cst`+ rst- = cst-/∑t`cst`- (wobei cst die Anzahl der Fälle in welchen Symbol t Symbol s folgte ist) • rst+ undrst- statistisch ermittelbar

  13. Viterbi Algorithmus

  14. Viterbi Algorithmus Beispiel: CpG – Inseln HMM

  15. Viterbi Algorithmus • Ein rekursiver Algorithmus zum Finden des wahrscheinlichsten Pfades π* (mit π* = argmaxP(x, π)) • Sei vk(i) die WK eines wahrscheinlichsten Pfades, der in Zustand k endet mit Beobachtung i • Sei vk(i) bekannt für alle i, dann für i+1 gilt: vl(i+1) = el(xi+1)max(vk(i)rkl)

  16. Viterbi Algorithmus

  17. Viterbi Algorithmus

  18. Viterbi Algorithmus

  19. Viterbi Algorithmus

  20. Viterbi Algorithmus 0.63

  21. Viterbi Algorithmus 0.63*0.6 ≈ 0.378

  22. Viterbi Algorithmus 0.63*0.6 ≈ 0.378

  23. Viterbi Algorithmus 0.17*0.25

  24. Viterbi Algorithmus 0.17*0.25 ≈ 0.042

  25. Viterbi Algorithmus 0.2*0.05 ≈ 0.010

  26. Viterbi Algorithmus

  27. Viterbi Algorithmus

  28. Viterbi Algorithmus 0.378

  29. Viterbi Algorithmus 0.378*0.500

  30. Viterbi Algorithmus 0.378*0.500*0.15

  31. Viterbi Algorithmus 0.378*0.500*0.15 ≈ 0.028

  32. Viterbi Algorithmus

  33. Viterbi Algorithmus 0.042

  34. Viterbi Algorithmus 0.042*0.375

  35. Viterbi Algorithmus 0.042*0.375*0,15 ≈ 0.002

  36. Viterbi Algorithmus

  37. Viterbi Algorithmus 0.010*0.125*0.15 ≈ 0.0001

  38. Viterbi Algorithmus Max(0.028, 0.002, 0.0001) = 0.028

  39. Viterbi Algorithmus Max(0.028, 0.002, 0.0001) = 0.028

  40. Viterbi Algorithmus

  41. Viterbi Algorithmus 0.378*0.25*0.25 ≈ 0.023

  42. Viterbi Algorithmus 0.042*0.125*0.25 ≈ 0.001

  43. Viterbi Algorithmus 0.010*0.675*0.25 ≈ 0.001

  44. Viterbi Algorithmus Max(0.023, 0.001, 0.001) = 0.023

  45. Viterbi Algorithmus

  46. Viterbi Algorithmus

  47. Viterbi Algorithmus

  48. Viterbi Algorithmus

  49. Viterbi Algorithmus

  50. Viterbi Algorithmus 0.378+0.028+0.0007 ≈ 0.407

More Related