1 / 30

César Sánchez Sellero Universidad de Santiago de Compostela

Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos de Markov y cadenas de Markov ocultas). César Sánchez Sellero Universidad de Santiago de Compostela. Motivación Probabilidad

Télécharger la présentation

César Sánchez Sellero Universidad de Santiago de Compostela

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Bioinformática: Fundamentos y aplicaciones de actualidadCurso de verano 2005Revisión de algunos modelos probabilísticos de evolución genética(Procesos de Markovy cadenas de Markov ocultas) César Sánchez Sellero Universidad de Santiago de Compostela

  2. Motivación • Probabilidad • Procesos estocásticos • Cadenas de Markov • Cadenas de Markov ocultas • Aplicaciones

  3. Motivación: Modelo para familias de proteínas d1 d2 d3 d4 i0 i1 i2 i3 i4 m0 m1 m2 m3 m4 m5

  4. Probabilidad Experimento aleatorio. Es un experimento cuyos resultados posibles son conocidos de antemano, pero se desconoce cuál de ellos va a ocurrir. Espacio muestral. Es el conjunto formado por todos los resultados posibles del experimento aleatorio. Lo denotamos por Ω. Ejemplo.Lanzar una moneda. Ω={c, +}. Suceso. Cualquier subconjunto del espacio muestral. Ejemplo.Lanzar un dado. Ω={1, 2, 3, 4, 5, 6}. A=“que salga par”={2, 4, 6}. Suceso elemental. Es un suceso unitario. Está constituido por un único elemento. Decimos que ha ocurrido un suceso cuando se ha obtenido alguno de los resultados que lo forman.

  5. Suceso seguro. Es el que siempre ocurre, y por tanto, es Ω. Suceso imposible. Es el que nunca ocurre, y por tanto, es el vacío, Ø. Unión. Ocurre AUB si ocurre al menos uno de los sucesos A o B. Intersección. Ocurre A B si ocurren los dos sucesos A y B a la vez. Complementario. Ocurre Ac si y sólo si no ocurre A. Diferencia de sucesos. Ocurre A\B si ocurre A pero no ocurre B. A\B=A Bc. Sucesos incompatibles. A y B son incompatibles sino pueden ocurrir a la vez. A B = Ø. Suceso contenido en otro. Siempre que sucede A, sucede también B. A B.

  6. Definición. Se define la probabilidad como una aplicación que a cada suceso le asigna un número entre cero y uno ( su probabilidad), y que cumple las siguientes condiciones: • P(Ω)=1. • Si A B = Ø entonces P(AUB)=P(A)+P(B). Propiedades • P(Ø)=0. • Si A1, A2, …, An son sucesos incompatibles dos a dos, entonces P(A1, A2, …, An) = P(A1) + P(A2) + … + P(An). • P(Ac) = 1 - P(A) • Si A B, entonces P(A) ≤ P(B). • Si A y B son dos sucesos cualesquiera, se cumple • P(AUB) = P(A) + P(B) - P(A B)

  7. Asignación de probabilidades La asignación de probabilidades a veces se deduce de la estructura del experimento. Si Ω es finito, en ciertas ocasiones podemos pensar que todos los sucesos elementales tienen la misma probabilidad (equiprobables). Esto permite calcular la probabilidad de cualquier otro suceso mediante la regla de Laplace:

  8. Probabilidad condicionada. Independencia. P(B/A) B P(A B)=P(A).P(B/A)=0.6x0.3=0.18 0.3 P(A) A 0.42 0.6 0.7 Bc 0.32 B 0.8 0.4 Ac 0.08 Bc 0.2 1.00

  9. Regla del producto A3 A2 A3c A1 A2c A1c

  10. Ley de las probabilidades totales B P(A1 B)=P(A1).P(B/A1) A1 Bc P(A2 B)=P(A2).P(B/A2) B A2 Bc ... P(An B)=P(An).P(B/An) B An Bc P(B)

  11. Teorema de Bayes B P(A1 B)=P(A1).P(B/A1) A1 Bc P(A2 B)=P(A2).P(B/A2) B A2 Bc ... P(An B)=P(An).P(B/An) B An Bc

  12. Procesos estocásticos Espacio de estados 1 2 3 4 5 6 7 8 9 10 Indice del proceso,t

  13. Cadenas de Markov Definición. Una cadena de Markov es un proceso estocástico que presenta las siguientes propiedades: • Es un proceso en tiempo discreto. • El espacio de estados es discreto. • Dependencia markoviana. • Las probabilidades de transición no dependen de la etapa. Elementos de una cadena de Markov. Espacio de estados: Matriz de transición: Distribución inicial:

  14. Representación de una cadena de Markov Ejemplo. 0.25 0.25 E1 E2 0.5 1 1 E3

  15. Distribución de probabilidad en la etapa t Por la ley de probabilidades totales, la distribución de probabilidad en la primera etapa se puede obtener así Pero esto nos permite pasar también a la segunda etapa, y así sucesivamente a cualquier etapa, multiplicando por la matriz de transición tantas veces como etapas haya que recorrer.

  16. Tipos de estados Efímero. Ningún estado conduce a él. Transitorio.Tras pasar por él, al cabo de cierto número de etapas, la cadena de Markov ya no regresa a él. Recurrente. Si no es transitorio, esto es, si tras pasar por él, la cadena de Markov siempre regresa a él. Absorbente. Al llegar a él, ya no se sale a ningún otro estado.

  17. Distribución estacionaria y comportamiento límite Definición. Л es una distribución estacionaria sobre E si Л P= Л . • Las distribuciones estacionarias otorgan probabilidad cero a los estados transitorios. • Cada grupo de estados recurrentes intercomunicados tiene una única distribución estacionaria. • Cuando el número de etapas converge a infinito, 4. Si Rt es el número de veces que la cadena pasa por el estado Ei en las t primeras etapas, cuando t tiende a infinito,

  18. Estimación de los parámetros de una cadena de Markov A partir de una realización de la cadena de Markov, se pueden estimar las probabilidades de transición mediante las siguientes proporciones observadas: Esto presenta limitaciones dependiendo de cómo haya evolucionado la realización observada. Además, no permite estimar las probabilidades iniciales. Por estos motivos es conveniente disponer de varias realizaciones de la cadena de Markov.

  19. Cadenas de Markov ocultas En lugar de observar los estados de la cadena de Markov, observamos otros elementos, bajo ciertas probabilidades: Elementos de una cadena de Markov oculta. Espacio de estados: Matriz de transición: Alfabeto de símbolos observables: Probabilidades de emisión: Distribución inicial:

  20. Tres problemas Llamemos λ al conjunto de parámetros del modelo de Markov oculto, y a una realización de la cadena de Markov oculta. Problema 1. Calcular P ( O / λ ) . Problema 2. Encontrar la secuencia de estados que mejor se corresponda con la secuencia observada O, bajo el modelo λ . Problema 3. Estimar los parámetros del modelo. Lo haremos buscando λ que haga máxima P ( O / λ ) .

  21. Una primera idea Si supiéramos cuál ha sido la sucesión de estados, entonces La probabilidad de una sucesión de estados es Entonces, por la ley de probabilidades totales

  22. Procedimiento Adelante/Atrás (Inducción) Definimos las funciones adelante así: Las funciones adelante se pueden calcular por inducción así: Paso inicial Inducción Paso final

  23. Definimos las funciones atrás así: Las funciones atrás se pueden calcular por inducción así: Paso inicial Inducción Paso final

  24. Algoritmo de Viterbi Buscamos la cadena de estados que mejor se corresponda con la secuencia observada (problema 2). Formalizamos esto en el objetivo siguiente: Definimos las funciones: Estas funciones y los argumentos donde se alcanza el máximo se pueden calcular por inducción así: Paso inicial Inducción Paso final Secuencia de estados

  25. Estimación de los parámetros del modelo Lo haremos por máxima verosimilitud y aplicaremos un método de tipo EM. Definimos las funciones: Los parámetros estimados se actualizan de la siguiente manera: Se pueden calcular a partir de las funciones adelante y atrás así: Además podemos considerar todas las transiciones que parten de un estado:

  26. Aplicaciones • Modelos para familias de proteínas • Alineamiento de secuencias • Descubrimiento de subfamilias • Modelación de dominios dentro de la cadena de aminoácidos

  27. Modelo para familias de proteínas d1 d2 d3 d4 i0 i1 i2 i3 i4 m0 m1 m2 m3 m4 m5

  28. Alineamiento de secuencias Una vez construido el modelo de Markov oculto y estimados sus parámetros, se puede emplear el modelo para reconstruir la sucesión de estados más probable que corresponde a cierta secuencia de aminoácidos. Dicho de otro modo, a partir de una secuencia de aminoácidos podemos encontrar cuál es la sucesión de inserciones o supresiones que se han producido (con mayor probabilidad). Ejemplo. Secuencias CAEFDDH y CDAEFPDDH. Modelo de longitud 10. Se ajustan las sucesiones de estados más probables y resultan Entonces las dos secuencias se alinean así m0m1m2m3 m4d5d6m7m8m9m10 m0m1i1m2m3 m4d5m6m7m8m9m10 C _ A E F _ _ D D H C D A E F _ P D D H

  29. Descubrimiento de subfamilias Modelo 1 Modelo 2 Inicio Fin Modelo k

  30. Modelación de dominios dentro de la cadena de aminoácidos Modelo para el dominio ID IA m0 mN+1 Inicio Fin

More Related