1 / 27

DETECCÓN Y DIAGNÓSTICO DE FALLOS.

DETECCÓN Y DIAGNÓSTICO DE FALLOS. ESTADÍSTICAS MULTIVARIANTES. Variaciones ambientales, v. Cambios en el producto, q. Proceso. Cambios en los materiales, r. Factores asignables: Personal,equipos, etc, u. Variabilidad del proceso.

aloha
Télécharger la présentation

DETECCÓN Y DIAGNÓSTICO DE FALLOS.

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. DETECCÓN Y DIAGNÓSTICO DE FALLOS. ESTADÍSTICAS MULTIVARIANTES

  2. Variaciones ambientales, v Cambios en el producto, q Proceso Cambios en los materiales, r Factores asignables: Personal,equipos, etc, u Variabilidad del proceso • En ausencia de variaciones asignables o de materias primas, si se toman muestras de q: q(t)= ivi • las medidas de la serie q(t) son independientes • q(t) es un proceso estacionario N(,2) En estas condiciones se dice que el proceso está “bajo control”

  3. En un proceso bajo control La media  y la varianza 2 pueden estimarse mediante: n suele ser pequeño (4 -10) para evitar la aparición de causas asignables durante ese tiempo En un proceso en estado de control, el 99.7% de las muestras están en la región R = [-3, -3]

  4. LSC: m + 3 /n LIC: m - 3 /n Estadística Univariable • Gráficos de control: Dr. Shewart, USA 1924. Gráficos de evolución temporal de valores medios y su span, etc. • Definen, a través de los límites de control, el estándar de funcionamiento a alcanzar • Permiten detectar la presencia de factores asignables que desvían la producción del estándar a alcanzar

  5. Estadísticas multivariables • ANÁLISIS DE COMPONENTES PRINCIPALES (PCA) • PCA determina un conjunto de vectores de carga ortogonales que pueden ser ordenados por la cantidad de variabilidad del proceso que pueden explicar. • Si se tiene m variables y n observaciones de cada variable se construye la matriz X: Los vectores de carga se calculan mediante la descomposición de valores singulares de:

  6. Análisis de componentes principales I • Lo cual es equivalente a calcular los valores y vectores propios de: A= XTX • Con =T, una matriz que contiene los valores propios reales no negativos de A. Se eligen los “a” vectores propios de A correspondientes a los “a” valores propios más grandes y se forma P. • La proyección de los datos observados X en este espacio de dimensión reducida es: T = XP • Los datos originales pueden calcularse como:

  7. Análisis de componentes principales II • La matriz de residuos: • Los componentes principales son los vectores ti, i=1,...,a y cuando hay datos nuevos se calculan como: ti = xTpi. • Detección de fallos: • Se calcula la estadística Hostellings: T2=xTPa-2PTx • Se compara dicha estadística con un umbral calculado como: • Si T2 > Ta => el sistema está fuera de control, es decir hay un fallo

  8. Análisis de componentes principales III • Para monitorizar los restante “m-a” variables se utiliza la estadística Q => Q = rTr, con r = (I – PPT)x • Q también se conoce como SPE • Cuando el sistema está bajo control Q es muy pequeña, (variaciones debido al ruido), para detectar un fallo se pone un umbral Q • Diagnosis de fallos: • Calcular PCA para cada clase de datos que tengamos (fallos) y aplicar la estadística T2 y Q a cada modelo PCA para decidir que fallos ha ocurrido

  9. Análisis de componentes principales IV • PCA dinámicos: • PCA no lineales: • Red neuronal

  10. Análisis de componentes principales VI • Ejemplo (datos de Fisher), • consisten en m=4 variables y n=50 medidas de cada variable y 3 clases distintas:

  11. Análisis de componentes principales VII • Con los datos de la clase 1: • Se normalizan para tener media 0 y varianza 1 • Se construye la matriz X • Se calculan los valores y vectores propios de A • Se eligen 2 componentes principales que explican la variabilidad del proceso en (2.075+0.986)/4*100 = 76.52%. Y se construye la matriz P

  12. Análisis de componentes principales VIII • La matriz T=XP • Para detectar fallo (distinguir entre las clases) se proyectan todos los datos en los componentes principales de la clase 1 (t1 y t2) => ti = xTpi • Se calcula la región de confianza de la clase 1 con el umbral T:

  13. Análisis de componentes principales IX • Detección de fallos: • Distinguir datos entre las clases:

  14. Discriminante de Fisher (FDA) I • FDA es una técnica que reduce la dimensionalidad del espacio en términos de máxima separación entre clases. • Se construye la matriz X • Se calcula la matriz de dispersión total: • Se calcula la matriz de dispersión para cada clase: • La matriz de dispersión dentro de la clase: • Se calcula la matriz de dispersión entre clases:

  15. Discriminante de Fisher (FDA) II • Si todo ha ido bien: St = Sb + Sw • El primer vector de Fisher se calcula maximizando la dispersión entre clases y minimizando la dispersión dentro de la clase: • El segundo vector de Fisher se calcula cumpliendo la misma condición pero además asegurando que es ortogonal al primer vector....... • Esto es equivalente a resolver el siguiente problema de valores y vectores propios: • Sb wk = k Sw wk

  16. Discriminante de Fisher (FDA) III • Donde los vectores propios wk son los vectores de Fisher y los valores propios k indican el grado de separabilidad entre clases al proyectar los datos en la dirección wk. • Wa es la matriz formada por a= (p-1) vectores FDA (con p igual al número de clases) • La proyección de los datos sobre este nuevo espacio es: zi = WaTxi • Detección de fallos: • Utilizar una función discriminante para cada clase de datos (fallos) que diga a que clase pertenecen los datos actuales: gi(x) > gj(x)  ij

  17. Discriminante de Fisher (FDA) IV • Con gi(x) = P(wi | x) => probabilidad a posteriori que los datos x pertenezcan a la clase i • Aplicando la regla de Bayes y suponiendo que los datos están normalmente distribuidos: • Para introducir dinámica, se introducen datos pasados en la matriz X como se hacía con pCA

  18. Discriminante de Fisher (FDA) V • Ejemplo (datos de Fisher): • Construir la matriz X con todos los datos (3 clases, 4 variables y n=50 medidas de cada variable) • Cálculo de Sb y Sw: • Calculo de los valores y vectores propios, 1 = 32.27, y 2=0.2776.

  19. Discriminante de Fisher (FDA) VI • Cálculo de la proyección de los datos de cada clase sobre el espacio creado de dimensión 2: zi = WaTxi. • Representación de las clases en este espacio:

  20. Discriminante de Fisher (FDA) VI • Calcular g1, g2 y g3 para cada clase la mayor de ellas nos dice que fallo ocurre : • Tasa de acierto: 100% para la clase 1, 98% para la clase 2 (1 dato de 50 mal clasificado), 94% para 3

  21. n1 filas indican que hay un fallo de tipo 1 p columnas Mínimos cuadrados parciales (PLS) I • PLS es una técnica de reducción de la dimensionalidad, maximizando la covarianza entre la matriz de predicción (X) y la matriz predicha (Y).

  22. Mínimos cuadrados parciales (PLS) II • X = TPT + E • Y = U QT + F • La técnica PLS relaciona X e Y => • Y = TBQT+ F • Ahora hay que calcular estos valores para asegurar que la covarianza entre X e Y sea máxima. • Algoritmo: • Escalar X e Y para que tengan media nula y varianza 1 • Inicializar: E0 = X, F0= Y, j=1 y uj = a una de las columnas de Fj-1 • Resolver iterativamente hasta converger:

  23. Mínimos cuadrados parciales (PLS) III • Si converge calcular: • Hacer • Repetir el procedimiento para j=1,2,..min(n,m)

  24. Mínimos cuadrados parciales (PLS) IV • Se calcula la matriz: • La predicción de la matriz Y se calcula como: • Detección y diagnóstico de fallos: • Utilizando la estadística T2 y Q. • PLS dinámico • PLS no-lineal

  25. Mínimos cuadrados parciales (PLS) V • Ejemplo: • Se construye X con todos los datos. • Se construye Y • Se aplica el algoritmo dado para j=1,2 obteniendose:

  26. Mínimos cuadrados parciales (PLS) VI • Se calcula • Se representan y1 vs y2 vs y3

  27. Mínimos cuadrados parciales (PLS) VII • Si proyectamos los datos en sobre los vectores PLS (t1 y t2):

More Related