1 / 43

REGRESIÓN POR MÍNIMOS CUADRADOS

REGRESIÓN POR MÍNIMOS CUADRADOS. -JOHNNY CARPIO QUIRÓS  -DOUGLAS ESPINOZA -DIEGO ANÍBAL NAVARRO CARRILLO -MAURICIO RETANA FERNANDEZ -MARCIA VEGA MONTIEL    -RAQUEL VILLALOBOS RODRIGUEZ. REGRESIÓN POR MÍNIMOS CUADRADOS. Regresión Lineal Múltiple. Mínimos Cuadrados Lineales.

mills
Télécharger la présentation

REGRESIÓN POR MÍNIMOS CUADRADOS

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. REGRESIÓN POR MÍNIMOS CUADRADOS -JOHNNY CARPIO QUIRÓS  -DOUGLAS ESPINOZA -DIEGO ANÍBAL NAVARRO CARRILLO -MAURICIO RETANA FERNANDEZ -MARCIA VEGA MONTIEL    -RAQUEL VILLALOBOS RODRIGUEZ

  2. REGRESIÓN POR MÍNIMOS CUADRADOS Regresión Lineal Múltiple. Mínimos Cuadrados Lineales. Regresión No Lineal.

  3. REGRESIÓN LINEAL MÚLTIPLE

  4. DEFINICIÓN • Extensión útil de la regresión lineal cuando y es una función lineal de dos o más variables independientes. • Ejemplo:

  5. SUMA DE LOS CUADRADOS DE LOS RESIDUOS

  6. DERIVADAS PARA LA MATRIZ DE COEFICIENTES

  7. MATRIZ PARA EL CÁLCULO DE LOS COEFICIENTES

  8. EJEMPLO • Los datos de la Tabla 1 se calcularon según la ecuación: • Utilice regresión lineal para ajustar esos datos.

  9. TABLA 2. CÁLCULOS REQUERIDOS

  10. MATRIZ Y RESPUESTA

  11. EXTENDIENDO EL CÁLCULO A M DIMENSIONES …

  12. MÍNIMOS CUADRADOS

  13. HISTORIA • En 1829 Gauss fue capaz de establecer la razón del éxito maravilloso de resolver ecuaciones no lineales de Kepler por el método de mínimos cuadrados : simplemente, el método de mínimos cuadrados es óptimo en muchos aspectos. El argumento concreto se conoce como teorema de gauss Markov.

  14. Las regresiones: lineal, polinomial y lineal múltiple pertenecen al siguiente modelo lineal general de mínimos cuadrados: donde todos los zm son funciones diferentes y los an son los coeficientes numéricos (“y” depende de múltiples valores de “x”, esto es, x1, x2, x3, … , xm).

  15. Esa ecuación se puede reescribir en forma matricial así:

  16. donde [Z] es una matriz de los valores calculados de las funciones z en los valores medidos de las variables independientes (todos los valores de “x” en una tabla). donde m es el número de variables en el modelo (número de funciones “x”) y n el número de datos (número de valores “x”). [Z] no siempre es una matriz cuadrada.

  17. El vector columna {Y} contiene los valores observados de la variable dependiente: • El vector columna {A} contiene los coeficientes desconocidos (los que se calculan con el método):

  18. y el vector columna {E} contiene los residuos: • La suma de los cuadrados de este modelo se define como:

  19. Esta cantidad se minimiza tomando las derivadas parciales con respecto a cada coeficiente e igualando a cero las ecuaciones restantes. El resultado son las ecuaciones normales (que dan los valores para los coeficientes “a”) que se expresan de forma matricial como:

  20. Técnicas de solución: Pueden utilizarse descomposición LU, Cholesky o matriz inversa. Matriz Inversa:

  21. Dados los datos: Ajuste por mínimos cuadrados EJEMPLO:

  22. Por tanto, nuestro sistema a resolver será: de donde obtenemos que: tendremos que el polinomio viene dado por:

  23. Para ajustar los datos a una cuadrática (polinomio de grado 2), resolvemos el siguiente sistema de ecuaciones:

  24. Se obtienen: Con lo que el sistema a resolver es:

  25. Cuya solución viene dada por: y, por lo tanto, la cuadrática de ajuste es:

  26. REGRESIÓN NO LINEAL

  27. UTILIDAD • Existe una gran cantidad de casos en ingeniería en donde modelos no lineales deben ser ajustados con datos.

  28. ¿EN QUÉ SE BASA? • Al igual que en los mínimos cuadrados lineales se basa en la determinación de los valores de los parámetros que minimizan la suma de los cuadrados de los residuos, la solución debe proceder en una forma iterativa.

  29. ¿CÓMO FUNCIONA? • El método de Gauss-Newton sirve para minimizar los cuadrados de los residuos entre datos y ecuaciones no lineales. • Forma lineal aproximada por medio de una expansión por serie de Taylor. • Nuevas estimaciones por medio de la teoría de mínimos cuadrados.

  30. MÉTODO DE GAUSS-NEWTON • Para resolver problemas no lineales por mínimos cuadrados. • Es un proceso iterativo. Debemos proporcionar una estimación inicial del parámetro vector que denominaremos p0.

  31. Dadas m funciones f1, ..., fm de n parámetros p1, ..., pn con m≥n, queremos minimizar la suma • Donde, p se refiere al vector (p1, ..., pn).

  32. Una estimación inicial del parámetro vector es p0. • Estimaciones posteriores pk para el vector parámetro son producidas por la relación recurrente: • donde f=(f1, ..., fm) yJf(p) denota el Jacobiano de f en p (nótese que no es necesario que Jf sea cuadrada).

  33. Una buena implementación del algoritmo de Gauss-Newton utiliza también un algoritmo de busqueda lineal: en lugar de la fórmula anterior para pk+1, se utiliza • Donde el número αk es de algún modo óptimo.

  34. CRITERIO DE PARO • El procedimiento antes descrito para la regresión no lineal se repite hasta que la solución converge, es decir cuando • este por debajo de un criterio de paro aceptable.

  35. POSIBLES PROBLEMAS • Para el método de Gauss-Newton las derivadas parciales pueden ser difíciles de calcular, una alternativa es: • Donde delta es la perturbación fraccional pequeña.

  36. OTROS POSIBLES PROBLEMAS • Puede converger con lentitud • Puede oscilar ampliamente, o sea cambia en forma continua de dirección. • Puede no converger

  37. Curva ajustada de un conjunto de datos no lineales.

  38. Gráfico de residuos

  39. EJEMPLO • Dada la función f(x;ao,a1)=ao (1-e-a1x)

  40. Haciendo uso de los valores iniciales: ao=1.0 y a1 =1.0 Se obtiene:

  41. De la matriz multiplicada por su transpuesta se obtiene:

  42. Se calcula el vector D que contiene las diferencias entre mediciones y predicciones del modelo.

  43. Los valores obtenidos se agregan al para metro inicial supuesto, se obtiene: ao=1.0 - 0.2714 = 0.7286 a1=1.0 + 0.5019 = 1.5019

More Related