Regresión Local
en 1964, Savitsky y Golay propusieron un método equivalente a Loess, que se conoce comúnmente como filtro Savitzky–Golay.William S. Cleveland redescubrió el método en 1979 y le dio un nombre distinto. El método fue desarrollado por Cleveland y Susan J. Devlin (1988). LOWESS también se conoce como regresión polinómica localmente ponderada.
en cada punto del rango del conjunto de datos se ajusta un polinomio de bajo grado a un subconjunto de los datos, con valores de variables explicativas cerca del punto cuya respuesta se está estimando., El polinomio se ajusta utilizando mínimos cuadrados ponderados, dando más peso a los puntos cercanos al punto cuya respuesta se está estimando y menos peso a los puntos más alejados. El valor de la función de regresión para el punto se obtiene mediante la evaluación del polinomio local utilizando los valores de la variable explicativa para ese punto de datos. El ajuste de LOESS es completo después de que los valores de la función de regresión han sido calculados para cada uno de los n {\displaystyle N} puntos de datos. Muchos de los detalles de este método, como el grado del modelo polinómico y los pesos, son flexibles., El rango de opciones para cada parte del método y los valores predeterminados típicos se discuten brevemente a continuación.
subconjuntos localizados de dataEdit
los subconjuntos de datos utilizados para cada ajuste de mínimos cuadrados ponderados en LOESS están determinados por un algoritmo de vecinos más cercanos. Una entrada especificada por el usuario para el procedimiento llamada «ancho de banda» o «parámetro de suavizado» determina la cantidad de datos que se utiliza para ajustarse a cada polinomio local. El parámetro de suavizado, α {\displaystyle \ alpha }, es la fracción del número total n de puntos de datos que se utilizan en cada ajuste local., El subconjunto de datos utilizados en cada ajuste ponderado de mínimos cuadrados comprende los puntos n α {\displaystyle n \ alpha } (redondeados al siguiente entero más grande) cuyos valores de las variables explicativas son los más cercanos al punto en el que se estima la respuesta.
α {\displaystyle \ alpha } se denomina parámetro de suavizado porque controla la flexibilidad de la función de regresión de loess. Los grandes valores de α {\displaystyle \ alpha } producen las funciones más suaves que se mueven menos en respuesta a las fluctuaciones en los datos., Cuanto menor sea α {\displaystyle \ alpha }, más cercana será la función de regresión a los datos. Sin embargo, no es deseable usar un valor demasiado pequeño del parámetro suavizado, ya que la función de regresión eventualmente comenzará a capturar el error aleatorio en los datos.
grado de polinomios localeseditar
Los polinomios locales que se ajustan a cada subconjunto de los datos son casi siempre de primer o segundo grado; es decir, ya sea localmente lineal (en el sentido de línea recta) o localmente cuadrático. El uso de un polinomio de grado cero convierte a LOESS en una media móvil ponderada., Los polinomios de grado superior funcionarían en teoría, pero producirían modelos que no están realmente en el espíritu de LOESS. LOESS se basa en la idea de que cualquier función puede ser bien aproximada en un pequeño vecindario por un polinomio de orden bajo y que los modelos simples pueden ajustarse a los datos fácilmente. Los polinomios de alto grado tienden a sobreajustar los datos en cada subconjunto y son numéricamente inestables, lo que dificulta los cálculos precisos.,
función de Pesoeditar
como se mencionó anteriormente, la función de peso da el mayor peso a los puntos de datos más cercanos al punto de estimación y el menor peso a los puntos de datos que están más lejos. El uso de los pesos se basa en la idea de que los puntos cercanos entre sí en el espacio de la variable explicativa tienen más probabilidades de estar relacionados entre sí de una manera simple que los puntos que están más separados. Siguiendo esta lógica, los puntos que probablemente sigan el modelo local influyen mejor en las estimaciones del parámetro del modelo local., Los puntos que tienen menos probabilidades de ajustarse realmente al modelo local tienen menos influencia en las estimaciones de los parámetros del modelo local.
la función de peso tradicional utilizada para LOESS es la función de peso tri-cube, w ( x ) = ( 1 − | d / 3 ) 3 {\displaystyle w(x)=(1| / d|^{3})^{3}}
donde d es la distancia de un punto de datos dado desde el punto en la curva que se ajusta, escalado para estar en el rango de 0 a 1.
sin embargo, cualquier otra función de peso que satisfaga las propiedades enumeradas en Cleveland (1979) también podría ser utilizada., El peso para un punto específico en cualquier subconjunto localizado de datos se obtiene evaluando la función de peso a la distancia entre ese punto y el punto de estimación, después de escalar la distancia de modo que la distancia absoluta máxima sobre todos los puntos en el subconjunto de datos sea exactamente uno.
RSS x (a) = ∑ i = 1 N ( y I − A x ^ i) T w i ( x) (y I − A x ^ i). {\displaystyle \ operatorname {RSS} _{x}(a)=\sum _{i = 1}^{N}(Y_{i}-A{\hat {x}}_{i})^{T}w_{i}(x) (y_{i}-A{\hat {x}}_{i}).,} Tr ( W ( x ) ( Y − X ^ ) T ( Y − X ^ ) ) {\displaystyle \operatorname {Tr} (W(x)(Y-Un{\hat {X}})^{T}(S-A{\hat {X}}))} X ^ W ( x ) X ^ T = Y W ( x ) X ^ T . {\displaystyle Un{\hat {X}}W(x){\hat {X}}^{T}=YW(x){\hat {X}}^{T}.} A ( x) = Y W ( x ) X ^ T ( X ^ W ( x) X ^ T) − 1 . {\displaystyle Una(x)=YW(x){\hat {X}}^{T}({\hat {X}}W(x){\hat {X}}^{T})^{-1}.}
Una opción típica para w ( x , z ) {\displaystyle w(x,z)} es el Gaussiano de peso
w ( x , z ) = exp ( − ( x − z ) 2 2 σ 2 ) {\displaystyle w(x,z)=\exp \left(-{\frac {(x-z)^{2}}{2\sigma ^{2}}}\right)}