Articles

Régression locale

en 1964, Savitsky et Golay ont proposé une méthode équivalente à LOESS, communément appelée filtre de Savitzky–Golay.William S. Cleveland a redécouvert la méthode en 1979 et lui a donné un nom distinct. La méthode a été développée par Cleveland et Susan J. Devlin (1988). LOWESS est également connu sous le nom de régression polynomiale pondérée localement.

en chaque point de la plage de l’ensemble de données, un polynôme de faible degré est ajusté à un sous-ensemble des données, avec des valeurs de variables explicatives proches du point dont la réponse est estimée., Le polynôme est ajusté à l’aide des moindres carrés pondérés, donnant plus de poids aux points proches du point dont la réponse est estimée et moins de poids aux points plus éloignés. La valeur de la fonction de régression pour le point est ensuite obtenue en évaluant le polynôme local en utilisant les valeurs de la variable explicative pour ce point de données. L’ajustement LOESS est complet après que les valeurs de la fonction de régression ont été calculées pour chacun des n {\displaystyle n} points de données. De nombreux détails de cette méthode, tels que le degré du polynôme modèle et le poids, sont flexibles., La gamme de choix pour chaque partie de la méthode et les valeurs par défaut typiques sont brièvement discutées ensuite.

sous-ensembles localisés de dataEdit

Les sous-ensembles de données utilisés pour chaque ajustement des moindres carrés pondérés dans LOESS sont déterminés par un algorithme de voisins les plus proches. Une entrée spécifiée par l’utilisateur pour la procédure appelée » largeur de bande « ou » paramètre de lissage  » détermine la quantité de données utilisée pour s’adapter à chaque polynôme local. Le paramètre de lissage, α {\displaystyle \ alpha}, est la fraction du nombre total n de points de données utilisés dans chaque ajustement local., Le sous-ensemble de données utilisé dans chaque ajustement des moindres carrés pondérés comprend donc les N points α {\displaystyle n \ alpha} (arrondis au plus grand entier suivant) dont les valeurs des variables explicatives sont les plus proches du point auquel la réponse est estimée.

α {\displaystyle \alpha } est appelé paramètre de lissage car il contrôle la flexibilité de la fonction de régression de LOESS. Les grandes valeurs de α {\displaystyle \ alpha } produisent les fonctions les plus lisses qui se tortillent le moins en réponse aux fluctuations des données., Plus α {\displaystyle \alpha } est petit, plus la fonction de régression sera conforme aux données. L’utilisation d’une valeur trop petite du paramètre de lissage n’est cependant pas souhaitable, car la fonction de régression commencera éventuellement à capturer l’erreur aléatoire dans les données.

degré des polynômes locauxmodifier

les polynômes locaux adaptés à chaque sous-ensemble des données sont presque toujours de Premier ou deuxième degré; c’est-à-dire, soit localement linéaire (au sens de la ligne droite), soit localement quadratique. L’utilisation d’un polynôme de degré zéro transforme le LOESS en une moyenne mobile pondérée., Les polynômes de degré supérieur fonctionneraient en théorie, mais donnent des modèles qui ne sont pas vraiment dans l’esprit de LOESS. LOESS est basé sur l’idée que toute fonction peut être bien approximée dans un petit voisinage par un polynôme d’ordre bas et que des modèles simples peuvent être adaptés aux données facilement. Les polynômes de haut degré auraient tendance à suradapter les données de chaque sous-ensemble et sont numériquement instables, ce qui rend les calculs précis difficiles.,

fonction de Pondérationmodifier

Comme mentionné ci-dessus, la fonction de pondération donne le plus de poids aux points de données les plus proches du point d’estimation et le moins de poids aux points de données les plus éloignés. L’utilisation de la pondération est basée sur l’idée que des points proches les uns des autres dans la variable explicative de l’espace sont plus susceptibles d’être liés les uns aux autres d’une manière simple que les points qui sont plus éloignés. Suivant cette logique, les points qui sont susceptibles de suivre le modèle local influencent le plus les estimations des paramètres du modèle local., Les Points qui sont moins susceptibles de se conformer au modèle local ont moins d’influence sur les estimations des paramètres du modèle local.

la fonction de poids traditionnelle utilisée pour le LOESS est la fonction de poids tri-cube,

w (x) = (1 − | d | 3) 3 {\displaystyle w(x)=(1-|d|^{3})^{3}}

où d est la distance d’un point de données donné du point de la courbe à ajuster, mise à l’échelle pour se situer dans la plage de 0 à 1.

cependant, toute autre fonction de poids qui satisfait aux propriétés énumérées dans Cleveland (1979) pourrait également être utilisée., Le poids d’un point spécifique dans tout sous-ensemble localisé de données est obtenu en évaluant la fonction de poids à la distance entre ce point et le point d’estimation, après avoir mis à l’échelle la distance de sorte que la distance absolue maximale sur tous les points du sous-ensemble de données soit exactement un.

RSS x ⁡ (A) = i i = 1 N ( y i − A x ^ I ) T w I ( x) (y I − A x ^ i ) . {\displaystyle \operatorname {RSS} _{x}(A)=\sum _{i=1}^{N}(y_{i} Une{\hat {x}}_{i})^{T}w_{i}(x)(y_{i} Une{\hat {x}}_{i}).,} Tr ⁡ ( W ( x ) ( Y − X ^ ) T ( Y − X ^ ) ) {\displaystyle \operatorname {Tr} (W(x)(Y-A{\hat {X}})^{T}(Y-A{\hat {X}}))} X ^ W ( x ) X ^ T = Y W ( x ) X ^ T . {\displaystyle Un{\hat {X}}W(x){\hat {X}}^{T}=YW(x){\hat {X}}^{T}.} A ( x ) = Y p ( x ) X ^ T ( X ^ W ( x ) X ^ T ) − 1 . {\displaystyle(x)=YW(x){\hat {X}}^{T}({\hat {X}}W(x){\hat {X}}^{T})^{-1}.}

Un choix typique de w ( x , z ) {\displaystyle p(x,z)} est la Gaussienne de poids

w ( x , z ) = exp ⁡ ( − ( x − z ) 2 2 σ 2 ) {\displaystyle p(x,z)=\exp \left(-{\frac {(x-z)^{2}}{2\sigma ^{2}}}\right)}