Lokale Regression
1964 schlugen Savitsky und Golay eine Methode vor, die LÖSS entspricht und allgemein als Savitzky–Golay-Filter bezeichnet wird.William S. Cleveland entdeckte die Methode 1979 wieder und gab ihr einen eindeutigen Namen. Die Methode wurde von Cleveland und Susan J. Devlin (1988) weiterentwickelt. LOWESS wird auch als lokal gewichtete Polynomregression bezeichnet.
An jedem Punkt im Bereich des Datensatzes wird ein Polynom mit niedrigem Grad an eine Teilmenge der Daten angepasst, wobei erklärende Variablenwerte nahe dem Punkt liegen, dessen Antwort geschätzt wird., Das Polynom wird unter Verwendung der gewichteten kleinsten Quadrate angepasst, wodurch Punkte in der Nähe des Punktes, dessen Antwort geschätzt wird, mehr Gewicht und Punkte in weiter Entfernung weniger Gewicht erhalten. Der Wert der Regressionsfunktion für den Punkt wird dann erhalten, indem das lokale Polynom unter Verwendung der erklärenden Variablenwerte für diesen Datenpunkt ausgewertet wird. Die LÖSS-Anpassung ist abgeschlossen, nachdem die Regressionsfunktionswerte für jeden der n {\displaystyle n} – Datenpunkte berechnet wurden. Viele Details dieser Methode, wie der Grad des Polynommodells und die Gewichte, sind flexibel., Die Palette von Möglichkeiten für jeden Teil der Methode und typische Standardwerte werden kurz diskutiert weiter.
Lokalisierte Teilmengen von dataEdit
Die Teilmengen von Daten, die für jede gewichtete kleinste Quadrate fit in LÖSS verwendet werden, werden durch einen nearest neighbors Algorithmus bestimmt. Eine benutzerdefinierte Eingabe für die Prozedur, die als „Bandbreite“ oder „Glättungsparameter“ bezeichnet wird, bestimmt, wie viel der Daten für jedes lokale Polynom verwendet wird. Der Glättungsparameter α {\displaystyle \alpha } ist der Bruchteil der Gesamtzahl n der Datenpunkte, die in jeder lokalen Anpassung verwendet werden., Die Teilmenge der Daten, die bei jeder Anpassung der gewichteten kleinsten Quadrate verwendet werden, umfasst somit die n α {\displaystyle n\alpha } – Punkte (gerundet auf die nächstgrößte Ganzzahl), deren Werte der erklärenden Variablen dem Punkt am nächsten kommen, an dem die Antwort geschätzt wird.
α {\displaystyle \alpha } wird als Glättungsparameter bezeichnet, da er die Flexibilität der LÖSS-Regressionsfunktion steuert. Große Werte von α {\displaystyle \alpha } erzeugen die glattesten Funktionen, die als Reaktion auf Schwankungen in den Daten am wenigsten wackeln., Je kleiner α {\displaystyle \alpha } ist, desto näher kommt die Regressionsfunktion den Daten. Die Verwendung eines zu kleinen Werts des Glättungsparameters ist jedoch nicht wünschenswert, da die Regressionsfunktion schließlich beginnt, den zufälligen Fehler in den Daten zu erfassen.
Grad der lokalen Polynomenedit
Die lokalen Polynome, die zu jeder Teilmenge der Daten passen, sind fast immer ersten oder zweiten Grades; das heißt, entweder lokal linear (im geradlinigen Sinne) oder lokal quadratisch. Die Verwendung eines Null-Grad-Polynoms verwandelt LÖSS in einen gewichteten gleitenden Durchschnitt., Höhergradige Polynome würden theoretisch funktionieren, aber Modelle liefern, die nicht wirklich im Sinne von LÖSS sind. LÖSS basiert auf der Idee, dass jede Funktion in einer kleinen Nachbarschaft durch ein Polynom niedriger Ordnung gut angenähert werden kann und dass einfache Modelle leicht an Daten angepasst werden können. Hochgradige Polynome würden dazu neigen, die Daten in jeder Teilmenge zu überanpaßen und sind numerisch instabil, was genaue Berechnungen erschwert.,
Gewichtsfunktion >
Wie oben erwähnt, gibt die Gewichtsfunktion den Datenpunkten, die dem Schätzpunkt am nächsten sind, das meiste Gewicht und den Datenpunkten, die am weitesten entfernt sind, das geringste Gewicht. Die Verwendung der Gewichte basiert auf der Idee, dass Punkte nahe beieinander im erklärenden Variablenraum eher auf einfache Weise miteinander verwandt sind als Punkte, die weiter voneinander entfernt sind. Nach dieser Logik beeinflussen Punkte, die wahrscheinlich dem lokalen Modell folgen, am besten die Schätzungen des lokalen Modellparameters., Punkte, bei denen die Wahrscheinlichkeit geringer ist, dass sie tatsächlich dem lokalen Modell entsprechen, haben weniger Einfluss auf die Schätzungen der lokalen Modellparameter.
Die traditionelle gewicht funktion verwendet für LÖSS ist die tri-cube gewicht funktion,
w (x ) = ( 1 – / d | 3) 3 {\displaystyle w (x)=(1| / d|^{3})^{3}}
wobei d der Abstand eines gegebenen Datenpunkts von dem Punkt auf der angepassten Kurve ist, der so skaliert ist, dass er im Bereich von 0 bis 1 liegt.
Es könnte jedoch auch jede andere Gewichtsfunktion verwendet werden, die die in Cleveland (1979) aufgeführten Eigenschaften erfüllt., Das Gewicht für einen bestimmten Punkt in einer lokalisierten Teilmenge von Daten wird erhalten, indem die Gewichtsfunktion im Abstand zwischen diesem Punkt und dem Schätzpunkt ausgewertet wird, nachdem der Abstand so skaliert wurde, dass der maximale absolute Abstand über alle Punkte in der Teilmenge von Daten genau eins ist.
RSS-x ( A ) = ∑ i = 1 N ( y i − x ^ i ) T w i ( x ) ( y i − x ^ i ) . {\displaystyle \operatorname {RSS} _{x}(A)=\sum _{i=1}^{N}(y_{i}-A{\hat {x}}_{i})^{T}w_{i}(x)(y_{i}-A{\hat {x}}_{i}).,} Tr ( B ( x ) ( Y − X ^ ) T ( Y − X ^ ) ) {\displaystyle \operatorname {Tr} (B(x)(Y-A{\hat {X}})^{T}(Y-A{\hat {X}}))} X ^ W ( x ) X ^ T = Y W ( x ) X ^ T . {\displaystyle A{\hat {X}}W(x){\hat {X}}^{T}=YW(x){\hat {X}}^{T}.} A ( x ) = Y W ( x ) X ^ T ( X ^ W ( x ) X ^ T ) − 1 . {\displaystyle A(x)=YW(x){\hat {X}}^{T}({\hat {X}}W(x){\hat {X}}^{T})^{-1}.}
Eine typische Wahl für w ( x , z ) {\displaystyle w(x,z)} ist die Gauß-Gewicht
w ( x , z ) = exp ( − ( x − z ) 2 2 σ 2 ) {\displaystyle w(x,z)=\exp \left(-{\frac {(x-z)^{2}}{2\sigma ^{2}}}\right)}