Articles

Lokal regression (Svenska)

1964 föreslog Savitsky och Golay en metod som motsvarar LOESS, som vanligtvis kallas savitzky–Golay-filter.William S. Cleveland återupptäckte metoden 1979 och gav den ett distinkt namn. Metoden vidareutvecklades av Cleveland och Susan J. Devlin (1988). LOWESS är också känd som lokalt viktad polynom regression.

vid varje punkt i intervallet för datamängden är ett låggradigt polynom monterat på en delmängd av data, med förklarande variabla värden nära den punkt vars svar uppskattas., Polynomet är monterat med viktade minsta rutor, vilket ger mer vikt till punkter nära den punkt vars svar uppskattas och mindre vikt till punkter längre bort. Värdet av regressionsfunktionen för punkten erhålls sedan genom att utvärdera det lokala polynomet med hjälp av de förklarande variabla värdena för den datapunkten. LOESS fit är komplett efter att regressionsfunktionsvärdena har beräknats för var och en av datapunkterna n {\displaystyle n}. Många av detaljerna i denna metod, såsom graden av polynommodellen och vikterna, är flexibla., Utbudet av val för varje del av metoden och typiska standardvärden diskuteras kortfattat nästa.

lokaliserade delmängder av dataEdit

delmängderna av data som används för varje viktad minsta kvadrat som passar in i LOESS bestäms av en närmaste grannalgoritm. En användarspecificerad ingång till proceduren som kallas ”bandbredd” eller ”utjämningsparameter” bestämmer hur mycket av data som används för att passa varje lokalt polynom. Utjämningsparametern, α {\displaystyle \ alpha }, är fraktionen av det totala antalet n datapunkter som används i varje lokal passform., Den delmängd av data som används i varje viktad minsta rutor passar således innefattar n α {\displaystyle n\alpha } punkter (avrundat till nästa största heltal) vars förklarande variabler värden är närmast den punkt där svaret uppskattas.

α {\displaystyle \alpha } kallas utjämningsparametern eftersom den styr flexibiliteten hos loess-regressionsfunktionen. Stora värden på α {\displaystyle \ alpha } producerar de smidigaste funktionerna som vickar minst som svar på fluktuationer i data., Ju mindre α {\displaystyle \ alpha } är desto närmare regressionsfunktionen överensstämmer med data. Att använda för liten ett värde av utjämningsparametern är dock inte önskvärt, eftersom regressionsfunktionen så småningom börjar fånga det slumpmässiga felet i data.

grad av lokal polynomialsEdit

de lokala polynomerna passar till varje delmängd av data är nästan alltid av första eller andra graden; det vill säga antingen lokalt linjär (i rak linje) eller lokalt kvadratisk. Med hjälp av en noll graders polynom blir LOESS till ett vägt glidande medelvärde., Högre grad polynom skulle fungera i teorin, men ger modeller som inte är riktigt i LOESSENS anda. LOESS är baserad på de idéer som någon funktion kan vara väl approximerad i ett litet område av en låg ordning polynom och att enkla modeller kan passa till data enkelt. Hög grad polynom tenderar att överfitta data i varje delmängd och är numeriskt instabila, vilket gör exakta beräkningar svåra.,

weight functionEdit

som nämnts ovan ger viktfunktionen mest vikt till datapunkterna närmast punkten för uppskattning och minsta vikt till de datapunkter som är längst bort. Användningen av vikterna bygger på tanken att punkter nära varandra i det förklarande variabla utrymmet är mer benägna att vara relaterade till varandra på ett enkelt sätt än punkter som är längre ifrån varandra. Efter denna logik påverkar punkter som sannolikt kommer att följa den lokala modellen bäst den lokala modellparametern mest., Punkter som är mindre benägna att faktiskt överensstämma med den lokala modellen har mindre inflytande på den lokala modellparameterns uppskattningar.

den traditionella viktfunktionen som används för LOESS är funktionen Tri-cube weight,

w (x) = (1 – / D / 3 ) 3 {\displaystyle w(x)=(1 – / d|^{3})^{3}}

där d är avståndet för en given datapunkt från den punkt på kurvan som är monterad, skalas för att ligga i intervallet från 0 till 1.

alla andra viktfunktioner som uppfyller de egenskaper som anges i Cleveland (1979) kan dock också användas., Vikten för en viss punkt i någon lokaliserad delmängd av data erhålls genom att utvärdera viktfunktionen på avståndet mellan den punkten och punkten för uppskattning, efter skalning av avståndet så att det maximala absoluta avståndet över alla punkter i delmängden av data är exakt en.

RSS (a) = i = 1 n ( y i − A X ^ i) T W i ( x) (y i − A X ^ i). {\displaystyle \ operatorname {RSS} _{x} (a)=\sum _{i = 1}^{n} (y_{i}-a{\hat {x}}_{i})^{t}w_{i} (x) (y_{i}-a{\hat {x}}_{i}).,} Tr ( W ( x ) ( Y − A X ^ ) T ( Y − A x ^ ) ) {\displaystyle \operatorname {Tr} (W(x)(Y-a{\hat {X}})^{T}(Y-a{\hat {X}}))} A X ^ W ( x ) x ^ T = Y W ( x ) x ^ t . {\displaystyle A {\hat {X}}W (x) {\hat {X}}^{T}=YW(x) {\hat {x}}^{t}.} A (x) = Y W ( x ) x ^ T ( X ^ W ( x) x ^ t) − 1 . {\displaystyle A (x)=YW(x) {\hat {X}}^{t}({\hat {X}}W(x) {\hat {X}}^{T})^{-1}.}

ett typiskt val för w(x , z ) {\displaystyle w ( x,z)} är Gaussisk vikt

w (x , z ) = exp (−(x − z ) 2 2 σ 2 ) {\displaystyle w (x,z)=\exp \left (- {\frac {(x-z)^{2}}{2 \ sigma ^{2}}} \ right)}