Lokal regression
i 1964 foreslog Savitsky og Golay en metode svarende til LOESS, der almindeligvis betegnes Savitkyky–Golay filter.Clevelandilliam S. Cleveland genopdagede metoden i 1979 og gav den et særskilt navn. Metoden blev videreudviklet af Cleveland og Susan J. Devlin (1988). Lo .ess er også kendt som lokalt vægtet polynomial regression.
på hvert punkt i datasættets område er der monteret et polynom i lav grad på en delmængde af dataene med forklarende variable værdier nær det punkt, hvis respons estimeres., Polynomiet er monteret ved hjælp af vægtede mindste kvadrater, hvilket giver mere vægt til punkter nær det punkt, Hvis svar er ved at blive anslået og mindre vægt til punkter længere væk. Værdien af regression funktion for det punkt er derefter opnået ved at evaluere den lokale polynomium ved hjælp af de forklarende variable værdier for dette datapunkt. Den LOESS fit er komplet efter regression funktionsværdier er blevet beregnet for hver af de n {\displaystyle n} datapunkter. Mange af detaljerne i denne metode, såsom graden af polynommodellen og vægtene, er fleksible., Udvalget af valg for hver del af metoden og typiske standardindstillinger diskuteres kort næste.
lokaliserede delmængder af dataEdit
de delmængder af data, der anvendes for hver vægtet mindste kvadrater passer i LOESS bestemmes af en nærmeste naboer algoritme. En brugerdefineret indgang til proceduren kaldet” båndbredde “eller” udjævningsparameter ” bestemmer, hvor meget af dataene der bruges til at passe til hvert lokalt polynom. Udjævningsparameteren α {\displaystyle \ alpha } er brøkdelen af det samlede antal n af datapunkter, der bruges i hver lokal pasform., Den delmængde af data, der anvendes i hver vægtet mindste kvadrater passer således omfatter n {{\displaystyle n\alpha } punkter (afrundet til den næststørste heltal) hvis forklarende variabler’ værdier er tættest på det punkt, hvor svaret er ved at blive anslået.
α {\displaystyle \alpha } kaldes udjævningsparameteren, fordi den styrer fleksibiliteten i LOESS-regressionsfunktionen. Store værdier af alpha {\displaystyle \alpha } producerer de glateste funktioner, der vinkler mindst som reaktion på udsving i dataene., Jo mindre alpha {\displaystyle \alpha } er, jo tættere er regressionsfunktionen i overensstemmelse med dataene. Brug af for lille en værdi af udjævningsparameteren er imidlertid ikke ønskelig, da regressionsfunktionen til sidst vil begynde at fange den tilfældige fejl i dataene.
grad af lokal polynomialsEdit
de lokale polynomier, der passer til hver delmængde af dataene, er næsten altid af første eller anden grad; det vil sige enten lokalt lineær (i lige linje) eller lokalt kvadratisk. Ved hjælp af en nul grad polynomium forvandler løss i en vægtet glidende gennemsnit., Højere grad polynomier ville arbejde i teorien, men giver modeller, der ikke rigtig er i LOESS ‘ ånd. LOESS er baseret på ideerne om, at enhver funktion kan tilnærmes godt i et lille kvarter af et polynom med lav orden, og at enkle modeller let kan passe til data. Polynomier i høj grad ville have en tendens til at overfylde dataene i hver delmængde og er numerisk ustabile, hvilket gør nøjagtige beregninger vanskelige.,
Vægtfunktionedit
Som nævnt ovenfor giver vægtfunktionen den største vægt til de datapunkter, der er tættest på estimeringspunktet, og den mindste vægt til de datapunkter, der er længst væk. Brugen af vægtene er baseret på ideen om, at punkter nær hinanden i Det Forklarende variable rum er mere tilbøjelige til at være relateret til hinanden på en enkel måde end punkter, der er længere fra hinanden. Efter denne logik påvirker punkter, der sandsynligvis følger den lokale model, bedst den lokale modelparameter estimerer mest., Punkter, der er mindre tilbøjelige til faktisk at overholde den lokale model, har mindre indflydelse på de lokale modelparameterestimater.
Den traditionelle vægt funktion bruges til LØSS er tri-cube vægt funktion,
w ( x ) = ( 1 − | d | 3 ) 3 {\displaystyle w(x)=(1-|d|^{3})^{3}}
hvor d er afstanden mellem en given data punkt fra det punkt på kurven bliver monteret, og som skaleres til at ligge i intervallet fra 0 til 1.
imidlertid kan enhver anden vægtfunktion, der opfylder de egenskaber, der er anført i Cleveland (1979), også anvendes., Vægten for et bestemt punkt i en lokaliseret delmængde af data opnås ved at evaluere vægtfunktionen i afstanden mellem dette punkt og estimeringspunktet efter skalering af afstanden, så den maksimale absolutte afstand over alle punkterne i delmængden af data er nøjagtigt en.
RSS. ((a)=. i = 1 N ( y i − A ^ ^ i ) T. I (.) (Y i − A ^ ^ i). {\displaystyle \operatorname {RSS} _{x}(A)=\sum _{i=1}^{N}(y_{jeg} En{\hat {x}}_{i})^{T}w_{jeg}(x)(y_{jeg} En{\hat {x}}_{i}).,} Tr ((((() (Y − A^^) t(y − a^^)) {\displaystyle \operatorname {Tr} (((.) (Y-a{\hat {.}}) ^ {T} (Y-a{\hat {.}}))} A ^ ^ ((.) ^ ^ T = Y ((.) ^ ^ T. det er en god id., at du har brug for at vide mere om det.} A (() = Y ((.) ^ ^ T (. ^ ((.) ^ ^ T) − 1. {\displaystyle A ())=Y (({) {\hat {}}}^{t} ({\hat {.}} W (.) {\hat {.}}^{T})^{-1}.}
et typisk valg for {(,,,) {\displaystyle ((,,,)} er den gaussiske vægt
w (,,,) = e =p ((−(2−)) 2 2 2 2) {\displaystyle left (,,,)=\e {p \venstre (- {\frac {(, -))^{2}} {2\sigma ^{2}}} \ højre)}