Regressão Local
em 1964, Savitsky e Golay propuseram um método equivalente a LOESS, que é comumente referido como filtro Savitzky–Golay.William S. Cleveland redescobriu o método em 1979 e deu-lhe um nome distinto. O método foi desenvolvido por Cleveland e Susan J. Devlin (1988). LOWESS também é conhecido como regressão polinomial ponderada localmente.
em cada ponto da Gama do conjunto de dados é instalado um polinômio de baixo grau num subconjunto dos dados, com valores variáveis explicativos próximos do ponto cuja resposta está a ser estimada., O polinômio é montado usando os mínimos quadrados ponderados, dando mais peso para pontos próximos ao ponto cuja resposta está sendo estimada e menos peso para pontos mais distantes. O valor da função de regressão para o ponto é então obtido avaliando o polinômio local usando os valores da variável explicativa para esse ponto de dados. O ajuste do LOESS está completo após os valores da função de regressão terem sido calculados para cada um dos pontos de dados n {\displaystyle n}. Muitos dos detalhes deste método, como o grau do modelo polinomial e os pesos, são flexíveis., A gama de opções para cada parte do método e padrões típicos são brevemente discutidos em seguida.
subconjuntos localizados de dataEdit
os subconjuntos de dados utilizados para cada mínimo quadrado ponderado encaixado em LOESS são determinados por um algoritmo vizinho mais próximo. Uma entrada especificada pelo Usuário para o procedimento chamado “largura de banda” ou “parâmetro de suavização” determina a quantidade de dados que é usada para caber cada polinômio local. O parâmetro de suavização, α {\displaystyle \ alpha }, é a fracção do número total n de pontos de dados que são usados em cada ajuste local., O subconjunto de dados utilizado em cada ajuste dos Mínimos Quadrados ponderados compreende assim os pontos N α {\displaystyle n\alpha} (arredondados ao número inteiro maior seguinte), cujos valores das variáveis explicativas estão mais próximos do ponto em que a resposta está a ser estimada.
α {\displaystyle \ alpha } é chamado de parâmetro de suavização porque controla a flexibilidade da função de regressão LOESS. Os grandes valores de α {\displaystyle \alpha } produzem as funções mais suaves que menos se movem em resposta às flutuações nos dados., Quanto menor O α {\displaystyle \ alpha } for, mais próxima a função de regressão se conformará aos dados. Usando um valor muito pequeno do parâmetro de alisamento não é desejável, no entanto, uma vez que a função de regressão irá eventualmente começar a capturar o erro aleatório nos dados.
grau de polinomialsedit local
os polinômios locais se encaixam em cada subconjunto dos dados são quase sempre de primeiro ou segundo grau; ou seja, localmente lineares (no sentido de linha reta) ou localmente quadráticas. Usando um polinômio de grau zero transforma LOESS em uma média móvel ponderada., Polinômios de grau superior funcionariam em teoria, mas produziriam modelos que não estão realmente no espírito de LOESS. LOESS é baseado nas ideias de que qualquer função pode ser bem aproximada em um pequeno bairro por um polinômio de baixa ordem e que modelos simples podem ser adequados aos dados facilmente. Polinômios de alto grau tendem a sobrecarregar os dados em cada subconjunto e são numericamente instáveis, tornando cálculos precisos difíceis.,função de peso
função de peso
conforme mencionado acima, a função de peso dá o maior peso aos pontos de dados mais próximos do ponto de estimativa e o menor peso aos pontos de dados mais distantes. O uso dos pesos é baseado na ideia de que pontos próximos um do outro no espaço da variável explicativa são mais propensos a estar relacionados um com o outro de uma maneira simples do que pontos que estão mais distantes. Seguindo esta lógica, pontos que são susceptíveis de seguir o modelo local melhor influenciar o parâmetro do Modelo local estima o mais., Pontos que são menos propensos a realmente conformar-se com o modelo local têm menos influência nas estimativas do parâmetro do Modelo local.
a função de peso tradicional usada para LOESS é a função de peso tri-cubo,
w (x)=(1 – | d / 3 ) 3 {\displaystyle w (x) = (1 – / d|^{3})^{3}}
em que d é a distância de um dado ponto de dados a partir do ponto da curva montada, dimensionada para se situar na gama de 0 a 1.
no entanto, qualquer outra função de peso que satisfaça as propriedades listadas em Cleveland (1979) também pode ser usado., O peso para um ponto específico em qualquer localizadas subconjunto de dados é obtido através da avaliação do peso em função da distância entre esse ponto e o ponto de estimativa, depois de escalar a distância, de modo que o máximo de distância absoluta sobre todos os pontos do subconjunto de dados é exatamente um.
RSS x (a) = ∑ i = 1 n ( y i − A x ^ i) T w i ( x) (y i − a x ^ i). {\displaystyle \operatorname {RSS} _{x}(A)=\sum _{i=1}^{N}(y_{i}-A{\hat {x}}_{i})^{T}w_{i}(x)(y_{i}-A{\hat {x}}_{i}).,} Tr ( W ( x ) ( Y − X ^ ) T ( Y − X ^ ) ) {\displaystyle \operatorname {Tr} (W(x)(Y-{\hat {X}})^{T}(Y-{\hat {X}}))} X ^ W ( x ) X ^ T = Y W ( x ) X ^ T . {\displaystyle a{\hat {X}} W (x) {\hat {X}}^{T}=YW(x) {\hat {X}}^{T}.} A (x) = Y W (x ) X ^ T ( X ^ W (x ) X ^ T ) − 1 . {\displaystyle A(x)=YW(x){\hat {X}}^{T}({\hat {X}}W(x){\hat {X}}^{T})^{-1}.}
Uma escolha típica para w ( x , z ) {\displaystyle w(x,z)} é a Gaussiana de peso
w ( x , z ) = exp ( − ( x − z ) 2 2 σ 2 ) {\displaystyle w(x,z)=\exp \left(-{\frac {(x-z)^{2}}{2\sigma ^{2}}}\right)}