Método dos Mínimos Quadrados

Neste parágrafo vamos estudar a aproximação de funções numa perspectiva diferente da interpolação. Por exemplo, se tivermos apenas os valores da função em certos pontos, não vamos exigir que a função aproximadora interpole a função dada nos pontos. Exigimos apenas que essa função aproximadora tome valores (nesses pontos) de forma a minimizar a distância aos valores dados... falamos em minimizar, no sentido dos mínimos quadrados!

Isto é importante em termos de aplicações, já que podemos ter valores obtidos, experimentalmente, com uma certa incerteza. Ao tentar modelizar essa experiência, com uma certa classe de funções, seria inadequado exigir que a função aproximadora interpolasse esses pontos.

Um caso simples, em que se aplica esta teoria é o caso da regressão linear, em que tentamos adaptar a um conjunto de pontos e valores dados, a "melhor recta", que (neste caso) será a recta que minimiza a soma quadrática das diferenças entre os valores dados ao valores da recta, nesses pontos.


Regressão Linear: Neste caso pretendemos encontrar a função do tipo a + b x
(... ou seja, a recta) que "melhor se adapta" aos valores dados.

Esta é uma perspectiva discreta, em que o conjunto de valores dados é finito.
Podemos também pensar num caso contínuo, em que apesar de conhecermos a função, não apenas em certos pontos, mas em todo um intervalo, estamos interessados em aproximar essa função (... no sentido dos mínimos quadrados) por funções de uma outra classe, mais adequada ao problema que pretendemos resolver. Por exemplo, podemos estar interessados em determinar qual a "melhor recta" que aproxima a função sin(x) no intervalo [0, 1] ...


A recta que melhor aproxima sin(x) no intervalo [0,1],
no sentido dos mínimos quadrados




Caso Discreto

Consideremos, de novo, um conjunto de pontos x0 , ... , xn a que estão associados, respectivamente, os valores f(x0) , ... , f(xn) .

Temos que considerar agora uma classe de funções, entre as quais vamos tentar encontrar a que "melhor aproxima" aquele conjunto de valores, nos pontos dados.

Vamo-nos concentrar em funções da forma:


em que 0(x), ... , n(x) são funções base (linearmente independentes), e são conhecidas.

Neste caso, apenas teremos que determinar os parâmetros a0 , ... , an , de forma a que a soma quadrática das diferenças entre os f( xi ) e os g( xi ) seja mínima. Faz pois sentido introduzir a norma :


a que está associada o produto interno

A norma e o produto interno estão bem definidos para funções que assumem quaisquer valores
nos pontos x0 , ... , xn. Convém-nos trabalhar com estas noções, já que aquilo que iremos ver, de seguida, será exactamente igual no caso contínuo, apenas a norma e o produto interno serão diferentes (substituiremos o somatório por um integral...).

Pretende-se pois encontrar os parâmetros a0 , ... , an que minimizem a distância entre f e g , ou, o que é equivalente, minimizem :

Q = || f - g ||2 = ( f - g , f - g )

Para obtermos esse mínimo, começamos por procurar os valores a0 , ... , an tais que todas as derivadas parciais de Q sejam nulas, isto é:


Calculamos a derivada parcial, usando as propriedades da derivação do produto interno :


Por outro lado


e assim obtemos, para cada j de 0 até m :

( f - g , j ) = 0

Podemos ainda substituir a expressão de g e obtemos um sistema linear :


designado por Sistema Normal, que escrevemos matricialmente :


  • Verifica-se que se as funções base são linearmente independentes, o sistema normal é possível e determinado, pois temos:



    Teorema: A matriz do sistema normal é definida positiva sse as funções base 0 , ... , m forem linearmente independentes.


    Exemplo: No caso de considerarmos a aproximação através de funções polinomiais,
    temos como funções base, 0 = 1, ... , m = xm, e assim obtemos:



    Observações:

    1) A matriz Hessiana de Q coincide justamente com a matriz do sistema normal. Fica assim justificado que a solução do sistema normal, tratando-se de um ponto crítico de Q, e como a matriz Hessiana é definida positiva, seja o mínimo do funcional Q.
    2) Como a matriz é simétrica e definida positiva, o método apropriado para resolver o sistema normal é o método de Cholesky.
    3) No caso discreto, sendo os elementos da matriz do sistema normal
    ( i , j) = i ( x0 ) j ( x0 ) + ... + i ( xn ) j ( xn )

    podemos reparar que se trata de um produto na forma XTX , em que X é a matriz n x m :

    No caso polinomial, esta matriz X é a matriz de Vandermonde.


    Caso Contínuo

    Vamos considerar agora que conhecemos a função f não apenas em alguns pontos, mas sim num determinado intervalo [a, b] . Mais uma vez estamos interessados em aproximar f por funções da forma
    ou seja, com dependência linear dos parâmetros.

    A única diferença existente, face ao caso discreto, está na norma e no produto interno :

    Tudo se deduz de forma semelhante, e obtemos também um sistema normal, cuja única diferença está no significado dos produtos internos.

    Exemplo:
    No caso em que consideramos como funções base, os polinómios, 0 = 1, ... , m = xm, obtemos agora o sistema normal

    Esta matriz designa-se Matriz de Hilbert, e é extremamente mal condicionada. Com efeito, já para m = 3 obtemos Cond1 = 28375, e para m = 4 já atinge 943656, continuando a crescer fortemente! Temos, assim, problemas de condicionamento e consequentemente de instabilidade numérica, para este tipo de matrizes.















    Interpretação Geométrica dos Mínimos Quadrados

    Existe uma analogia geométrica entre os Met. Mínimos Quadrados e a determinação do ponto de um plano que se encontra a menor distância de um outro, exterior ao plano.

    Através de um produto interno podemos falar na projecção ortogonal, e relembramos que, exigir:

    ( f - g , j ) = 0
    significa exigir que f - g seja ortogonal a todos os j .