|
|
Neste parágrafo vamos estudar a aproximar de funções numa perspectiva diferente da interpolação. Por exemplo, se tivermos apenas os valores da função em certos pontos, não vamos exigir que a função aproximadora interpole a função dada nos pontos, ao invés, exigimos que essa função aproximadora tome valores, nesses pontos, de forma a minimizar a distância aos valores dados... falamos em minimizar, no sentido dos mínimos quadrados!
Isto é importante em termos de aplicações, já que podemos ter valores obtidos, experimentalmente, com uma certa incerteza. Ao tentar modelizar essa experiência, com uma certa classe de funções, é inadequado exigir que a função aproximadora interpole esses pontos.
Um caso simples, em que se aplica esta teoria é o caso da regressão linear, em que tentamos adaptar a um conjunto de pontos e valores dados, a "melhor recta", que (neste caso) será a recta que minimiza a soma quadrática das diferenças entre os valores dados ao valores da recta, nesses pontos.

Esta é uma perspectiva discreta, em que o conjunto de valores dados é finito.
Podemos também pensar num caso contínuo, em que apesar de conhecermos
a função, não apenas em certos pontos, mas em todo um intervalo, estamos interessados
em aproximar essa função (... no sentido dos mínimos quadrados) por funções de uma outra
classe, mais adequada ao problema que pretendemos resolver. Por exemplo, podemos
estar interessados em determinar qual a "melhor recta" que aproxima a função sin(x) no
intervalo [0, 1] ...

Consideremos, de novo, um conjunto de pontos x0 , ... , xn a que estão associados, respectivamente, os valores f(x0) , ... , f(xn) .
Temos que considerar agora uma classe de funções, entre as quais vamos tentar encontrar a que "melhor aproxima" aquele conjunto de valores, nos pontos dados.
Vamo-nos concentrar em funções da forma:

0(x), ... ,
n(x)
são funções base (linearmente independentes), e são conhecidas. Neste caso, apenas teremos que determinar os
parâmetros a0 , ... , an , de forma a que a soma quadrática das
diferenças entre os f( xi ) e os g( xi ) seja mínima.
Faz pois sentido introduzir a norma :


Pretende-se pois encontrar os parâmetros a0 , ... , an que minimizem a distância entre f e g , ou, o que é equivalente, minimizem :

Calculamos a derivada parcial, usando as propriedades da derivação do produto interno :

Por outro lado

e assim obtemos, para cada j de 0 até m :
j ) = 0
Podemos ainda substituir a expressão de g e obtemos um sistema linear :
![]() |
designado por Sistema Normal, que escrevemos matricialmente :
![]() |
Exemplo: No caso de considerarmos a aproximação através de funções polinomiais,
temos como funções base,
0 = 1, ... ,
m = xm,
e assim obtemos:

Teorema:
A matriz do sistema normal é definida positiva sse as funções
base
0 , ... ,
m
forem linearmente independentes.
Observações:
i ,
j) =
i ( x0 )
j ( x0 ) +
... +
i ( xn )
j ( xn )
podemos reparar que se trata de um produto na forma XTX , em que X é a matriz n x m :


A única diferença existente, face ao caso discreto, está na norma e no produto interno :

Tudo se deduz de forma semelhante, e obtemos também um sistema normal, cuja única diferença está no significado dos produtos internos.
Exemplo:
No caso em que consideramos como funções base, os
polinómios,
0 = 1, ... ,
m = xm,
obtemos agora o sistema normal
Existe uma analogia evidente entre os M. Mínimos Quadrados e a determinação
do ponto de um plano que a menor distância se encontra, de um outro, exterior
ao plano.
Através de um produto interno podemos falar na projecção ortogonal, e reparamos que, exigir:
m ) = 0
j .