Professional Documents
Culture Documents
INTRODUCCIN
REGRESIN DE LA MEDIA
REGRESIN MNIMO-CUADRTICA
REGRESIN LINEAL
RECTA DE REGRESIN Y/X
RECTA DE REGRESIN X/Y
COEFICIENTES DE REGRESIN
RESIDUOS
BONDAD DEL AJUSTE
VARIANZA RESIDUAL
VARIANZA DE LA REGRESIN
COEFICIENTE DE DETERMINACIN
REGRESIN MNIMO CUADRTICA NO-LINEAL
REGRESIN POTENCIAL
REGRESIN PARABLICA
REGRESIN EXPONENCIAL
INTRODUCCIN
La dependencia entre dos ( o ms ) variables puede ser tal que se base en una relacin
funcional (matemtica ) exacta, como la existente entre la velocidad y la distancia
recorrida por un mvil; o puede ser estadstica. La dependencia estadstica es un tipo de
relacin entre variables tal que conocidos los valores de la ( las) variable (variables )
independiente(s) no puede determinarse con exactitud el valor de la variable
dependiente, aunque si se puede llegar a determinar un cierto comportamiento (global)
de la misma. (Ej . : la relacin existente entre el peso y la estatura de los individuos de
una poblacin es una relacin estadstica) .
El estudio del grado de dependencia existente entre las variables que queda recogido
en la teora de la correlacin.
1
J.lejarza & I.Lejarza
En el caso bidimensional, dadas dos variables X e Y con una distribucin conjunta de
frecuencias ( xi, yj ,nij ), llamaremos regresin de Y sobre X ( Y/X) a una funcin que
explique la variable Y para cada valor de X, y llamaremos regresin de X sobre Y
(X/Y) a una funcin que nos explique la variable X para cada valor de Y.(Hay que
llamar la atencin, como se ver ms adelante, que estas dos funciones, en general, no
tienen por qu coincidir).
REGRESIN DE LA MEDIA.
2
J.lejarza & I.Lejarza
de la media de la distribucin de X condicionada a Yj .La funcin de regresin quedara
explicitada por el conjunto de puntos: ( x/yj ,yj ).
REGRESIN MNIMO-CUADRTICA
minimizando la expresin:
l k
i =1 j =1
(yj - (xi ) ) 2. nij en el caso de la regresin de Y/X
l k
i =1 j =1
(xi - (yj ) ) 2. nij en el caso de la regresin de X/Y
Puede probarse que es equivalente ajustar por mnimos cuadrados la totalidad de las
observaciones (toda la nube de puntos) que realizar el ajuste de los puntos obtenidos por
la regresin de la media; de forma que la regresin mnimo-cuadrtica viene ser, en
cierto modo, la consecucin de una expresin analtica operativa para la regresin en
sentido estricto.
3
J.lejarza & I.Lejarza
REGRESIN LINEAL A pesar de la sencillez de las funciones lineales tiene una
importancia fundamental. La regresin ser lineal cuando la funcin de ajuste
seleccionada sea una funcin lineal, una recta, se habla tambin de recta de regresin.
regresin).
i =1 j =1
(yj - (a+b xi) ) 2.nij sea mnima .
Habr que encontrar los valores de los parmetros a y b que minimizan esa expresin.
Es decir que anulan simultneamente las derivadas parciales de la funcin:
l k
(a,b)=
i =1 j =1
(yj - (a+b xi) ) 2.nij: (Sistema de ecuaciones normales)
l k
a
=0 2 e =0
i =1 j =1
(yj -a-b xi ) . nij (-1)= 0
l k l k
=0 2[ yj -a-b xi ) . nij ].[- xi nij ] = 0
b i =1 j =1 i =1 j =1
l k l k l k
i =1 j =1
yj nij =a nij +b
i =1 j =1
i =1 j =1
xi nij
l k l k l k
i =1 j =1
yj xi nij = a xi nij +b
i =1 j =1
i =1 j =1
xi2 nij
(*1)
4
J.lejarza & I.Lejarza
Sxy=b S2x (*2)
de forma que de (*1) y de (*2) se concluye que los valores de a y b que minimizan los
cuadrados de los residuos y que, por tanto son los parmetros del ajuste mnimo-
cuadrtico sern:
l k
i =1 j =1
(xi - (a'+b' yj) ) 2.nij sea mnima .
Habr que encontrar los valores de los parmetros a' y b' que minimizan esa expresin
.Es decir que anulan simultneamente las derivadas parciales de la funcin:
l k
(a' , b' )= (xi - (a'+b' yj) ) 2.nij : (Sistema de ecuaciones normales)
i =1 j =1
5
J.lejarza & I.Lejarza
l k
=0 2 (xi -a'-b' yj ) . nij (-1)= 0
a i =1 j =1
l k l k
=0 2 [ xi -a'-b' yj ) . nij ].[- yj nij ] = 0
b i =1 j =1 i =1 j =1
l k l k l k
i =1 j =1
xi nij =a' nij +b'
i =1 j =1
i =1 j =1
yj nij
l k l k l k
i =1 j =1
yj xi nij = a
i =1 j =1
xi nij +b xi2 nij
i =1 j =1
(*1')
de forma que de (*1') y de (*2') se concluye que los valores de a' y b'que minimizan los
cuadrados de los residuos y que, por tanto son los parmetros del ajuste mnimo-
cuadrtico sern:
6
J.lejarza & I.Lejarza
Otra expresin alternativa de la recta de regresin de regresin Y/X es:
Coeficientes de regresin
Nota.
Realizada la regresin (por ejemplo la Y/X, aunque ocurre igual con la X/Y),
Puede igualmente considerarse otra variable e (llamada residuo) que resulta ser,
precisamente la diferencia entre el valor real de la variable regresando (Y) y el valor
terico de la regresin (Y*):
ei=yi-y*i
Adems es sencillo probar que las variables regresin y residuo estn incorrelacionadas
y por tanto:
7
J.lejarza & I.Lejarza
BONDAD DEL AJUSTE (Varianza residual, varianza de la regresin y coeficiente
de determinacin)
Por bondad del ajuste hay que entender el grado de acoplamiento que existe entre los
datos originales y los valores tericos que se obtienen de la regresin. Obviamente
cuanto mejor sea el ajuste, ms til ser la regresin a la pretensin de obtener los
valores de la variable regresando a partir de la informacin sobre la variable regresora
Obtener indicadores de esta bondad de ajuste es fundamental a la hora de optar por una
regresin de un determinado tipo u otro.
Puesto que la media de los residuos se anula, el primer indicador de la bondad del ajuste
(no puede ser el error medio) ser el error cuadrtico medio, o varianza del residuo, o
varianza residual :
Que ser una cantidad mayor o igual que cero.De forma que cuanto ms baja sea mejor
ser el grado de ajuste. Si la varianza residual vale cero el ajuste ser perfecto (ya que
no existir ningn error ).
Considerando que la varianza nos mide la dispersin de los datos este hecho hay que
entenderlo como que la dispersin total inicial queda, en parte explicada por la regresin
y en parte no.Cuanto mayor sea la proporcin de varianza explicada (y menor la no
explicada) tanto mejor ser el ajuste y tanto ms til la regresin.
8
J.lejarza & I.Lejarza
A la proporcin de varianza explicada por la regresin se le llama coeficiente de
determinacin ( en nuestro caso lineal):
S y2* S y2*
R =
2
R =
2
S2 S2
que evidentemente estar siempre comprendido entre 0 y 1 y, en consecuencia, da
cuenta del tanto por uno explicado por la regresin.
Es sencillo probar que en el caso lineal que nos ocupa el coeficiente de determinacin
coincide con el cuadrado del coeficiente de correlacin: R2 = r2
Supongamos para simplificar que los datos no estn agrupados por frecuencias.
Igualando a cero las tres derivadas parciales se obtendr las ecuaciones normales, que
convenientemente manipuladas acaban siendo:
9
J.lejarza & I.Lejarza
k l l
j=1
yj =N a0 + a1
i=1
xi + a2 xi2
i=1
l k l l l
i =1 j =1
yjxi = a0
i=1
xi + a1
i=1
x + a2 xi3
i
2
i=1
l k l l l
i =1 j =1
yjxi2 = a0
i=1
xi2 + a1 xi3 + a2 xi4
i=1 i=1
Sistema de ecuaciones del que se pueden despejar los valores de los coeficientes de
regresin.
Regresin exponencial
Ser aquella en la que la funcin de ajuste ser una funcin exponencial del tipo
y = a.bx
a = antilog A y b = antilog B.
Regresin potencial.
Ser aquella en la que la funcin de ajuste sea una funcin potencial del tipo:
y = a. xb
10
J.lejarza & I.Lejarza