You are on page 1of 123

Bolo N1 y 4

AUTOCORRELACION
1. INTRODUCCIN
En el desarrollo del presente Bolo, se encontrar similitudes en muchos aspectos con el bolo de
heteroscedasticidad, puesto que en presencia de autocorrelacin y de heteroscedasticidad, los
estimadores MCO corrientes, a pesar de ser insesgados, dejan de tener mnima varianza entre
todos los estimadores lineales insesgados. En resumen, dejan de ser MELI.
El termino autocorrelacion se puede definir como la correlacin entre miembros de series de
observaciones ordenadas en el tiempo. ( Como en informacin de series de tiempo) o en el
espacio ( como en informaciones de corte transversal). En el contexto de regresin, el modelo
clsico de regresin lineal supone que no existe tal autocorrelacin en las perturbaciones ui.
Simblicamente
E (ui uj) = 0 i

j
Expresado en forma sencilla, el modelo clsico supone que el trmino de perturbacin relacionado
con una observacin cualquiera no est influenciado por el trmino de perturbacin relacionado con
cualquier otra observacin. Por ejemplo, si se est tratando con informacin trimestral de series de
tiempo, para efectuar una regresin de la produccin sobre los insumos trabajo y capital y si, por
ejemplo hay una huelga laboral que afecta la produccin en un trimestre, no hay razn para pensar
que esta interrupcin afectar la produccin de trimestre siguiente. Es decir, si la produccin es
inferior este trimestre, no hay razn para esperar que sta sea baja en el siguiente trimestre. En
forma similar, si se est tratando con informacin de corte transversal que involucra la regresin del
gasto de consumo familiar sobre el ingreso familiar no se espera que el efecto de un incremento en
el ingreso de una familia sobre su gasto de consumo incida sobre el gasto de consumo de otra.
Sin embargo, si tal dependencia existe, se tiene autocorrelacin. Simblicamente,
E (ui uj)

0 i

j
En esta situacin, la interrupcin ocasionada por una huelga este trimestre puede afectar muy
fcilmente la produccin del siguiente trimestre, o los incrementos en el gasto de consumo de una
familia pueden inducir muy fcilmente a otra familia a aumentar su gasto de consumo para no
quedarse atrs de la primera.
Antes de encontrar la razn de la existencia de la autocorrelacin, es esencial aclarar algunos
aspectos de terminologa. Aunque, hoy en da, es prctica comn tratar como sinnimos los
trminos autocorrelacin y correlacin serial, algunos autores prefieren diferenciar los dos
trminos.
Por ejemplo;
Tintner define la autocorrelacion como correlacin rezagada de una serie dada consigo misma,
rezagada por un nmero de unidades de tiempo, mientras que reserva el trmino de correlacin
serial para correlacin rezagada entre dos series diferentes.As la correlacin entre dos series de
tiempo tales como u1,u2,....,u10 y u2, u3,....,u11, donde la primera es igual a la ltima rezagada un
perodo de tiempo, es autocorrelacin, mientras que la correlacin entre dos serie de tiempo tales
como u1,u2,...u10 y v2,v3,...,v11, donde u y v son dos series de tiempo diferentes, se denomina
correlacin serial. Aunque la distincin entre los dos trminos puede ser de utilidad, en este bolo se
considerar como sinnimos.
Se puede visualizar algunos de los patrones razonables de autocorrelacin u de no autocorrelacin,
los cuales estn dados en la figura (A). Las figuras (A) a hasta d muestran que hay un patrn
distinguible entre las u. La figura (A) muetra un patrn cclico; la figuras (A) b y c sugueren una
tendencia lineal hacia arriba o hacia abajo en las perturbaciones; y la figura (A= d indica que tanto
trminos de tendencia lineal como de tendencia cuadrtica estn presentes en las perturbaciones.
1
Solamente la figura (A) e indica que no hay un patrn sistemtico, apoyando el supuesto de no
autocorrelacin del modelo clsico de regresin lineal
Entonces;
1) Y = u +
2) u N
3) E (u) = 0
MRLNC 4) V(ui) = E(ui
2
)=
2
Homoscedasticidad
5) Cov(ui,uj) = E(ui,uj)=0 No autocorrelacin
5.- X es fijo
Si:
0 ) ( ) (
j i j i
u u Cov u u E
AUTOCORRELACION
Donde
ij j i
u u E ) (
0
ij

AUTOCORRELACION
CAUSAS DE LA AUTOCORRELACIN:
Auge Auge

Crisis Crisis
tiempo

Algunas de las diversas rezones son las siguientes:
- Inercia : Una caracterstica relevante de la mayora de las series de tiempo econmicas es
la inercia o lentitud. Como bien se sabe, las series de tiempo tales como el PNB, los ndices de
precios, la produccin, el empleo y el desempleo, presentan ciclos (econmicos). Empezando en
el fondo de la recesin, cuando se inicia la recuperacin econmica, la mayora de estas series
empiezan a moverse hacia arriba. En este movimiento, el valor de una serie en un punto en el
tiempo es mayor que su valor anterior. Por tanto, existe un momento intrnseco en ellas que
continua hasta que algo ocurre (por ejemplo, un aumento en la tasa de inters o en los
impuestos o ambos) que hace que estas disminuyan su ritmo. Por tanto, en las regresiones que
consideran datos de series de tiempo, es probable que las observaciones sucesivas sean
independientes.
- Sesgo de especificacin: caso de variables excluidas (Especificacin errnea):
En el anlisis emprico, el investigador frecuentemente empieza con un modelo de regresin
razonable que puede no ser ms perfecto. Despus del anlisis de regresin, el investigador hara
el examen post-mortem, para encontrar si los resultados estn de acuerdo con las expectativas a
priori.De no ser as, se iniciara la ciruga.
2
D
e
p
r
e
s
i

n
D
e
p
r
e
s
i

n
R
e
c
u
p
e
r
a
c
i

n
R
e
c
u
p
e
r
a
c
i

n
Frecuentemente, la inclusin de tales variables elimina el patrn de correlacin observado entre los
residuales. Por ejemplo, supngase que se tiene el siguiente modelo de demanda:
t t t t i
u X X X Y + + + +
4 4 3 3 2 2 1
((1))
Donde: Yi = Cantidad de carne de res demandada
X2 = Precio de la carne de res
X3 = Ingreso del consumidor
X4 = Precio del cerdo
t = tiempo
Sin embargo por alguna razn se efecta la siguiente regresin:
t t t i
v X X Y + + +
3 3 2 2 1
((2))
Ahora, si ((1)), es el modelo correcto o el verdadero o la relacin verdadera, efectuar ((2))
equivale a permitir que
t t i
u X v +
4 4
) ; (
3 i i i
u X f v Autocorrelacion
As en la medida en que el precio del cerdo afecte el consumo de carne de res, el trmino de error o
de perturbacin v reflejar un patrn sistemtico, creando as autocorrelacin.
0 ) (
j i
u u Cov
AUTOCORRELACION
- Especificacin incorrecta
+ + +
t
t
t t
u C
2
3 2 1
Modelo correcto
+ +
t t t
C
2 1
Modelo incorrecto
Donde: +
t
t
t
u
2
3
AUTOCORRELACION
- Sesgo de especificacin: forma funcional incorrecta; Supngase que el modelo
verdadero o correcto en un estudio de costo-produccin es el siguiente:
i i i i
u produccin produccin inal M Costo
i
+ + +
2
3 2 1
arg
Pero se ajusta el siguiente modelo:
i i i
v produccin inal m to + +
2 1
arg cos
La curva de costo marginal correspondiente al verdadero modelo se muestra en la figura ((A))
junto con la curva incorrecta de costo lineal.
Como se muestre en la figura ((A)), entre los puntos Ay B, la curva de costo marginal lineal
sobreestimar consistentemente al costo marginal verdadero, mientras es de esperarse porque el
trmino de perturbacin vi es, en realidad, igual a la produccin
2
+ ui, y por tanto, capta el efecto
sistemtico del trmino produccin
2
sobre el costo marginal. En este caso vi reflejar
autocorrelacin por el uso de una forma funcional incorrecta.
B
A
0
-
-
- Fenmeno de la telaraa; La oferta de muchos productos agrcolas refleja el llamado
fenmeno de la telaraa en donde la oferta reacciona al precio con un resago de un perodo de
tiempo debido a que la implementacin de las decisiones de oferta toman tiempo. Por tanto, en
la siembra de cosechas al principio de este ao, los agricultores estn influenciados por el
precio prevaleciente el ao anterior, de tal forma que su funcin de oferta es:
3
Produccin
C
o
s
t
o

M
a
r
g
i
n
a
l

d
e

P
r
o
d
u
c
c
i

n

Figura ((1))
Sesgo de
especificacin:
forma funcional
i t t
u P Oferta + +
1 2 1

Supngase que al final del periodo t, el precio Pt resulta ser inferior a Pt-1. Por consiguiente, es muy
probable que los agricultores decidan producir en el perodo t + 1 menos de los que produjeron en el
periodo t. Obviamente, en esta situacin no se espera que las perturbaciones ui, sean aleatorias
porque si los agricultores producen excedentes en el ao t , es probable que reduzcan su produccin
en t +1 y as sucesivamente, conduciendo a un patrn de telaraa.
ut ut
0 tiempo
AC (+) 0 ut-1
AC (+)
ut ut
t
ut-1

AC(-)
2. ESTIMACIN DE MCO EN PRESENCIA DE LA AUTOCORRELACION (MELI EN
PRESENCIA DE AC)
Qu les sucede a los estimadores MCO y a sus varianzas si se introduce autocorrelacin en las
perturbaciones, suponiendo que E(ui,uj) 0 (i j), pero se conservan todos los dems supuestos
del modelo clsico?
Para explicar esto tenemos el siguiente modelo de regresin con dos variables:
t t t
u X Y + +
2 1
Modelo original
Donde t denota los datos u observaciones en el tiempo t; obsrvece que ahora se est tratando con
series de tiempo.
Para orientar el camino, se debe ahora suponer el mecanismo que generan las ut, ya que E(ut * ut+s)
0 (s 0) es muy general como supuesto para ser de alguna utilidad prctica. Como punto de
partida, o primera aproximacin, se puede suponer que las perturbaciones se generan de la
siguiente manera:
Modelo AR(1) 1 1
1
< < +


t t t
u u (2.1)

0 ) (
1 t t
u u Cov Autocorrelacion
Donde

Se conoce como el coeficiente de autocovarianza y donde


t
es la perturbacin
estocstica establecida de tal forma que satisface los supuestos MCO estndar, a saber;
( ) 0
t
E
( )
0 0 ) , cov(
var
2

+
s
s t t
t


(2.2)
El esquema (2.1) se conoce como un esquema autoregresivo de primer orden y se denota como
AR(1). El nombre de autoregresivo, es apropiado puesto que (2.1) puede ser interpretado como la
4
Ausencia de Autocorrelacin
regresin de ui sobre su propio resago un perodo. Es de primer orden porque solamente ui y su
valor pasado inmediato estn involucrados, es decir, el rezago mximo es 1.
Microsoft Editor de
ecuaciones 3.0
MODELO AR-1
AR- 1 = modelo de autoregresion de primer orden (cuantifica el valor de las variables aleatorias)
AR-2 = Modelo de autoregresion de segundo orden.
Si el modelo fuera:
)
2 2 1 1 t t t t
u u u + +

MODELO AR-2
[ ][ ]
[ ] [ ]
2
1 1
2
1 1
) ( ) (
) ( ) (



t t t t
t t t t
u E u u E u
u E u u E u

) ( ) (
) (
2
1
2
1

t t
t t
u u
u u

n
u u
n
u u
t t
t t
) ( ) (
) (
2
1
2
1


n
u
n
u
u u E
t t
t t
2
1
2
1
) (



) ( ) (
) (
1
1

t t
t t
u V u V
u u E

Obsrvese que

, el coeficiente de autocovarianza, tambin puede ser interpretado como el


coeficiente de autocorrelacin de primer orden, o, en forma ms precisa, el coeficiente de
autocorrelacin del rezago t.
Lo que (2.1) postula es que el movimiento o desplazamiento en ui consta de dos partes: una parte
1 ut
, que corresponde a un desplazamiento sistemtico y la otra
t
que es puramente aleatoria.
Obsrvese que no hay razn a priori por la cual no podamos adoptar un AR(2) o AR(3) o cualquier
esquema autorregresivo de orden superior al de (2.1). De hecho, se hubiera podido suponer que ui es
generado por el siguiente mecanismo:
Modelo MA(1)
1
+
t t t
v v u (2.3)
Donde v es un trmino de perturbacin aleatorio con media cero y varianzas constante y es una
constante tal que 1 < . El esquema generador de errores (2.3) es conocido como un media mvil
de primer orden o esquema MA(1) porque comprende la obtencin del promedio de dos variables
aleatorias adyacentes. Es posible considerar tambin esquemas MA de rdenes mayores. No solo
eso, se puede suponer que ut se genera por una mezcla de procesos autorregresivos y de medias
mviles. Por ejemplo:
Modelo ARMA(1,1)
1 1
+ +
t t t t
v v u u (2.4)
5
Es una combinacin de los esquemas autorregresivos de primer orden y de media mvil de primer
orden.
MINIMOS CUADRADOS ORDINARIOS EN PRESENCIA DE AC
- Cuando se considera la AC
t t t
u X Y + +
2 1
Modelo Original
ahora, el estimador MCO de
2
, como es usual es:
2
^
2
t
t t
x
y x


a) Es lineal
b) Insesgado
c) No es de mnima varianza (No eficientes)
Por lo tanto dejan de ser MELI.
t t t
u u +
1
MODELO AR-1
En trminos de desviaciones
^
2

y
) (
^
2
v
dejan de ser MELI

1
]
1


2
^
2
^
2
^
2
) ( ) ( E E V Deja de ser eficiente
) ( ) (
2
^
2 t i
u E w E +

2
^
2
) ( E

^
2

Es insesgado
2
2
^
2
^
2
) ( ) ( E V
2
^
2
) ( ) (
t t
u w E V
PROPIEDADES:
) ( ) (
1
+
t t
u V u V , ) ( ) ( ) (
1 t t t
V u V u V +

) ( ) ( ) (
1
2
t t t
V u V u V

; ) ( ) ( ) 1 (
1
2
t t
V u V

2
2
1
1
) (

t
u V
2
2
1
1
) (

t t
u u E
Varianza de
2

en presencia de AC es :
( )
1
1
1
1
]
1

+ + + +

n
t
t
n t n
n
t
t
n
t
t t
n
t
t
n
t
t t
t t
AR
x
x x
x
x x
x
x x
x x
1
2
1
1
2
2
1
2
2
1
2
1
1
1
2
2
2
2
1 2
2

var

(2.5)
6

^
2

n
i i
Y w
1
2
^

+
n
i i
u w
1
2 2
^


n
i i
u w
1
2 2
^

Donde ( )
1 2

var
AR
significa varianza de
2

bajo el esquema autorregresivo de primer orden.


Realizando el contraste de esta frmula y la frmula corriente en ausencia de autocorrelacin:
2
2
^
2
) (
t
u
x
V


(2.6)
Una comparacin de (2.5) y (2.6) muestra que la primera es igual a la ltima ms un trmino que
depende de

, igual que de las covarianzas muestrales entre los valores que toma X. En general, no
se puede decir que la ( )
2

var sea menor o mayor que ( )


1 2

var
AR
.
MTODO DE MINIMOS CUADRADOS GENERALIZADOS
t t t
u X Y + +
2 1
Modelo Original (((a)))

0 ) (
1 t t
u u Cov Autocorrelacion
Naturaleza de la Autocorrelacin;
1 1
1
< < +


t t t
u u MODELO AR-1

1

t t t
u u
- CUANDO SE CONOCE

O LA POBLACIN
Multiplicando (((a))) por

o
1 1 2 2 1 1
+ +
t t t
u X Y
Pero antes:
1 1 2 1 1
+ +
t t t
u X Y
1 1 2 1 1
+ +
t t t
u X Y (((b)))
Restar (((b))) de (((a))):
t t t t
u X Y Y + +
2 2 1 1
-
1 1 2 1

t t
u X
) ( ) ( ) 1 (
1 1 2 2 2 1 1
+ +
t t t t t t
u u X X Y Y
Llegamos al modelo transformado
t t t t t
X X Y Y + +

) ( ) 1 (
1 2 2 2 1 1
Modelo transformado
+ +

t t t
X y
2 2 1
Modelo transformado
Aplicar MCO al modelo transformado. Tomando en trminos de desviacin.
*
* *
*
2
^
2
t
t t
x
y x


[ ][ ]
[ ]
2
1 2 2 1 2 2
1 1 1 2 2 1 2 2
^
2
) ( ) (
) ( ) ( ) ( ) (
*



t t t t
t t t t t t t t
X X X X
Y Y Y Y X X X X

2
1 2
_
1 2
2
_
2
2
1
_
1
_
1 2
_
1 2
2
_
2
2
2
^
2
) ( ) (
) ( ) ( ) ( ) (

*
1
]
1


1
]
1


1
]
1

t
t
t
t
n
t
t
t
t
t
t
t
t
n
MCG
X X X X
Y Y Y Y X X X X



- CUANDO

= 0 Ausencia de Autocorrelacin
7
MCG
2

Es MELI (lineal,
insesgado y de
mnima varianza)
2
2 2
1
2 2
1
^
2
) (
) )( (
t t
n
t t t t
n
MCG
X X
Y Y X X

( ) ( ) [ ]


2
1 2 1 2 2 2
2
2
^
2
) (
t t t t
n
MCG
X X X X
V

Es al mejor V de todas
( )
2
2 2
1
2
^
2
) (
t t
n
X X
V

= es el coeficiente de AC que cumple un papel de parmetro poblacional y no muestral es un


estadstico y no un estadgrafo puede tomar valores dentro de: 1 1 +
3. CMO DETECTAR LA AUTOCORRELACION?
La autocorrelacion es un problema grave. Por consiguiente, las medidas remdiales son ciertamente
apropiadas. Por supuesto, antes de hacer algo, es esencial averiguar si existe autocorrelacion en una
situacin dada.
Se considerarn alguna de las pruebas de Autocorrelacin:
3.1) Mtodo Grfico
3.2) Prueba de Aleatoriedad o mtodo de corridas
3.3) Prueba de Durbin Watson
3.1 MTODO GRAFICO
Un autor afirma:
La importancia de producir y analizar graficas de los residuos como una parte estndar del anlisis
estadstico no puede ser enfatizada. stas adems de proporcionar ocasionalmente un resumen de
fcil para entender un problema complejo, permiten un examen simultneo de la informacin,
considerados en su conjunto, mientras que a la vez ilustran claramente el comportamiento de los
casos individuales.
Hay diversas formas de examinar los residuales. Se puede simplemente graficarlos frente al tiempo,
a travs de una grafica de secuencia de tiempo.

t
e
t
e
0 t 0 t
AC AC

t
e
t
e
0 t
0 t
8

t
e
0 t
3.2 PRUEBA DE ALEATORIEDAD O MTODO DE CORRIDAS
Conocida tambin como prueba de Geary esta prueba trata de seleccionar los signos positivos y
negativos de los residuos.
Ejemplo:

t
e
2 1
N N N +
---------++++++..+++++++
0 t
AC
(- - - - - ) (+ + + + + + + ) (- - - - - - - - ) (+ + + + + ) Son 4 corridas (3.2.1)
Una racha se define como una secuencia ininterrumpida de un smbolo o atributo, tal como + -.Se
expresa adems la longitud de una rachacomo el nmero de elementos en sta. En la secuencia
mostrada en (3.2.1) hay 4 rachas: una racha de 5 signos menos (es decir de longitud 8), una racha
de 7 signos ms, una racha de 8 signos menos, una racha de 5 signos ms. APRA un mejor efecto
visual, hemos presentado las diversas rachas en parntesis.
Ahora sea:
nr = nmero de corridas
nr = 4
N = nmero total de observaciones = N1 + N2
N = 25
N1 = nmero de signos +
N1 = 12
N2 = nmero de smbolos (es decir, residuales -)
N2 = 13
Numero de corridas
r
n variable
r
n N E (
r
n );
r
n
2

Donde:
9
Siempre que: N1 > 10
N2 >10
1
2
) (
2 1
2 1
+
+

N N
N N
n E
r
) 1 ( ) (
) 2 ( 2
2 1
2
2 1
2 1 2 1 2 1 2
+ +

N N N N
N N N N N N
r
n
Docimas paramtricas t
Hiptesis:
:
0
H Ausencia de AC
:
1
H Presencia de AC
Intervalo de confianza al 95%
[ ] + 1 ) ( ) (
r r
n r r n r
Z n E n Z n E
Por consiguiente se tiene:
[ ] 95 , 0 96 , 1 ) ( 96 , 1 ) ( +
r r
n r r n r
n E n n E
Si el nmero de corridas
r
n se encuentra en el intervalo se acepta :
0
H Ausencia de AC.
En el ejemplo; N1=12 y N2 =13. Por consiguiente se obtiene:
E(nr) = 13,48
r
n
2
= 5,9696
r
n

= 2,4433
Por tanto el intervalo de confianza al 95% es;
[13,48 t 1,96(2,4433)] =(8,6911 ; 18,2689)
Puesto que el nmero de rachas es , ste claramente cae por fuera de este intervalo. Por
consiguiente, se puede rechazar la hiptesis de que la secuencia observada de los residuales sea
aleatoria, con el 95% de confianza. Se rechaza la
0
H .
(Esta prueba es recomendable para muestras grandes 10
1
> N y 10
2
> N )
3.3. PRUEBA DE DURBIN WATSON
La prueba ms conocida para detectar la Autocorrelacin es la desarrollada por los estadsticos
Durbin y Watson. Es comnmente conocida como el estadstico d de Durbin Watson. el cual se
define de la siguiente manera:

n
t
n
t t
e
e e
d
1
2
2
2
1
) (
Es simplemente la razn de la suma de las diferencias al cuadrado de residuales sucesivos sobre la
SRC. Obsrvese que en el numerador del estadstico d el nmero de observaciones es n-1 porque
una observacin se pierde al obtener las diferencias consecutivas.
Supuestos:
1) El modelo debe contener un trmino o parmetro independiente.
2) La naturaleza de la Autocorrelacin es AR-1:
t t t
u u +
1
3) Que la Prueba d-w. No se puede aplicar en caso donde exista variables endgenas
rezagadas.
10
Zona de
Rechazo de
H
00
Zona de
Rechazo de
H
00
t t kt k t t t
u Y X X X Y + + + + + +
1 3 3 2 2 1

n
t
n
t t t t
e
e e e e
d
1
2
2
1 1
2
) 2 (
Pero:


n
t
n
t
e e
1
2
2
2


n
t
n
t
e e
1
2
1
2
2
1
Entonces:
1
2
1
1
2
2
1
+


n
t
n
t t
e
e e
d ;



n
t
n
t t
e
e e
d
1
2
2
1
2 2
) 1 ( 2
1
2
2
1



n
t
n
t t
e
e e
d
Pero:
n
u
n
u u
u V
u u E
u V
u u E
t
t t
t
t t
t
t t
2
1
1
1
1
) (
) (
) (
) (


2
1
t
t t
u
u u
1 1 +
Tambin:


n
t
n
t t
e
e e
1
2
2
1
^

1 1
^
+
Entonces:
) 1 ( 2
^
d
Sus lmites son:
Presencia de una perfecta No existe correlacin Presencia de una perfecta
correlacin negativa correlacin positiva
1
^
0
^
1
^

) 1 ( 2
^
d ) 1 ( 2
^
d ) 1 ( 2
^
d
11

n
t
n
t
n
t t
n
t
e
e e e e
d
1
2
2
2
1
2
1
2
2
2
Zona de
Rechazo de
H
00
Zona de
Rechazo de
H
00
) 1 1 ( 2 + d ) 1 1 ( 2 + d ) 1 1 ( 2 d
d = 4 (AC inversa perfecta) d = 2 (Ausencia de AC) d = 0 (AC perfecta
positiva)
4 0 d
REGLAS DE DECISIN: Estos son los lmites de d; cualquier valor d estimado debe caer dentro
de estos lmites:
ZONA DE
ACEPTACIN

Ausencia de AC
De

0
L
d
u
d 2
u
d 4
L
d 4 4 d
Dcima:
:
0
H Ausencia de AC positiva
:
1
H Presencia de AC positiva
Dcima:
: *
0
H Ausencia de AC negativa
: *
1
H Presencia de AC negativa
Prueba d de Durbin Watson: REGLAS DE DECISION
Hiptesis nula Decisin S
No existe autocorrelacin positiva Rechazar
L
d d 0
No existe autocorrelacin positiva No tomar decisin
u L
d d d
No existe autocorrelacin negativa Rechazar 4 4 d d
L
No existe autocorrelacin negativa No tomar decisin
L u
d d d 4 4
No existe autocorrelacin positiva o negativa Se acepta
u u
d d d 4
Despejando:
^

tenemos:
) 1 ( 2
^
d
2
1
^
d

Restricciones o limitaciones para utilizar d;-
t t t
u X Y + +
2 1

1) El modelo debe incluir un parmetro independiente.
2) La naturaleza de la AC debe corresponder a;
t t t
u u +
1
MODELO AR-1
12
0
H

0
H
Zona de
Rechazo de
H
00
Zona
de
Indecisin
Zona
de
Indecisin
Zona de
Rechazo de
H
00
3) No conviene utilizar la prueba de D-W en modelos que incluyen variables rezagadas del
siguiente tipo:
t t t t
u Y X Y + + +
1 2 1

4. MEDIDAS REMEDIALES
El remedio depende del conocimiento que se tenga sobre la naturaleza de la interdependencia
existente entre las perturbaciones. Se distingue dos situaciones:
a). Cuando se conoce el coeficiente de AC

b). Cuando no se conoce el coeficiente de AC

a). Cuando se conoce el coeficiente de AC

t t t
u u +
1
1
El problema de Autocorrelacin puede ser resuelto satisfactoriamente si se conoce

, el coeficiente
de Autocorrelacin. Para apreciar esto tomamos en cuenta el modelo de dos variables:
t t t
u X Y + +
2 1
2
Si 2 es cierta en el tiempo t, tambin es cierta en el tiempo t-1. Por tanto:
1 1 2 1 1
+ +
t t t
u X Y 3
Multiplicando

a ambos lados se obtiene:


1 1 2 1 1
+ +
t t t
u X Y 4
Restando 4 de 2 se obtiene:
) ( ) 1 ( ) (
1 1 2 2 1 1
+ +
t t t t t t
u u X X Y Y
t t t t t
X X Y Y + +

) ( ) 1 (
1 2 1 1
5
Donde en el ltimo paso se hace uso de 1:
Se puede expresar 5 como:
t t t
x y + + * * * *
2 1
6 (Modelo transformado, ya no existe AC)
Donde ( ) ( ) ( )
1
*
1
*
1 1
, 1 *


t t
t
t t
t X X X y Y Y Y
Puesto que
t
satisface todos los supuestos MCO, se puede proceder a aplicar MCO sobre las
variables transformadas Y
*
y X
*
y obtener estimadores con todas las propiedades ptimas, es decir
MELI. En efecto, realizar la regresin de 6 es equivalente a utilizas los mnimos cuadrados
generalizados (MCG).
b). Cuando no se conoce el coeficiente de AC

Aunque la regresin en diferencias generalizada es de aplicacin sencilla, esta regresin


generalmente es difcil de efectuar en la prctica porque

raramente se conoce. Por consiguiente


se requiere disear mtodos alternativos, algunos de los cuales son los siguientes:
- Mtodo de primera deferencia.
Puesto que

se encuentra entre 0 y 1, se podran adoptar dos posiciones extremas:


1 1 + 0 , no hay Autocorrelacin
1 t , Autocorrelacin positiva o negativa perfecta
En realidad, cuando se efecta una regresin, generalmente se supone que no hay Autocorrelacin y
luego se deja que la prueba de Durbin- Watson u otras pruebas demuestren si el supuesto es
justificado. Sin embargo, si 1 + , la ecuacin en diferencia generalizada 5 se reduce a la
Ecuacin en primera diferencia ya que:
13
( )
( )
t t t
t t t t t t
X X
u u X X Y Y

+
+


1 2
1 1 2 1
) (
t t t
X Y +
2
7
Donde , denominado delta, es el operador de primera diferencia y es un smbolo u operador
(igual que el operador E de valor esperado), para diferencias consecutivas de dos valores. Al
efectuar la regresin de 7, todo lo que se debe hacer es formar las primeras diferencias de la
variable dependiente y explicativa y utilizarlas en el anlisis de regresin.
Obsrvese una caracterstica importante del modelo en primera diferencia: No hay trmino de
intercepto en l. Por tanto, para efectuar (7), deber utilizarse el modelo de regresin a travs del
origen. Pero supngase que el modelo original fuera:
t t t
u t X Y + + +
3 2 1
8
Donde t es la variable de tendencia y donde ut sigue un esquema autorregresivo de primer orden. Se
puede verificar que la transformacin de primera diferencia de (8) es el siguiente:
t t t
X Y + +
3 2
9
Donde
1

t t t
Y Y Y y
1

t t t
X X X la ecuacin 9 muestra que hay
trmino de intercepto en la forma de primera diferencia, que sta en contraste con (7).
Pero por supuesto,
3
es el coeficiente de la variable de tendencia en el modelo original. Por tanto,
la presencia de un trmino de intercepto en la forma de primera diferencia significa que hay trmino
de tendencia lineal en el modelo original y que el trmino de intercepto es, en realidad, el
coeficiente de la variable de tendencia. Si
3
, por ejemplo, es positivo en (9), significa que hay
tendencia hacia arriba en Y despus de permitir la influencia de todas las otras variables.
En lugar de suponer que 1 + , si se supone que 1 , es decir, correlacin serial negativa
perfecta (lo caul no es tpico en las serie de tiempo econmicas), la ecuacin en diferencia
generalizada (5) se convierte ahora en:
( )
t t t t t
X X Y Y + + +
1 2 1 1
2
2 2 2
1
2 1
1 t t t t t
X X Y Y
+

+
+

10 (Regresin de promedio mviles de dos
periodos)
La transformacin de primera diferencia, presentada anteriormente, es bastante popular en la
econometra aplicada puesto que es fcil de realizar. Pero obsrvese que esta transformacin
descansa sobre el supuesto de que 1 + ; es decir, que las perturbaciones estn correlacionadas
positivamente en forma perfecta. Si este no es el caso, el remedio puede ser peor que la enfermedad.
- A travs o mediante el estadstico D-W
t t t
u X Y + +
2 1
1


0 ) ( ) (
1 1 t t t t
u u E u u Cov AC
) , (
1 t t t
u f u


t t t
u u +
1
MODELO AR-1
1 1 2 1 1
+ +
t t t
u X Y 2
1
^
1 2
^
1
^
1
^

+ +
t t t
u X Y
3
Restar 3 de 1
t t t t
u X Y Y + +
2 1 1
^

-
1
^
1 2
^
1
^

+ +
t t
u X
14
) ( ) ( ) 1 (
1
^
1
^
2
^
1 1
^

+ +
t t t t t t
u u X X Y Y
Llegamos al modelo transformado
+ +

) ( ) 1 (
1
^
2
^
1 1
^
t t t t
X X Y Y
Donde:

n
t
n
t t
e
e e
1
2
2
1
^

2
1
^
d

t t t
u u +
1
MODELO AR-1
t t t
e u u +
1
^

1
^


t t t
u u e


2
1
^
2
) (
t t
t u u e
Debe ser mnimo
Entonces:


2
1
t
t t
u
u u

2
^
1
^ ^
^
t
t t
u
u u

OTROS MTODOS PARA ESTIMAR

Se han estudiado apenas algunos de los mtodos comnmente utilizados para estimar

pero esta
lista, de ninguna manera es exhaustiva. Por ejemplo se puede utilizar el mtodo de mxima
verosimilitud para estimar los parmetros de
t t t t t
X X Y Y + +

) ( ) 1 1 (
1 2 1 1

directamente, sin tener que recurrir a algunas de las rutinas iterativas. Sin embargo, el mtodo de
MV comprende procedimientos de estimacin no lineales siendo aun ms complicados.
Concluimos esta seccin con las siguientes observaciones. Los diversos mtodos mencionados
bsicamente corresponden a mtodos en dos etapas: En la etapa 1 se obtiene una estimacin del
valor desconocido de

y en la etapa 2 se utiliza esa estimacin para transformar las variables con


las cuales se estima la ecuacin en diferencia generalizada, que es bsicamente MCG. Pero, puesto
que se utilizamos
^

en lugar del verdadero valor de

, todos estos mtodos de estimacin se


conocen en la literatura como mtodos de mnimos cuadrados generalizados estimados MCGE o
factibles.
Bolo N 2
INTRODUCCIN A LOS MODELOS DE ECUACIONES SIMULTNEAS
15
1.INTRODUCCIN
Hasta el momento se han hecho referencia a modelos uniecuacionales, es decir, modelo en los
cuales haba una sola variable dependiente Y y una o ms variables explicativas, las X. En tales
modelos, el nfasis estuvo en la estimacin y/o la prediccin del valor medio de Y condicional a los
valores fijos de las variable X. Por consiguiente, la relacin causa efecto en esos modelos iba de las
X a Y.

Y =Y
2 = 2
La relacin solo va en un sentido
MODELOS UNIECUACIONALES:
En los modelos Uniecuacionales, una variable (la variable dependiente Y) es expresada como
funcin lineal de una o ms variables ( las variable explicativas, las X). En tales modelo, un
supuesto implcito es que la relacin causa efecto, de existir, entre Y y X es unidireccional: Las
variables explicativas son la causa y la variable dependiente es el efecto.
i i i
u X Y + +
2 1
Y
i
=f (X
i
,u
i
)
i i i i
u X X Y + + +
3 3 2 2 1
Y
i
=f (X
2i
, X
3i
, u
i
)
i ki k i i i
u X X X Y + + + + +
3 3 2 2 1
X depende de Y y Y depende de X
Hablamos de:
MODELOS DE MS DE UNA ECUACIN
En las que hay situaciones en las cuales hay influencia bidireccional entre las variables
econmicas; es decir, una variable econmica afecta otra (s) variable(s) econmica (s) y, a su
vez, es afectada por sta(s).
En muchas situaciones, la relacin causa efecto en un sentido o unidireccional no tiene sentido.
Esto sucede cuando Y est determinada por las X y algunas de las X estn, a su vez, determinadas
por Y.En otras palabras, hay relacin en dos sentidos, o simultneas, entre Y y (algunas de) las X,
que hace que la distincin entre variable dependientes y explicativas tenga valor dudoso. Por ello se
tiene los modelos de ms de una ecuacin.
16
X X X
X X X
X
.
.
.
.
.
.
.
.
.
................................
Es mejor reunir un conjunto de variables que puedan ser determinadas simultneamente mediante el
conjunto restante de variables precisamente lo que se hace en los modelos de ecuaciones
simultneas. En tales modelo, hay ms de una ecuacin- una para casa una de las variables
mutuamente o conjuntamente, dependiente o endgena o. Y, a diferencia de los modelos
uniecuacional, en los modelos de ecuaciones simultneas, no es posible estimar lo parmetros de
una ecuacin aisladamente sin tener en cuenta la informacin proporcionada por las dems
ecuaciones en el sistema.

Qu sucede si los parmetros de cada ecuacin son estimados aplicando, por ejemplo, el mtodo de
MCO, sin considerar las otras ecuaciones en el sistema?
Sabiendo que uno de los supuestos cruciales del mtodo de MCO es que las variables explicativas X
no son no estocsticas o, de serlo (aleatorias), estn distribuidas independientemente del trmino de
perturbacin estocstico. Si ninguna de estas condiciones se cumple, entonces, los estimadores de
mnimos cuadrados no solamente son sesgados, sino tambin inconsistentes; es decir, a medida que
el tamao de la muestra aumenta indefinidamente, los estimadores no convergen hacia sus
verdaderos valores (poblacionales). As, en el siguiente sistema hipottico de ecuaciones;
i i i i
u X Y Y
1 1 11 2 12 10 1
+ + + [ 1 ]
i i i i
u X Y Y
2 1 21 1 21 20 2
+ + + [ 2 ]
Donde Y1 y Y2 son variables mutuamente dependientes, o endgenas y X1 una variable
exgena y u1 y u2 son los trminos de perturbacin estocstica, las variables Y1 y Y2 son
ambas estocsticas. Por consiguiente, a menos que pueda demostrarse que la variable
explicativa estocstica Y2 en [1] est distribuida independientemente de u1 y que la variable
explicativa estocstica Y1 en [2]est distribuida independientemente de u2, la aplicacin del
MCO clsico a estas ecuaciones individualmente conducir a estimaciones inconsistentes.
Y
i
=f (X, u
2i
) Modelos interdependientes
Y
i
=f (Y, u
2i
)
1 0 ; 0
) 2 (
) 1 (
< < >
+
+ +


Definicin de Ecuacin I C Y
ento Comportami de Ecuaciones u Y C
t t t
t t t
Modelo Econmico
1) Simplificacin de la realidad
2) Esta sustentado por una teora econmica
3) Esta expresado en trminos Matemticos o probabilsticos o ecomtricos
1. - Ecuaciones de comportamiento
t t t
u Y C + +
2. Ecuaciones Tecnolgicas
i
u
i
e L AK Q

3. Ecuaciones Institucionales o legales


i i i
u Y T + +
17
Admiten v.a.
4. Ecuaciones de Definicin I C Y +
5. Ecuaciones de Equilibrio mvil 0 = 0
1. ESPECIFICACIN DE UN MODELO MULTIECUACIONAL (FORMA
ESTRUCTURAL)
Para ello tenemos el siguiente ejemplo:
- Modelo Macroeconmico elemental (Modelo Keynesiano de determinacin del
ingreso)
( )
t t t t
t t t
S Z C Y
u Y C
+
< < + + 1 0
Donde:
C = Gasto de consumo
Y = Ingreso
Z = Inversin (se supone exgena)
S = Ahorro
t = Tiempo
u = Trmino de perturbacin estocstico

y = Parmetros
Restricciones : PMg C
1 0
0
< <
>

Son parmetros de la forma estructural del modelo.


El parmetro se conoce como la Propensin marginal a consumir (PMgC) ( la cantidad de gasto
de consumo extra resultante de un dlar extra de ingreso). De la teora econmica se espera que
se encuentre entre 0 y 1. La ecuacin [3] es la funcin de consumo (estocstica) y [4] es la
identidad de ingreso nacional, que significa que el ingreso total es igual al gasto de consumo total
ms el gasto de inversin total, entendiendo que el gasto de inversin total es igual al ahorro total.
Se tiene en la figura [1].
De la funcin consumo postulada y de la figura [1], es claro que C y Y son interdependientes y que
no se espera que Yt [3] sea independiente del trmino de perturbacin porque cuando ut se desplaza
(debido a la diversidad de factores contenido dentro del trmino de error), entonces la funcin
consumo tambin se desplaza, la cual, a su vez afecta a Yt. Por consiguiente, una vez ms el mtodo
clsico de mnimos cuadrados no es aplicable a [3]. De aplicarse, los estimadores obtenidos de
dicho mtodo sern inconsistentes.
C,Z
Z C Y +
Z C +
18
Son identidades
No susceptibles a v. a.
Funcin de consumo:
Identidad del ingreso:
[3]
[4]
Forma Estructural
Ecuacin de:
Comportamiento
Definicin
C
o
n
s
u
m
o
,

i
n
v
e
r
s
i

n
Y C +
45
0 Ingreso nacional Y
Figura [1]; Modelo keynesiano de determinacin del ingreso
MRLNC
E (ui
2
) =
2

= V(Y) =
2
y

Cov ( ui,X) = E[ui - E(ui)][Xi - E(Xi)]


= E[u(X-X)] = 0
2. FORMA REDUCIDA DEL MODELO: IDENTIFICACIN
En este punto se considera la naturaleza y el significado del problema de identificacin ( y la
manera de resolverlo).
0 0
0
+ +
+
t t t
t t t
Z Y C
u Y C
( ) ( ) ( ) ( ) ( ) 1 2 1 2 2 2 1 2 2 2
0
1
1 0
0
1 1
1

1
]
1

1
]
1

1
]
1

+
1
]
1

1
]
1

t
t
t
u
Z Y
C
t
Yt +
t
zt = ut
Matriz de variables endgenas
t t t t t
u Z Y + Forma estructural del Modelo
En general:
Yit: Variables
endgenas
Zit: Variables
Exgenas
( ) ( ) ( ) ( ) ( ) 1 6
6
2
1
1
2
1
6
6 62 61
2 22 21
1 12 11
1 6
6
2
1
6 6
66 62 61
26 22 21
16 12 11

1
1
1
1
]
1

1
1
1
1
]
1

1
1
1
1
]
1

+
1
1
1
1
]
1

1
1
1
1
]
1

t
t
t
K
Kt
t
t
K
K
K
K
t
t
t
u
u
u
Z
Z
Z
Y
Y
Y







t
Yt +
t
Zt = ut
19
t kt K t t t t t
t kt K t t t t t
t kt K t t t t t
u Z Z Z Y Y Y
u Z Z Z Y Y Y
u Z Z Z Y Y Y
6 6 2 62 1 61 6 66 2 62 1 61
2 2 2 22 1 21 6 26 2 22 1 21
1 1 2 12 1 11 6 16 2 12 1 11
+ + + + + + +
+ + + + + + +
+ + + + + + +







S
i
s
t
e
m
a

d
e

E
c
u
a
c
i
o
n
e
s

S
i
m
u
l
t

n
e
a
s
3. FORMA REDUCIDA DEL MODELO (IDENTIFICACIN)
l Estructura Forma t t t t
u Z Y +
t t t t
t t t t
u Z Y
u Z Y
1 1 1
+
+


t t t
u Z Y
1 1
+ Forma restringida
S:
t t
v u

1
1

t t t
v Z Y +
Forma libre
Ejemplo: Modelo Macroeconmico simple

Forma Estructural
t t t
t t t
v Z Y
v Z C
2 22 21
1 12 11
+ +
+ +


1
]
1

+
1
]
1

1
]
1

1
]
1

t
t
t t
t
v
v
Z Y
C
2
1
22 21
12 11
1


Primero estimar en su forma reducida y luego en su forma estructural
IDENTIFICACIN
Reglas de Identificacin:
- Sub identificacin ( no existe solucin)
- Perfectamente Identificada (Solucin nica) existe solucin)
- Sobre identificacin (hay varias soluciones)
Si la matriz no es singular; se puede resolver
Ambas ecuaciones estn perfectamente identificadas.
Ejemplo:
20
t t t
t t t
Z C Y
u Y C
+
+ +
S
t
D
t
t t
S
t
t t t
D
t
Q Q
u Q
u Y Q

+ +
+ + +
2 2 1
1 3 2 1


Q
D
t =Q
S
t
t t t
t t t t
t t t t
u u Y
u u Y
u u Y
1 2 3 1 1 2 2
1 2 3 1 1 2 2
2 2 1 1 3 2 1
) ( + +
+ +
+ + + + +


,
_

,
_

,
_

2 2
1 2
2 2
3
2 2
1 1

t t
t t
u u
Y (4)
Reemplazando (4) en (1):
t t
t t
t t
t t
t t
t t
u Y
u u
Y Q
u Y
u u
Y Q
1 3
2 2
1 2 2 2
2 2
3 2
2 2
1 2 2 1
1
1 3
2 2
1 2
2 2
3
2 2
1 1
2 1
+ +

,
_

+

+ +
1
]
1

,
_

,
_

,
_

+
+




( )
2 2
1 2 2 2 1 2 2 2
2 2
2 3 3 2 3 2
2 2
1 2 2 1 2 1 2 1





+
+

+
+

t t t t t t t
t
u u u u Y Y Y
Q
( ) 5
2 2
1 2 2 2
2 2
2 3
2 2
1 2 2 1

,
_

,
_

,
_







t t
t t
u u
Y Q
t t t
t t t t
u Q
u Y Q
2 2 1
1 3 2 1
+ +
+ + +

'

+

t t t
t t t t
u Q
u Y Q
2 1 2
1 3 1 2
0

1
]
1

1
]
1

1
]
1


+
1
]
1

1
]
1

t
t
t t
u
u
Y
Q
2
1
1
3 1
2
2
1
0 1
1

t t t t
u Z Y +
21
(1)
(2)
(3)
Forma Estructural
Forma Reducida

,
_

,
_

,
_

,
_

,
_

,
_

2 2
1 2
2 2
3
2 2
1
2 2
1 2 2 2
2 2
2 3
2 2
1 2 2 1







t t
t t
t t
t t
u u
Y
u u
Y Q
1
]
1

+
1
]
1

1
]
1

1
]
1

t
t
t t
t
v
v
Y
Q
2
1
22 21
12 11
1


t t t
t t t
v Y
v Y Q
2 22 21
1 12 11
+ +
+ +


t t t
v Z Y +
Demanda
( )
( )

,
_

,
_

+ + + +
+ + + + + + +
+ + + + + + +
+ + + + +
2 2
1 2 1 2
1
2 2
1 2
2 3 22 22 21 2 1
1 1 3 2 2 22 22 21 2 1 12 11
1 3 2 22 21 2 1 1 12 11
1 3 2 1 1 12 11







t t
t
t t
t
t t t t t t
t t t t t t
t t t t t
u u
u
u u
Y
v u Y v Y Y
u Y v Y v Y
u Y v Y
( ) ( )
2 2
1 2 2 2 1 2 1 2 1 2 2 2
3 22 22 21 2 1 12 11


+ +
+ + + + +
t t t t t t
t t
u u u u u u
Y Y
( ) ( )
t t
Y Y
3 22 2 21 2 1 12 11
+ + + +

3 22 2 12
21 2 1 11


+
+
(No tiene solucin est sub identificada)
Funcin de Oferta
( )
t t t t
t t t t t
t t t t
v u v Y
v u v Y Y
u Y v
1 2 2 2 22 2 21 2 1
1 2 2 22 21 2 1 12 11
2 2 1 12 11 1
+ + + +
+ + + + +
+ + + +




t t t
Y Y v
22 2 21 2 1 12 11 1
) ( + + + +

22 2 12
21 2 1 11

+ nica Solucin Existe


22
Condicin de orden ( se conoce como la condicin necesaria para que
la ecuacin tenga una solucin nica
Condicin de rango (condicin suficiente
Rango.- Determinante no singular con el mximo de filas y columnas independientes
a) Condicin de Orden
G = Nmero de variables endgenas

G
= Variables endgenas presentes en la ecuacin

G
= Variables endgenas ausentes en la ecuacin
K
*
= Variables predeterminadas presentes en la ecuacin
K
**
= Variables predeterminadas ausentes en la ecuacin

G
+

G
= G ; K
*
+ K
**
= K ( nmero de variables exgenas)

G
+ K
**
G-1
Pero:

G
= G -

G
= G -

G
K
**
G-1 -

G
K
**
G-1 (G -

G
)
K
**
G 1 G +

G

S:
K
**
<

G -1 Ecuacin Sub identificada


K
** =

G -1 Ecuacin Perfectamente Identificada


K
** =

G -1 Ecuacin Sobre Identificada


Ejemplo: Modelo Microeconmico Elemental
t t t
t t t t
u Q
u Y Q
2 2 1
1 3 2 1
+ +
+ + +


t t t
t t t t
u Q
u Y Q
2 1 2
1 3 1 2
0 +



Demanda
3 22 2 12
21 2 1 11


+
+
No Existe Solucin nica
23
K
**

G 1
Identificacin
Oferta
22 2 12
21 2 1 11

+
Existe Solucin nica
Demanda (Condicin de Orden)
G = 2 ;

G
= 2 ;

G
= 0 ; K
*
= 1 ; K
**
= 0
sub identificada ( No tiene solucin)
Oferta (Condicin de orden)
G = 2 ;

G
= 2 ;

G
= 0 ; K
*
= 0 ; K
**
= 1
Perfectamente identificada ( tiene solucin)
Del Modelo Macroeconmico Simple:
t t t
t t t
Z C Y
u Y C
+
+ +
0 0
0
+ +
+
t t t
t t t
Z Y C
u Y C
Funcin de Consumo:
G = 2 ;

G
= 2 ;

G
= 0 ; K
*
= 0 ; K
**
= 1
Exactamente identificada ( tiene solucin nica)
b) Condicin de Rango
Rango de la Matriz A: Es el Nmero mximo de columnas linealmente independiente
[r (A)]
Se entiende como el determinante ms alto no nulo
S:
r < G-1 Subidentificada
24
0 < 1
1 = 1
1 = 1
[ ] 1 ;

G r Condicin de Rango r = G-1 Perfectamente identificada
r > G-1 Sobre identificada

Ejemplo: Modelo Macroeconmico Simple
[ ] ( ) 1 , 1

r r
G = 2 G-1 = 2-1 =1
[ ] 1 1 ;

G r Exactamente identificada
Modelo elemental de Mercado
Forma Estructural
t t t
t t t t
u Q
u Y Q
2 1 2
1 3 1
0 +



1
]
1

1
]
1

1
]
1


+
1
]
1

1
]
1

t
t
t t
t
u
u
Y
Q
2
1
1
3 1
2
2
1
0 1
1

t t t t t
u Z Y +
Forma Reducida
t t t
t
t
t t
t
u Z Y
u
u
Y
Q
+
1
]
1

+
1
]
1

1
]
1

1
]
1

2
1
22 21
12 11
1
t t t
t t t
v Y
v Y Q
2 22 21
1 12 11
+ +
+ +


Funcin de Demanda

3 22 2 12
21 2 1 11


+
+
No esta identificada
Funcin de Oferta
25

,
_

,
_

,
_

,
_

,
_

,
_

2 2
1 2
2 2
3
2 2
1 1
2 2
1 2 2 2
2 2
2 3
2 2
1 2 2 1







t t
t t
t t
t t
u u
Y
u u
Y Q

22 2 12
21 2 1 11

+
Exactamente identificada

22
12
2


4. MTODOS DE ESTIMACIN
4.1 MNIMOS CUADRADOS INDIRECTOS (MCI)
EJEMPLO EN LA ECUACIN DE (6) Y (1) (1 ECUACIN)
t t t t
u Y v Z
1 1 12 11
+ + + +
Pero:

t t t
v Z Y
2 12 21
+ +

( )
t t t
t t t t t
u v Z
u v Z v Z
1 2 22 21
1 2 22 21 1 12 11
+ + + +
+ + + + + +


( )
t t
Z Z
22 21 12 12
+ + +

) 9 (
) 8 (
22 12
21 11

+
Despejar de (9) Despejando de (8)

) 10 (
22
12


) 11 (
21 11

Aplicando Mnimos cuadrados ordinarios (MCO)
( ) 12

22
12


Sabiendo que;
( )( )
( )

X X
Y Y X X

26

+
+ +

,
_

,
_

+ +
+ + + +
1
1 1
1 1 1 1
21
1
1
1
21
1 2 21 22 12 11
t t t t
t
t
t
t t t t t
u u u u
u
u
u
v u v Z Z
( )( )
( )

2 12

t t
t t t t
Z Z
C C Z Z

( ) 13
2 12

t
t t
z
c z

) 14 (
2 22

t
t t
z
z y

Reemplazando (13) en (14)en (12:


) 15 (

t t
t t
z y
z c
(MELI Directa)
Si:
X Y


t
t t
t t
t
z
z y
z c
c

,
_

11

Si:


22
11


( ) 17

22
11


t
t
t t
t
t t
z
z
z c
c
z c

,
_

2
12 11

( ) 18
2
2
11

t
t t t t t
z
z c z z c

27

2
2

t
t t
t
t t
z
z y
z
c z

( ) 16


21
12
12
11

,
_

1
1
1
22
11

2
2
2

t
t t
t
t t t t t
z
z y
z
z c Z z c

( ) 19
2

t t
t t t t t
z y
z c Z z c
Estimadores MCO es MELI
4.2 MNIMOS CUADRADOS BIETPICOS
- M.C. en dos etapas

t
t t
y
y c

( )
( ) 2
1
t t t
t t t
Z C Y
u Y C
+
+ +
PRIMERA ETAPA S:
( ) 5

22 21 t t
Z Y +
Reemplazando (5) en (4)
( )
( ) 7

2
22


+
t
t t
t t t
z
z y
e Y Y

t t t t
Z Y e Z Y
22 21 22 21
+ + +

Y

Expresar en trminos de desviacin:


t t
t t t t t
Z Z
e Y Y Y Y
22 21 22 21

+
+
( ) 8
22 t t
z y
En (5)
28
( )
( ) 4
3
2 22 21
1 12 11
t t t
t t t
v Z Y
v Z C
+ +
+ +



2
22 2 22

t t t
t
t t
z z y
z
z y

t t t
Z Z Y Y
22 21 22 21

+
( ) 9
22 t t
z y
Utilizando MCO:
( ) 10

22
2

t
t t
z
z y
SEGUNDA ETAPA:
t t
t
t t
t t t
Y C
y
y c
u Y C

+ +

En (9):
( ) 11
22 t t i t
c z y c


( ) 12
2
22
2
t i
z y
Expresando en trminos de desviacin del Ct:
( )
t t i t
t t t t
u Y Y C
Y u Y C C
+
+ +


2
t t t
u z c +
22

t
t i
y
c y

2
22
2 2
22
22

t
t t
t
t t
z
c z
z
c z

( ) 13

t t
t t
c y
c z

( ) 14 Y
z y
c z
c
t t
t t

,
_

29
Ejemplo: Con los siguientes datos aplicar los Mtodos de estimacin;
Ct Zt Yt Ct
2
zt
2
yt
2
ct yt ct zt yt zt
90 20 110 256 49 529 368 112 161
95 23 118 121 16 225 165 44 60
100 25 125 36 4 64 48 12 16
110 26 136 16 1 9 12 4 3
112 30 142 36 9 81 54 18 27
115 32 147 81 25 196 126 45 70
120 33 153 196 36 400 280 84 120
742 189 931 742 140 1504 1053 319 457
106
t
C ; 27
t
Z ; 133
t
Y
a) MCO (Directos)
70612 , 0
1504
1062

t
t t
y
y c

086 , 12 ) 133 ( 70612 , 0 106


t t
Y C
t t
Y 70612 , 0 086 , 12

+
b) MCI (Indirecto)
69803 , 0
457
319


t t
t t
z y
z c

( ) ( )
62582 , 13
457
319 27 140 106
2


t t
t t t t t
y z
c z Z z C

t t
Y C 69803 , 0 62585 , 13

+
c) MC Bietpicos
69803 , 0
457
319

t t
t t
z y
c z

( ) 16201 , 13 133 69803 , 0 106


EJEMPLO DEL MODELO DE OFERTA Y DEMANDA
30
( )
( )
( ) 3
2
1
2 1 0
1 2 1 0
S
t
D
t
t t
S
t
t t t
D
t
Q Q
u Q
u Y Q

+ +
+ + +


0 ; 0
0 ; 0 ; 0
1 0
2 1 0
> >
> < >


Donde: las Variables endgenas Qt
t

Variables Exgenas Yt
Demanda:
Oferta:
(*)
Qt
1
]
1

1
]
1

1
]
1


+
1
]
1

1
]
1

t
t
t t
t
u
u
Y
Q
2
1
0
2 0
1
1
1
0 1
1

X u
u X Y +
( ) 0
1
1
1 1 1
1
> +
1
]
1

( )
t t t t t
t t it t t
u u Y
u u Y
1 2 2 0 0 1 1
2 1 0 2 1 0
+
+ + + + +


( ) ( )
1 1
1 2
1 1
2
1 1
0 0

t t
t t
u u
Y
(4)
Reemplazando (4) en (1)
( ) ( )
( ) ( ) ( )
t t
t t
t
t t
t t
t t
u Y
u u
Y
Q
u Y
u u
Y Q
1 2
1 1
1 1 2 1
1 1
2 1
1 1
0 1 0 1
0
1 2
1 1
1 2
1 1
2
1 1
0 0
1 0
+ +

+
+ +
1
]
1

( )
1 1
1 1 1 1 1 1 2 1
1 1
1 2 1 2 1
1 1
0 1 0 1 1 0 1 0





+
+

+
+

t t t t t t t
t
u u u u Y Y Y
Q
31
t t
S
t
t t t
D
t
u Q
u Y Q
2 1 0
1 2 1 0
+ +
+ + +


t t t
t t t t t
u Q
u Y Q
2 0 1
1 2 1
0 +



(5)
1 1
1 2 1
1 1
2 1
1 1
1 0 0 1





t t t
t
u u Y
Q
32
Forma reducida o
Forma libre que
no esta sujeto a
restriccin
t t t
t t t
v Y
v Y Q
2 22 21
1 12 11
+ +
+ +


1 1
1 2
1 1
2
1 1
0 0
1 1
1 1 2 1
1 1
2 1
1 1
1 0 0 1


t t
t t
t t t
t
Y
Y
Q
(4)
(5)
Bolo N 3
REGRESIN CON VARIABLES FICTICIAS
1. INTRODUCCIN
El propsito de este tema es considerar el papel de las variables explicativas cualitativas en el
anlisis de regresin. Se demostrar que la inclusin de las variables cualitativas, conocidas como
Variables ficticias, hace que el modelo de regresin lineal sea una herramienta extremadamente
flexible, capaz de manejar muchos problemas interesantes que se presentan en los estudios
empricos.
Todos los regresores son cualitativas.
Clasificacin de Variables:
- Continuas
Cuantitativas
- Discretas
Variables
Cualitativas Atributos, que identifica la calidad o la
cualidad.
Naturaleza de las variables ficticias: En el anlisis de regresin, la variable dependiente est
influenciada frecuentemente no slo por variables que pueden ser fcilmente cuantificadas sobre
una escala bien definida ( por ejemplo, sexo, raza color, religin, nacionalidad, guerras, terremotos,
huelgas, trastornos polticos y cambios en la poltica econmica gubernamental).
Por ejemplo: manteniendo los dems factores constantes, se ha encontrado que las profesoras
universitarias ganan menos que sus colegas masculinos y que las personas de color ganan menos
que las blancas. Este patrn puede resultar de la discriminacin sexual o racial, pero cualquiera que
sea la razn, las variables cualitativas tales como sexo y raza si influyen sobre la variable
dependiente y es claro que deben ser incluidas dentro de las explicativas.
Salario = f ( sexo, ui)
- Variables cualitativas; se llaman tambin;
33
Regresando Regresor
Cuantitativa
( )
i i
u X f Y ,
( )
i i
u X f Y ,
Variable dicotmica
Variable Dummy
Variable Ficticia
Variable Binaria
Variable Pirulin
2. REGRESIN CON VARIABLES CUALITATIVAS COMO REGRESORES (ANAVA)
i i
u X Y + +
Puesto que las variable cualitativas usualmente indican la presencia o ausencia de una
cualidad o atributo, tal como femenino o masculino, negro o blanco, o catlico o no catlico,
un mtodo de cuantificar tales atributos es mediante la construccin de variables artificiales
que pueden adquirir valores de 1 o de 0, el 0 indicando ausencia del atributo y el 1 indicando
la presencia (o posesin) de ese atributo.
Donde:
Xi = Variable ficticia
0: Ausencia de un atributo (categora base) por que sirve para
comparaciones
1 : Presencia del Atributo
Media Aritmtica de los que no tienen el
Atributo
Lo contrario
1 0
+
0 1

0

0
i i
u X Y + +
Por ejemplo; El 1 puede indicar que una persona es de sexo masculino o puede designar una de
sexo femenino; o el 1 puede indicar que una persona se ha graduado en la universidad y 0 que
no lo ha hecho y as sucesivamente.
34
Cuantitativa Cualitativa
( )
i i
u X f Y ,
X
i
=
1
0
) 1 (
) 0 (


+

i
i
X Y E
X Y E
Las variables que adquieren tales valores 0 y 1 se llaman variables ficticias.
Las variables ficticias pueden ser utilizadas en los modelos de regresin en forma tan fcil como las
variables cuantitativas. De hecho, un modelo de regresin puede contener variables explicativas que
son exclusivamente ficticias o cualitativas, por naturaleza. Tales modelos se denominan modelos de
anlisis de varianza (ANOVA).
Como ejemplo, considrese el siguiente modelo:
i i
u X Y + + (1)
Donde:
Yi = Salario de profesores del Nivel Secundario
Xi = Sexo Categoras - Varn
- Mujer
Xi = 1 : Varn
0 : No varn ( Mujer)
Obsrvese que (1), se parece a los modelos de regresin de dos variables, excepto que en lugar de
tener una variable cuantitativa X se tiene una variable ficticia Xi . El modelo (1) puede servir para
encontrar si el sexo es la causa de cualquier diferencia en el salario de una profesor del nivel
secundario, suponiendo, por supuesto, que todas las dems variable tales como la edad, el grado
alcanzado y los aos de experiencia se mantienen constantes. Suponiendo que las perturbaciones
satisfacen los supuestos usuales del modelo clsico de regresin lineal, de (1) se obtiene:
Categora base: Mujer

Salario promedio de un profesor de nivel secundario


Salario promedio de una profesora de nivel
secundario
0

1 0
1


+
+
0 1

Es decir, el trmino intercepto

, da el salario promedio de las profesoras de nivel secundario y el


coeficiente pendiente dice en cunto difiere el salario promedio de un profesor de nivel
Secundario del salario promedio de su colega femenina, estando el salario promedio de un profesor
de nivel secundario masculino representado por

+ .
35
0
1
) 0 (
) 1 (



+
i i
i i
X Y E
X Y E
Efectuando la regresin (1) en la forma usual, puede hacerse fcilmente una prueba de la hiptesis
nula de que no hay discriminacin por sexo (
0 :
0
H
) y es posible averiguar si, con base en la
prueba t, el estimado es estadsticamente significativo.
Dcima de Hiptesis:
0 :
0
H No hay diferencia de salarios 0 :
0 1 0
H
0 1 0
: H
0 :
1
H
0 1 1
: H
Dcima
0 1 0
: H
0 1 1
: H
Dcima
0 1 0
: H
0 1 1
: > H
i i i
u X X Y + + +
3 3 21 2 1

Donde:
Yi = Salario de Profesores de la Educacin formal
Primaria, Secundaria, Universidad
Xi = Educacin formal - Primaria
- Secundaria
- Universitaria
Cuantas variables explicativas se debe introducir en el Modelo:
REGLA:
m = 3 1 = 2
36
0 :
0 1 1
H
# de variables ficticias en el Modelo igual al # de categoras menos uno
1 : Educacin Secundaria
X2i =
0 : No Educacin Secundaria
1 : Educacin Universitaria
X3i
0 : No Educacin Universitaria
Base : Educacin Primaria
- APLICACIN DE MNIMOS CUADRADOS ORDINARIOS
Ej:
i i i
u X Y + +
Donde:
Yi = Salarios iniciales de ingresantes a la Fuerza Laboral
Xi = Educacin Formal Superior
Xi = 1 : Con Post Grado
0 : Sin Post Grado

0


0 1

Notacin
n0 = Tamao Muestral de Ingresantes a la Fuerza Laboral sin Post Grado
n1 = Tamao Muestral de Ingresantes a la Fuerza laboral con Post Grado
n0 + n1 = n tamao de la muestra
37
0
1
) 0 (
) 1 (



+
i i
i i
X Y E
X Y E

0
Y Media Muestral de salarios de ingresantes sin Post Grado

1
Y Media Muestral de salarios de ingresantes con Post Grado
S;
( )( )
( )

n
i
n
i i
X X
Y Y X X
1
2
1

(1)

X Y

,
_



n
X
n
Y
n
i
n
i
1 1

(2)
Pero:
( )( ) ( )

+
n
i i i i i
n
i
Y X X Y Y X Y X Y Y X X
1 1

,
_

/
/

,
_

/
/
/
+ /
/
/

+


n
Y
n
X
n X
n
Y
Y
n
X
Y X
Y X n X Y Y X Y X
i i
i
i
i
i
i
n
i
i i i
n
i
1
1
(3)
( ) ( )
2
2
2
2
1
2
1
2 2
2
1
2
2 2
/


/
+
+ +
n
X
n X
n
X
X
X n X X X X X X X X X
i
i
i
i
n
i
n
i i
n
i
( )
n
X
X X X
n
i
n
i
n
i
2
1
1
2
2
1

,
_


(4)
Calculo auxiliar:
38
( )( )
,
_



n n
i i i
n
i i
n
i
Y X
n
Y X Y Y X X
1 1 1 1
1
1)
1
1 1 1
1 1 1 0 0 0
0 1
0
n X X X
n n
n
i i
n
i
+ + + + + + + +

+

n0 veces n1 veces
1
1
n X
n
i

2)
1
2 2 2 2 2 2
1 1
2 2
1
2
1 1 1 0 0 0
0 1
0
n X X X
n n
n
i i
n
i
+ + + + + + + +

+

n0 veces n1 veces
1
1
2
n X
n
i

3)
1 0
0 1
0
1 1 1 0 0 0
2 1 2 1
1 1 1
n n n n
n n
n
i i i i
n
i i
Y Y Y Y Y Y Y X Y X Y X
o o
+ + + + + + + +
+ +
+


n0 veces n1 veces
1 1
1
1
1
1 1
1
1 1
1
0
1
0
1
0
Y n
n
Y
n Y
n
n
Y Y X
n
n
i
n
n
i
n
n
i i
n
i

,
_


+
+ +
1 1
1
Y n Y X
i
n
i

4)

,
_

,
_

+ +


+ 1
1
0
0
1
1 0
1 1 1
1 0
1 0 1
0
0
n
Y
n
n
Y
n Y
n
n
Y
n
n
Y Y Y
n
i
n
i
n
i
n
i
o
n
n
i
n
i
n
i
1 1 0 0
1
Y n Y n Y
n
i
+


Realizando Operaciones en (3)
39
( )( ) ( )
( )
( ) ( )
( )
n
Y Y n n
n n
Y n Y n n Y n Y n n
n n
Y n Y n n Y n n n
n
Y n Y n n Y n n
n
Y n Y n n
Y n
Y n Y n
n
n
Y n Y Y X X
i
n
i
0 1 1 0
1 0
1
2
1 0 0 1 1
2
1 1 1 0
1 0
1
2
1 0 0 1 1 1 1 0
1
2
1 0 0 1 1 1 1
2
1 0 0 1
1 1
1 1 0 0
1
1 1
1

+
+

+
+

+

+

Realizando Operaciones en (4)


( )
( )
n
n n
n
n n n n
n
n n n n
n
n nn
n
n
n X X
n
i
1 0
2
1
2
1 1 0
2
1 1 1 0
2
1 1
2
1
1
1
2

Reemplazando (3) en (2):



( )
n
n n
n
Y Y n n
/
/

1 0
0 1 1 0

0 1

Y Y
Operando en (2)
( )
( )
1 0
0 1 0 0 1 1 1 1 1 0 0
1
0 1
1 1 0 0

n n
Y n n
n
Y n Y n Y n Y n
n
n
Y Y
n
Y n Y n
+
+

+ +


+

0
Y
Ejemplo:
40
En la siguiente tabla se presenta la informacin hipottica sobre los salarios de 7 Profesionales
con ttulo de Post Grado y sin ttulo de Post Grado.
Sean los siguientes datos:
n = 7
Y X
(Y-
Y
) (X-
X
) (Y-
Y
)(X-
X
) (X-
X
)
2
70
90
110
90
80
100
110
650
0
1
1
0
0
1
1
4
-22,857
-2,857
17,143
-2,857
-12,850
7,143
17,143
0
-0,5714
0,4286
0,4286
-0,5714
-0,5714
0,4286
0,4286
0
13,0605
-1,2245
7,3475
1,6325
7,3465
3,0615
7,3475
38,5714
0,3265
0,1837
0,1837
0,3265
0,3265
0,1837
0,1837
1,7143
Objetivo de la Investigacin:
Diferencias Salariales de Profesionales con ttulo de Post Grado y sin ttulo de Post
Grado.
i i
u X Y + +
Xi = 0 : Sin Post Grado
1 : Con Post Grado
0

0 1

MCO.
0
Y
0 1

Y Y
41
1
0
) 1 (
) 0 (


+

i
i
X Y E
X Y E
5 , 102
4
410
80
3
240
5714 , 0
7
4
857 , 92
7
650
1
1
1
0
0
0



n
Y
Y
n
Y
Y
X
Y
80
80 5 , 102


5 , 22


i i
X Y 5 , 22 80 +
Como lo demuestran estos resultado de la regresin, el salario promedio estimado de los
profesionales con ttulo de Post Grado es 22500 Bs. Y el de los profesionales con ttulo de Post-
grado es 80.000 Bs. De la informacin en la tabla.
( )( )
( )

n
i
n
i i
X X
Y Y X X
1
2
1

=
5953 , 20
7143 , 1
3065 , 35

= 20,5953
59 , 20


( ) 0888 , 81 5714 , 0 59 , 20 857 , 92

X Y
09 , 81
i
X Y 59 , 20 09 , 81 +
DCIMA DE DIFERENCIA DE MEDIAS
0 :
0 1 0
H
0 :
0 1 1
H
42
95 , 0 1 05 , 0
( )
( ) ( )
0 1
0 1

" "
0 1 0 1
2
Y Y
n n
Y Y
t


Cuando no se conoce
2
0 1
Y Y

Adems n<30
Donde:
( )

,
_

+
+

0 1
0 1
0 1
2
0 0
2
1 1 2
2
1 ) 1 (
0 1
n n
n n
n n
S n S n
Y Y

1 0
( )
2
Y Y
i
( )
2
0 0
Y Y
156,25
56,25
6,25
56,25
100
100
0
275 200
( )
( )
67 , 66
3
200
75 , 68
4
275
0
2
0 0 2
0
1
2
1 1 2
1

n
Y Y
S
n
Y Y
S
( )

,
_

+
+

3 4
4 3
2 3 4
67 , 66 1 3 75 , 68 ) 1 4 (
2
0 1
Y Y

5886 , 39
2
0 1

Y Y


29 , 6
0 1

Y Y

t calculado
43
( )
Tablas t
Calculado t
571 , 2 " "
6 , 3
29 , 6
5 , 22
29 , 6
80 5 , 102
" "
975 , 0
5

Regla de Decisin
S:
o
tab cal
H Sereclaza
t t

> " " " "


Dado que:
0
57 , 2 " " 6 , 3 " "
H Serchaza
t t
tab calc

>
Por lo tanto: Existe diferencias salariales entre los que poseen ttulo de Post Grado y los que no lo
poseen.
Los modelos ANOVA del tipo de (1), aunque son comunes en campos tales como la sociologa,
la psicologa, la educacin y la investigacin de mercados, no lo son tanto en economa.
Tpicamente, en la mayor parte de la investigacin econmica, un modelo de regresin
contiene algunas variables explicativas que son cuantitativas y algunas que son cualitativas.
3. REGRESIN CON VARIABLES CUANTITATIVAS Y CUALITATIVAS COMO
REGRESORES (ANACOV)
Los modelos de regresin que contienen una mezcla de variables cuantitativas y cualitativas se
llaman modelos de anlisis (ANCOVA) o (ANACOV).
Como ejemplo del modelo ANCOVA, se modifica el modelo (1) de la siguiente manera:
t t i t
u Z Y C + + + (2)
C0>0 PMC (Propensin Marginal al consumo)
El modelo (2) contiene una variable cuantitativa (Y) y una variable cualitativa (Z) que tiene dos
clases ( o niveles, clasificaciones o categoras) a saber, poca de guerra y poca de paz.
t t i i t
u Z Y Y C + + +
P de la v. Parmetro de la variable cualitativa
Cuantitativa
Donde.
Ct = Consumo
Yi = Ingreso
44
Cambio es la
Propensi
Zt = Efecto temporal
1: poca de guerra
Zt =
0: poca de paz
Cul es el significado de (2)? Suponiendo, como es usual, que ( ) 0
i
u E , se observa que:
( )
t t t t
Y Y Z C E + + 1
(a) ( )
t t t
Y Z C E ) ( 1 + + Promedio del consumo en poca de guerra
(e) ( )
t t t
Y Z C E + 0 Promedio del consumo en poca de paz
Geomtricamente, se tiene la situacin que se muestra en la figura (A) (como ilustracin se supone
que 0 > ) En palabras, el modelo (2) postula que las funciones poca de guerra y poca de paz
con relacin al ingreso tienen la misma pendiente , pero interceptos diferentes. En otras palabras,
se supone que Promedio del consumo en poca de guerra difiere de aqul Promedio del consumo en
poca de paz.
Ct
poca de Guerra
poca de Paz

Yt
Dcima:
) 0 (
0 :
0 :
1
0
<

H
H
Si el supuesto de una pendiente comn es valido, una prueba de hiptesis de que las dos regresiones
(a) y (e) tienen el mismo intercepto que no hay discriminacin en el consumo en poca de guerra y
paz, se puede hacer fcilmente efectuando la regresin (2) y evaluando la significancia estadstica
de estimado con base en la prueba t tradicional. Si la prueba t muestra que es
estadsticamente significativo, se rechaza la hiptesis nula de que los niveles anuales de consumo
promedio en poca de guerra y de paz sean iguales.
Antes de proceder, obsrvese las siguientes caractersticas del modelo de regresin con variables
ficticias considerado anteriormente:
1. para diferenciar las dos categoras, Guerra y paz, se ha introducido solamente una variable
ficticia Zi. Si Zi = 1 representa poca de guerra, se sabe que Zi = 0 es poca de paz puesto
que solamente hay dos resultados posibles. Por lotanto, es suficiente una variables ficticia
45
Efecto blico producido por la guerra
para diferencias dos categoras. Supngase que el modelo de regresin contiene un trmino
de intercepto, si fuera a escribir el modelo (2) como.
Cambio simultneos en el Nivel de Subsistencia y en la PMC.
t t t t t t
u Z Y Z Y C + + + + (3)
1: poca de guerra Hiperinflacin
Zt =
0: poca de pazEstabilidad
( )
t t t t
Y Y Z C E + + + 1
( )
t t t
Y Z C E ) ( ) ( 1 + + + poca de Guerra
( )
t t t t
u Y Z C E + + 0 poca de Paz
Dcima:
0 :
0 :
1
0

H
H
0 :
0 :
1
0

H
H
Entonces, el modelo (3), como est planteado, no puede ser estimado debido a la presencia de
colinealidad perfecta entre
t t t
Z Y y Z . Hay diversas formas de resolver este problema, pero
la ms simple es asignar las variables ficticias en la forma que se hizo para el modelo (1), a saber,
utilcese solamente una variable ficticia si hay dos niveles o clases de variables cualitativa.
Regla:
46
Si una variables cualitativa tiene m categoras, introdzcase solamente m-1 variables ficticias.
Por ejemplo poca tiene dos categoras y, por tanto, se introdujo solamente una variable ficticia. Si
esta regla no se sigue, se caer en lo que podra llamarse la trampa de la variable ficticia, es decir, la
situacin de multicolinealidad perfecta.
2. La asignacin de los valores 1 y 0 a las dos categoras, tales como poca de guerra y poca de
paz, es arbitraria en el sentido de que en el ejemplo se hubiera podido asignar
Zi = 1 para poca de paz, y Zi = 0 para poca de guerra. En esta situacin, las dos regresines
obtenidas de (2) sern
(a) ( )
t t t
Y Z C E ) ( 1 + + Promedio del consumo en poca de paz
(e) ( )
t t t
Y Z C E + 0 Promedio del consumo en poca de guerra
En contraste con (a) y (e) en los modelo anteriores, dice cunto difiere el consumo promedio en
poca de paz del consumo promedio en poca de guerra. En este caso si hay discriminacin entre
ambas entonces se espera que sea negativo, mientras que antes se esperaba que sea positivo. Por
consiguiente, al interpretar los resultados de los modelos que utilizan variables ficticias, es de gran
importancia saber la forma como los valores de 1 y de 0 han sido asignados.
3. Frecuentemente se hace referencia al grupo, categora o clasificacin a l cual se asigna el valor de
0 como a categora base, marca fija, control, comparacin, referencia o categora omitida. Esta es la
base en el sentido de que se hacen comparaciones con respecto a esa categora. As en el modelo
(1), la profesora es la categora base.
4. El coeficiente

que compara a la variable ficticia puede llamarse coeficiente de intercepto


diferencial porque dice qu tanto difiere el valor del trmino de intercepto de la categora que
recibe el valor de 1 del coeficiente del intercepto de la categora base.
BOLO N 5
47
HETEROSCEDASTICIDAD
1. INTRODUCCION.
La heterocedasticidad es un problema de la poblacin se puede presentar en el modelo de dos
variables o en el de k variables.
Heterocedasticidad quiere decir desigual varianza, es decir las varianzas no son las mismas que en
el caso de homocedasticidad. En smbolos
2 2
) (
i
i u E
Obsrvese el subndice de
2

, que nos recuerda que las varianzas condicionales de


i
u = varianza
condicional de
i
Y no continan siendo constantes.
Como se menciono, uno de los supuestos importantes del modelo clsico de regresin lineal (
Modelo de Regresin Lineal Normal Clsico MRLNC), es que la varianza de cada trmino de
perturbacin
i
condicional a los valores seleccionados de las variables explicativas, es algn
nmero constante igual a
2

.Este es el supuesto de homoscedasticidad, o igual (homo) dispersin


(cedasticidad), es decir igual varianza, simblicamente:
E (
2
i
) =
2

i = 1,2,.,n
La homoscedasticidad en el modelo de regresin con dos variables, la varianza condicional de
i
Y
(la cual es igual a la de
i
), condicional a las
i
X dadas, permanece igual sin importar los valores
que tome la variable X
En tanto que la varianza condicional de
i
Y .aumenta a medida que X aumenta. Aqu, las varianzas
de
i
Y no son las mismas. Por tanto, hay Heteroscedasticidad. Simblicamente:
E (
2
i
) =
2
i

Obsrvese el subndice de
2

, que nos recuerda que las varianzas condicionales de


i
(=
varianzas condicionales de
i
Y ) han dejado de ser constantes.
Para entender la diferencia entre homoscedastidad y heteroscedasticidad, supngase que en el
modelo con dos variables
i
Y =
1
+
2

i
X +
i
, Y representa el ahorro y X representa el ingreso.
A medida que el ingreso aumenta, el ahorro en promedio tambin aumenta. Pero la varianza del
ahorro permanece igual en todos los niveles de ingreso.
Hay diversas razones por las cuales las varianzas de
i
pueden ser variables, algunas de las cuales
son las siguientes:
1. Con base de los Modelos de aprendizaje sobre errores, a medida que la gente aprende, con el
tiempo, sus errores de comportamiento se hacen menores. En este caso, se espera que
2
i
se
reduzca.
2. A medida que aumenta los ingresos, la gente posee mas ingreso discrecional y, por tanto tiene
mayores posibilidades de seleccin con respecto a la forma de disponer de su ingreso. En
consecuencia, es probable que
2
i
aumente con el ingreso, pues las personas tienen mayores
posibilidades de seleccin acerca de su comportamiento respecto al ahorro. En forma similar, se
48
espera que las compaas con mayores ganancias presenten mayor variabilidad en sus polticas
de dividendos, que las compaas cuyas ganancias son menores. Adems, es probable que las
empresas orientadas hacia el crecimiento presenten una mayor variabilidad en sus tasas de pago
de dividendos que las empresas ya establecidas.
3. A medida. que mejoran las tcnicas de recoleccin de informacin, es probable que
2
i
se
reduzca. As es probable que los bancos que poseen equipos sofisticados de procesamiento de
informacin cometan menos errores en los extractos mensuales o trimestrales de sus clientes
que los bancos que no los posean.
4. La Heteroscedasticidad tambin puede surgir como resultado de la presencia de factores
atpicos. Una observacin o factor atpico es una observacin que es muy diferente (o bien es
muy pequea o es muy grande) con relacin a las dems observaciones en la muestra. La
inclusin o exclusin de una observacin de este tipo, especialmente si el tamao de la muestra
es pequeo, puede alterar sustancialmente los resultados del anlisis de regresin.
5. Otra fuente de Heteroscedasticidad surge del MCRL (MRLNC) que establece que el modelo de
regresin esta correctamente especificado. Aunque se analizaran mas a fondo los errores de
especificacin en los siguientes captulos, con mucha frecuencia, lo que parece ser
heteroscedasticidad puede deberse al hecho de que algunas variables importantes son omitidas
del modelo. As, en la funcin de demanda de un bien, si no se incluyen los precios de los
bienes que le son complementarios o de los que compiten con este (sesgo de variable omitida),
los residuales obtenidos de la regresin pueden dar la clara impresin de que la varianza del
error no es constante. Pero si las variables omitidas son incluidas en el modelo, esa impresin
puede desaparecer.
ANALISIS GRAFICO DE HOMOCEDASTICIDAD Y HETEROCEDASTICIDAD.
Para una mayor comprensin veamos lo que se explico anteriormente, de manera grafica para una
mayor comprensin del tema.
DISTRIBUCIN HOMOCEDSTICA
49
DISTRIBUCIN HETEROCEDSTICA
2. ESTIMACION MCO EN PRESENCIA DE HETEROSCEDASTICIDAD.
Cuando se incluye heterocedasticidad en MCO los estimadores dejan de ser eficientes y por lo
mismo dejan de ser MELI.
Qu sucede a los estimadores MCO y a sus varianzas si se introduce la heteroscedasticidad
permitiendo que E (
2
i
) =
2
i
pero se conservan todos los dems supuestos del modelos clsico?
Para responder esta pregunta, recurdese el modelo con dos variables:
i
Y =
1
+
2

i
X +
i

Aplicando la formula usual, el estimador MCO de


2
es:
2

2
i
i i
x
y x
2

2 2
) (
i i
i i i i
X x n
Y X Y X n
( 1 )
Pero su varianza esta dada ahora por la siguiente expresin:
var(
2

) =
( )
2
2
2 2

i
i i
x
x
( 2 )
Que, obviamente, difiere de la formula usual de varianza obtenida bajo el supuesto de
homoscedasticidad, es decir:
var(
2

) =

2
2
i
x

( 3 )
Ciertamente, si
2
i
=
2

para cada i, las dos formulas sern idnticas. Por qu?


Recurdese que
2

es el mejor estimador lineal e insesgado (MELI) si se mantienen los supuestos


del modelo clsico, incluyendo el de homoscedasticidad. Sigue aun siendo este MELI cuando se
elimina solamente el supuesto de homoscedasticidad y se reemplaza por el supuesto de
heteroscedasticidad? Es fcil probar que
2

sigue siendo lineal e insesgado. En realidad, para


establecer el insesgamiento de
2

, no es necesario que las perturbaciones (


i
) sean
50
homoscedasticas. Realmente, la varianza de
i
homoscedastica o heteroscedastica no juega papel
alguno en la determinacin de la propiedad de insesgamiento.
Una vez se ha garantizado que
2

continua siendo lineal e insesgado, sigue siendo eficiente o


el mejor, es decir, tendr varianza mnima en la clase de los estimadores lineales e insesgados? y
dicha varianza mnima estar dada por la ecuacin ( 2 )?La respuesta a ambas preguntas es no:
2


deja de ser el mejor y la varianza mnima ya no esta dada por ( 2 )Entonces, Cul estimador es
MELI en presencia de heteroscedasticidad? la respuesta se da en la siguiente seccin.
La heterocedasticidad suele ser muy comn en datos de Corte Transversal y tambin se presenta,
menos frecuentemente, en series de tiempo.
Si se regresiona un modelo a travs de Mnimos Cuadrados Ordinarios con presencia de
heterocedasticidad, los coeficientes siguen siendo lineales e insesgados pero ya no poseen mnima
varianza (eficiencia).
3. EL MTODO DE MNIMOS CUADRADOS GENERALIZADOS (MCG)
El mtodo de MCO usual no hace uso de la informacin contenida en la variabilidad desigual de la
variable dependiente Y, este mtodo asigna igual peso o importancia a cada observacin. Pero
existe un mtodo de estimacin, conocido como mnimos cuadrados generalizados (MCG), que
tiene en cuenta esa informacin explcitamente y por consiguiente, y por consiguiente es capaz de
producir estimadores que son MELI.
Si se conoce la poblacin:
2
i

Para ver la forma como esto se logra, considere el modelo de dos variables:
i i i
u X Y + +
2 2 1
Modelo Original
El cual para facilitar el reordenamiento algebraico, puede escribirse como:
i i i i
u X X Y + +
2 0 1

Donde X0i = 1 para cada i. Podemos observar que estas dos formulas son idnticas.
Ahora suponemos las varianzas heteroscedsticas:
Si;
2 2
) ( ) (
i i i
u V u E Heteroscedasticidad
Supuesto:
Conocemos la poblacin, entonces se conoce
2
i

i i i i
u X X Y + +
2 0 1

Donde:
X0i = 1
Dividimos ambos lados por
i
para obtener:

,
_

,
_

,
_

i
i
i
i
i
i
i
i
u X X Y

*
2
0
*
1
Modelo transformado
La cual se puede escribir para facilitar exposicin as:
51
i i i i
v X X Y + +
*
2
*
2
*
0
*
1
*
Modelo Transformado
Donde las variables asteriscos son las variables transformadas, obsrvese que la variable aleatoria
transformada es:

,
_

i
i
i
u
v

1
) (
) (
2
2
2
2
2

,
_

i
i
i
i
i
i
i
u E u
E v V


1 ) (
i
v V (Constante)

Heteroscedaticidad

Homoscedasticidad
Aplicar MCO al Modelo Transformado.
Se denomina MNIMOS CUADRADOS GENERALIZADOS
En resumen MCG es MCO sobre las variables transformadas que satisfacen los supuestos estndar
de mnimos cuadrados. Los estimadores as obtenidos se conocen como estimadores MCG y son
stos los estimadores que son MELI.
Este procedimiento de transformar las variables originales de tal manera que las variables
transformadas satisfagan los supuestos del modelo clsico, y de aplicar a continuacin MCO se
conoce como el mtodo de mnimos cuadrados generalizados MCG. MCG es MCO aplicados sobre
las variables transformadas que satisfagan los supuestos tradicionales de los mnimos cuadrados.
Los estimadores obtenidos de esta manera se conocen como estimadores de MCG, los cuales son
MELI.
- Estimadores de Mnimos Cuadrados Generalizados.
El mecanismo de estimacin de
*
2
*
1
y es el siguiente. Primero se escribe la FRM de:

,
_

,
_

,
_

i
i
i
i
i
i
i
i
e X X Y

*
2
0
*
1

,
_

,
_



i
i
i
i
i
i
i
i
X X Y e


2
0
1

[ ]
2
*
2 0 1
2 2
2

1
i i i
i i
i
X X Y
e


,
_


( )
2
*
2
1
*
2
2
2

1 1
i i
i
i
i
X Y e

,
_

,
_

Convenio:
52
i i i
i i i
i i i
e X Y
e Y Y
u X Y
+ +
+
+ +
2 1
2 1



2
1
i
i
w

( )
2
*
2
*
1
2

i i i i i
X Y w e w
( )
i i
n
i i
n
i
X Y w e w
*
2
*
1
2
1



( )( ) 0 1

2

*
2
*
1
*
1
2

i i i
i i
X Y w
e w

0

*
2
*
1

i i i i i
X w w Y w
i i i i i
X w w Y w

+
*
2
*
1

(1)
( )( ) 0

2

*
2
*
1
*
2
2

i i i i
i i
X X Y w
e w

0

2 *
2
*
1

i i i i i i i
X w X w Y X w
2 *
2
*
1

i i i i i i i
X w X w Y X w

+ (2)
(1)
(2)
Dividiendo (1) entre
i
w

+
i
i i
i
i
i
i i
w
X w
w
w
w
Y w
*
2
*
1

i
i i
i
w
Y w
Y
*
;

i
i i
i
w
X w
X
*
Tenemos:
* *
2
*
1
*

X Y
i
+ (3)
* *
2
* *
1

X Y (4)


i
i i
i
i i
w
X w
w
Y w
*
2
*
1

(5)
Reemplazando (5) en (2):
53
i i i i i
X w w Y w

+
*
2
*
1


2 *
2
*
1

i i i i i i i
X w X w Y X w

+
Sistema de
Ecuaciones
Normales

,
_

2 *
2
*
2

i i i i
i
i i i i
i i i
X w X w
w
X w Y w
Y X w

i
i i i i i i i i i
w
w X w X w X w Y w
2
*
2
2 *
2


( ) [ ]

+
2
2 *
2

i i i i i i i i i i i i i
X w w X w X w Y w w Y X w
( ) [ ]


2
2 *
2

i i i i i i i i i i i i i
X w w X w X w Y w w Y X w
Tenemos para
*
2
es:
( )( ) ( )( )
( )( ) ( )
2
2
*
2

i i i i i
i i i i i i i i
X w X w w
Y w X w Y X w w

Es MELI
En caso de Homoscedasticidad
( ) ( )
2 2
u V u E
i
2
1

i
w

2
*
2
1

2 2
*
2

i i i i i
i i i i i i i
X w w X w
X w Y w w Y wX


( )

2
2 2
*
2

i i
i i i i
X w nw X w
X w Y w nw Y X w


( )

2
2 2 2
2 2
i i
i i i i
X w X n w
X Y w Y X n w

( ) [ ]

2
2 2
2
) (
i i
i i i i
X X n w
X Y Y X n w
2
2
1 1
2
1 1 1 *
2

,
_

,
_

,
_



n
i
n
i
n n
i
n
i i i
X X n
X Y Y X n
( )( )
( )
( )

+
+

2 2 2
2
2

X X X X
Y X X Y Y X XY
X X
Y Y X X

54



+
+

2
2
2 X n X X X
Y X n X Y Y X XY



,
_

,
_

,
_

,
_

2
2
2
2
n
X
n X
n
X
X
n
Y
n
X
n X
n
Y
Y
n
X
XY
( ) ( )
n
X X n
n
Y X XY n
n
X
X
n
Y X XY n
2
2
2
2

,
_

,
_

,
_

n n
i i
n n
i
n
i i i
X X n
Y X Y X n
1
2
1
2
1 1 1
2

4.CONSECUENCIAS DE UTILIZAR MCO EN PRESENCIA DE


HETEROSCEDASTICIDAD.
- Considerando la heterocedasticidad .
i i i
u X Y + +
2 1

( )
2 2

i i
Vu u E Homoscedasticidad ( )
2 2
i i i
Vu u E Heteroscedasticidad

i
i i
x
y x
2

MELI
(1)
55
( )
( )

n
X X
V
1
2
2
2

( )
( )
2
2
2 2
2

i
i
i
x
x
V

2 2

i
i i
x
y x

(2)
Suponiendo que utilizamos
2
^

y la formula para la varianza


2 2
2 2
^
2
) (
i
i i
x
x
Var

,
_


que toma en
cuenta la presencia de heterocedasticidad en forma explicita.
Entonces:
( ) ( )
2 2

V V <
(2) < (1)
Varianza est dada por:
( )( ) ( )
2
2
*
2
)

var(

i i i i i
i
X w X w w
w

Satisface la propiedad de Mnima Varianza


Pero:
2
1
i
i
w

( Heteroscedasticidad)
2
1

w (Homoscedasticidad)
( )
2
2 2
2
2
2
*
2
1 1 1
1

1
]
1

,
_

1
]
1

,
_

1
]
1

,
_

,
_

i i
X X
V


( )
( )
2 2
2
2 2
2
2
*
2
) (

,
_

,
_

i i
X
n
X
n
V

( )
( )

2
2
2
*
2

i i
X X n
n
V



( )
( ) ( )
n
X
n
X n
n
n
X X n
n
V
i i i i
2
2
2
2
2
2
*
2

( )
( )
( ) [ ]

2
2 2
2
2
*
2

i i
X X n
n
V

( )



,
_

n
n
i
i
n
X
X
V
1
2
1 2
2
*
2


( )
( )

n
i
X X
V
1
2
2
*
2

Pero:
( )
2 2 2 2
2
2 ) 2 ( X n X X X X X X X X X
i i
+ +


( ) ( )
2
2 2
2
2
n
X
n
n
X
X
i
i

+
( )
( )
n
X
X X X
i
i
2
2 2


Hasta el momento ya se ha visto, que ambos
*
2
^

y
2
^

son estimadores (lineales) insesgados: en


muestreo repetido, en promedio
*
2
^

y
2
^

sern iguales al verdadero


2

, es decir ambos son


insesgados. Pero se sabe que
*
2
^

es el eficiente, es decir, tiene la menor varianza.


Qu sucede con el intervalo de confianza, las pruebas de hiptesis y con otros
procedimientos si se contina utilizando el estimador MCO,
2
^

? Se distinguen dos
situaciones.
a) Desconocer la Heteroscedasticidad
b) Reconocer la presencia de Heteroscedasticidad
a) Desconocer la Heteroscedasticidad
Dado que:
( )
2

V (1) > ( )
2

V (2)
Existe mayor impresin al utilizar ( )
2

V (1) y peor an si se considera


que:
( )
2

V (1) es sesgado de ( )
2

V (2)
Por lo tanto la ( )
2

V (1) puede sobre estimar o subestimar ( )


2

V (2)
Entonces:
Estimacin Mnimos Cuadrados Ordinarios (MCO) Ignorando La Heteroscedasticidad.
La situacin se toma grave si, adems de utilizar
2
^

, tambin se sigue utilizando la formula


usual de varianza (homoscedstica) dada en:

2
2 ^
)
2 `
var(
i
i
x

FORMULA (1)
Aun si existe heteroscedasticidad como si se sospecha de su existencia: obsrvese que este es
el caso ms probable de los dos que aqu se analizan,
En primer lugar, la var(
2
^

) dada en la formula (2), es un estimador sesgado de var(


2
^

)
dada en ala formula (1), es decir, en promedio sta sobreestima o subestima la ultima y en
general no se puede decir si el sesgo es positivo (sobreestimacin) o negativo (subestimacin)
pues este depende de la naturaleza de la relacin entre
2
i
y los valores tomados por la
variable explicativa X, como puede verse claramente en la formula (1). El sesgo surge del
hecho de que
^
2

, el estimador convencional de
2

, a saber:

) 2 /(
2
n u
i
Deja de ser un
estimador insesgado del ltimo cuando hay presencia de heteroscedasticidad. Como
resultado, ya no podemos depender de los intervalos de confianza calculados
convencionalmente y de las pruebas t y F tradicionalmente empleadas.
b) Reconocer la presencia de Heteroscedasticidad
i i i
u X Y + +
2 1

Si:
( )
2 2
i i i
Vu u E Heteroscedasticidad
En el caso de aplicar M.C.G. tenemos:

2 2
*
2
) ( ) )( (
) )( ( ) )( (

i i i i i
i i i i i i i
X w w X w
wX Y w w Y X w

2 2
*
2
) ( ) )( (
) (

i i i i i
i
X w w X w
w

( )
*
2

V
<
( )
2

V

Estimacin Mnimos Cuadrados Ordinarios (MCO) Considerando La
Heteroscedasticidad.
Supngase que se utiliza
2
^

y se usa la formula de varianza dada en la formula:

2 2
2 2
) (
)
2 `
var(
i
i i
x
x
FORMULA (2)
La cual considera explcitamente la heteroscedasticidad. Utilizando esta varianza y
suponiendo que los
2
i
son conocidos, es posible establecer intervalos de confianza y
probar hiptesis con las pruebas t y F usuales? .
( )
( )
2
2
2 2
2

i
i
i
x
x
V

2 2

i
i i
x
y x

(2)
La respuesta generalmente es no, pues puede demostrarse que var(
*
2
^

) var(
2
^

), lo cual
significa que los intervalos de confianza basados en estos ltimos sern innecesariamente
grandes. Como resultado, es probable que las pruebas t y F nos den resultados imprecisos en
el sentido de que la var(
2
^

) es demasiado grande y lo que parece ser un coeficiente


estadsticamente no significativo (puesto que el valor t es mas bajo de lo apropiado), de hecho,
puede resultar significativo si se establecen intervalos de confianza correctos con base en el
procedimiento MCG.
Conclusin; si se persiste en utilizar los procedimientos de pruebas usuales, a pesar de la
presencia de heteroscedasticidad, las conclusiones a las cuales se llegue o las inferencias
que se hagan pueden ser errneas.
5. COMO DETECTAR LA HETEROSCEDASTICIDAD?
De igual forma que sucede con la multicolinealidad, la pregunta prctica importante es: Cmo
se sabe que la heteroscedasticidad est presente en una situacin especfica? Nuevamente, como
en el caso de la multicolinealidad, no existen reglas fuertes y rpidas para detectar la
heteroscedasticidad, solamente algunas reglas prcticas.
a) Mtodo grfico
Si no hay informacin a priori o emprica sobre la naturaleza de la heteroscedasticidad, en la
prctica se puede llevar a cabo anlisis de regresin bajo el supuesto de que no has
heteroscedasticidad y luego hacer un examen post mortem de los residuales elevados al
cuadrado
2
i
e para ver si ellos exhiben algn patrn sistemtico.
En la practica cuando se obtiene informacin a priori o emprica acerca de la heterocedasticidad,
se puede llevar a cabo el anlisis de la regresin sobre el supuesto de que no existe
heterocedasticidad y luego realizar un examen posterior de los residuos estimados al cuadrado
i e
2
para ver si ellos presentan algn patrn sistemtico; Aunque
i e
2
y
i u
2
, no son la misma
cosa, pueden usarse como aproximaciones, especialmente cuando la muestra es suficientemente
grande.

i e
2
i e
2


Ausencia de Heterocedasticidad
^
i
Y
Heterocedasticidad
^
i
Y
i e
2

i e
2
Heterocedasticidad
^
i
Y
Heterocedasticidad
^
i
Y


i e
2

Heterocedasticidad
^
i
Y

b) Prueba de Park
Park formaliza el mtodo grfico sugiriendo que
2
i
es algn tipo de funcin de la variable
explicativa
i
X . La forma funcional sugerida por l fue:
i
v
i i
e X


2 2

Donde
i
v es el trmino de perturbacin estocstico.
(A)
Si resulta ser
estadsticamente significativo, esto sugerir que hay heteroscedasticidad en los datos. Si resulta
ser no significativo, se puede aceptar el supuesto de homoscedasticidad. La prueba de Park es,
por tanto, un procedimiento de dos etapas. En la primera etapa se efecta la regresin de MCO
ignorando el interrogante de la heteroscedasticidad. Se obtiene
2
i
e de esta regresin y luego, en
la segunda etapa, se efecta la regresin (A).
Aunque empricamente la prueba de Park es atractiva, sta tiene algunos problemas. Goldfeld y
Quandt han argumentado que el trmino de error
i
v que entra en al ecuacin (A) puede no
satisfacer los supuestos MCO y puede en s mismo ser heteroscedstico. No obstante, es posible
utilizar la prueba de Park como un mtodo estrictamente exploratorio.
Aplicando MCO obtenemos:
_ ^
_
2
^
ln ln X e
i

2
_
2
_
2
_
^
) ln (ln
) ln )(ln ln (ln
i i
i
i
i i
X X
e e X X



DOCIMA
:
0
H HOMOCEDASTICIDAD
:
1
H HETEROCEDASTICIDAD
^
^
) (
^
" "
k
k
k n
t

<
2
1 1
: H <
2
2

2
3

i i i
i i i
v X e
v X e
+ +
+ +
ln ln
ln ln ln
2
2 2


2
_
^
2 ^
2
) ln (ln
^
x X


2
1 1
: H
2
2

2
3

SI: t calculado > t tablas


SE RECHAZA LA
0
H
R.C R.A. R.C.

Ser significativo si cae en la R.C.
SE ACEPTA LA :
1
H HETEROCEDASTICIDAD
c) Docima de BARTLETT
Docima: H
o
:
2
1
=
2
2
HOMOSCEDATICIDAD
H
1
:
2
1
>
2
2
HETEROSCEDATICIDAD
BARTLETT plantea es siguiente estadstico:
2
1
~
k
L
Q
k = Nmero de grupos
Donde:

k
i i
k
i
k
i
i i i
i
n n k
S n S
n
n
n
L
Q
1
1 1
2 2
1 1
) 1 ( 3
1
1
log ) log(
i = 1,2k
n = tamao de la muestra
n
i
= tamao de submuestras
Si
tablas k
L
Q
2
1
> entonces se rechaza la hiptesis nula H
o
lo que indica que existe presencia
de Heteroscedasticidad
d) Prueba de Goldfeld Quandt
Este popular mtodo es aplicable si se supone que la varianza heteroscedstica,
2
i
est
relacionada positivamente con una de las variables explicativas en el modelo de regresin. Por
simplicidad, considrese el modelo usual con dos variables:
i i i
u X Y + +
2 1

Supngase que
2
i
est relacionado positivamente con
i
X en la forma:
te cons una es Donde X
i i
tan
2 2 2 2

El anterior supuesto postula que
2
i
es proporcional al cuadrado de la variable X.
Si el supuesto anterior es la relacin apropiada, significara que
2
i
sera mayor entre mayores
fueran los valores de
i
X . Si ste resulta ser el caso, es muy probable que haya
heteroscedasticidad en el modelo. Para probar esto explcitamente, Goldfeld y Quandt sugieren
los siguientes pasos:
Paso1. Ordnense las observaciones de acuerdo con los valores de
i
X empezando por el valor
de
i
X ms bajo (menor a mayor).
parametros de Numero k
Paso 2. Omtase las observaciones centrales, donde c se ha especificado a priori y divdanse las
observaciones restantes ) ( c n en dos grupos, cada uno de 2 / ) ( c n observaciones.
Paso 3. Regresionar por MCO cada grupo con el fin de terminar SEC
1
y SEC
2
que representan la
suma de error de cuadrados mas bajos y altos respectivamente (grupo de varianza pequea y
grupo de varianza grande, respectivamente).
Paso 4. Calclese la razn o el estadstico F:
k
c n
L G libertad de grados los Donde
libertad de Grados
SEC
libertad de Grados
SEC
F


2
. " "
1
2
Si F
calculado
>F
tablas
entonces se rechaza la hiptesis de homoscedasticidad
6.- MEDIDAS REMEDIALES
Existen dos enfoques para remediar el problema de heterocedastcidad:
- Cuando se conoce
2
i
(cuando se conoce la poblacin)
- Cuando no se conoce
2
i
(cuando no se conoce la poblacin)
Cuando se conoce
2
i
(cuando se conoce la poblacin)
Si se conoce
2
i
el mtodo ms directo de corregir la heterocedasticidad es a travs de los
llamados mnimos cuadrados ponderados, MCP, mtodo en el cual los estimadores obtenidos
son MELI. Pero en muy contadas ocasiones se tiene conocimiento previo de los
2
i
.
Cuando no se conoce
2
i
(cuando no se conoce la poblacin)
Se puede considerar diferentes supuestos: para proceder a transformar el modelo de regresin
original de tal manera que el modelo transformado cumpla el supuesto de homocedasticidad.
2 2 2
) ( ) (
i i
X u E u V
2 2 2
) ( ) (
i i
X u E u V
( ) [ ]
2 2 2
) ( ) (
i i
Y E u E u V
SUPUESTO 1
i i t
u X Y + +
2 1

2 2 2
) ( ) (
i i
X u E u V HETEROCEDASTICIDAD
i
i
i
i
i i
i
X
u
X
X
X X
Y
+ +
2
1

i
i
i i
i
X
u
X X
Y
+ +

,
_

2 1
1

,
_

,
_

+
i
i
i i
i
X
u
X X
Y 1
1 2
MODELO TRANSFORMADO
i i i
u X Y * * * * *
2 1
+ +
2
2
2 2
2
2
2
* 2
) (
) ( ) * (

,
_


i
i i
I
i
i i
X
X
X
u E
X
u
E u E u V
2 * 2
) ( ) * (
i i
u E u V HOMOCEDASTICIDAD

,
_

,
_

+
i
i
i i
i
X
e
X X
Y 1
* *
^
1
^
2

i
i
i
i
i
i i
i
i
X
X
e
X
X
X X
X
Y

,
_

,
_

+
1
* *
^
1
^
2

i i i
e X Y + +
^
2
^
1

MODELO ORIGINAL
SUPUESTO 2
i i t
u X Y + +
2 1

2 2 2
) ( ) (
i i
X u E u V HETEROCEDASTICIDAD

,
_

,
_

+
i
i
i
i
i i
i
X
u
X
X
X X
Y
2
1

Pero:

,
_

i
i
i
i
i
i
X
X
X
X
X
X
i
i
i
X
X
X

Entonces:

,
_

+ +

,
_

i
i
i
i i
i
X
u
X
X X
Y
2 1
1
MODELO TRANSFORMADO
i i i i
u X X Y * * * * * * *
2 1
+ +
2
2 2 2
2
* 2
) (
) ( ) * (

,
_


i
i
i
i
i
i
i i
X
X
X
u E
X
u
E u E u V
2 * 2
) ( ) * (
i i
u E u V HOMOCEDASTICIDAD

,
_

+ +

,
_

i
i
i
i i
i
X
e
X
X X
Y
*
1
*
2
^
1
^

i
i
i
i
i
i
i
i
i
X
X
e
X
X
X
X
X
Y

,
_

+ +

,
_

2
2
^
1
^
) ( * *
i i i
e X Y + +
^
2
^
1

MODELO ORIGINAL
SUPUESTO 3
i i t
u X Y + +
2 1

( ) [ ]
2 2 2
) ( ) (
i i
Y E u E u V
i i
i
i
i
i i
i
Y E
u
Y E
X
Y E Y E
Y
) ( ) ( ) ( ) (
2
1
+ +

1
]
1

+
1
]
1

+
1
]
1

) ( ) (
1
) (
1
) (
2 1
i
i
i i i
i
Y E
u
Y E Y E Y E
Y
MODELO TRANSFORMADO
i i i i
u X X Y * * * * * *
2 2 1 1
+ +
[ ]
[ ]
[ ]
2
2
2 2
2
2
2
) (
) (
) (
) (
) (
) * (

,
_

i
i
i
i
i
i
i
Y E
Y E
Y E
u E
Y E
u
E u V
2
) * (
i
u V HOMOCEDASTICIDAD
i i i
u X Y + +
i i
X Y E + ) ( F.R.P.
i i i
X Y Y E
^ ^ ^
) ( +
F.R.M.
Reemplazando tenemos:

,
_

,
_

,
_

^ ^ 2 ^ 1 ^
1
i
i
i
i
i i
i
Y
u
Y
X
Y Y
Y
MODELO
TRANSFORMADO
2
2
^
2
^
2
2
^
2
2
^
) (
) (
) * (

,
_

i
i
i
i
i
i
i
Y
Y
Y
u E
Y E
u
E u V
2
) * (
i
u V HOMOCEDASTICIDAD
SUPUESTO 4: Transformacin logartmica
i
u
i i
e X Y
2
1


i i i
u X Y + + ln ln ln
2 1

Tambin:
i i i
u X Y
2
1


i i i
u X Y ln ln ln ln
2 1
+ +
Con la transformacin logartmica muy frecuentemente se reduce le problema de
heterocedasticidad. Esto se debe a que las transformaciones logartmicas comprimen las escalas
en las que se miden las variables.
Para concluir el anlisis de las medidas remdiales se debe hacer nfasis en que todas las
transformaciones mencionadas previamente son ad hoc esencialmente, estamos especulando
sobre la naturaleza de
2
i
. De las transformaciones mencionadas anteriormente la que funcione
depender de la naturaleza del problema y de la severidad de la heterocedasticidad.
HETEROCEDASTICIDAD
Utilizando esta varianza y suponiendo que se conocen
2
i
. En este caso no se pueden
establecer intervalos de confianza ni pruebas de hiptesis, puesto que se puede demostrar que
) ( ) * (
2
^
2
Var Var
lo cual implica que los intervalos de confianza basados en esta ltima
sern innecesariamente mayores. Como resultado, las pruebas t y F posiblemente producirn
resultados inexactos puesto que la
) (
2
^
Var
es excesivamente grande y el que parece a primera
vista ser un coeficiente estadsticamente no significativo, de hecho puede ser significativo si los
correctos intervalos de confianza se establecieran con base en el procedimiento de MCG.
- Ignorando la heterocedasticidad.
i i t
u X Y + +
2 2 1

2 2
) (
i
i u E HETEROCEDASTICIDAD
2
2
^
2
) (
i
x
Var

HOMOCEDASTICIDAD
La situacin se complica si no solamente utilizamos
2
^

, sino que continuamos usando la


formula de la varianza tradicional (homocedastica)
2
2
^
2
) (
i
x
Var

aun en el caso en que este


presente o se sospeche que exista heterocedasticidad; obsrvese que al ignorar o no conocer la
heterocedasticidad producir una varianza
2
^

dada por
2
2
^
2
) (
i
x
Var

. Ante todo,
) (
^
2
Var

dada en
2 2
2 2
^
2
) (
i
i i
x
x
Var

,
_


, hecho que implica que, en promedio, se esta sobrestimando o
subestimando esta ultima. En general, no podemos darnos cuenta de si dicho sesgo es positivo o
negativo, porque el depende de la naturaleza de la relacin existente entre
2
i
y los valores que
toma la variable explicativa X.
5.- COMO DETECTAR LA HETEROCEDASTICIDAD
- Mtodo grfico
- Prueba de Park
- Criterios de Goldfeld-Quant
- Docima de Bartlett
La mayora de estos mtodos estn basados en el examen de los residuos
i
e , de los MCO,
puesto que estos son los que observamos y no las perturbaciones
i
u . Esperamos que los
i
e sean
buenas estimaciones de
i
u , los cual se puede cumplir si el tamao de la muestra es
relativamente grande.
- Mtodo grafico.
En la practica cuando se obtiene informacin a priori o emprica acerca de la heterocedasticidad,
se puede llevar a cabo el anlisis de la regresin sobre el supuesto de que no existe
heterocedasticidad y luego realizar un examen posterior de los residuos estimados al cuadrado
i e
2
para ver si ellos presentan algn patrn sistemtico; Aunque
i e
2
y
i u
2
, no son la misma
cosa, pueden usarse como aproximaciones, especialmente cuando la muestra es suficientemente
grande.
i i i
u X Y + +
2 2 1

i i i
e X Y + +
2 2 1

i i t
e Y Y +
^
^
I I i
Y Y e
n
e e
e e V
u E u V
i i
i
i
i i
2
_
_
2
2
) (
) (
) ( ) (

n
e
e V
i
i
2
) (

BOLO 6
MULTICOLINEALIDAD
1. INTRODUCCON
Uno de los supuestos del modelo clsico de regresin lineal es que no haya multicolinealidad
entre variables explicativas, las X.
El termino multicolinealidad se atribuye a Ragnar Frisch en 1934. Originalmente implicaba la
existencia de una relacin lineal perfecta o exacta entre algunas o la totalidad de las variables
explicativas de un modelo de regresin.
Multicolinealidad se refiere a la relacin de dependencia que puede existir entre las variables
explicativas o independientes. Interpretada en trminos generales se refiere a una situacin en la
cual existe una relacin lineal exacta o aproximada entre las variables X.
Cuando se toma una muestra podemos encontrar muchas enfermedades entre esas es la
multicolinealidad y afecta al supuesto 5 del modelo de regresin lineal normal clsico MRLNC.
1.- Y = u +
2.-
u
N
MRLNC 3.- E (u u`) =
2

I
4.- ) ( ) (
`
= K< n
5.- es una matriz cuyos elementos son fijos
Si los X no son linealmente independientes entonces no son fijos y no se podra encontrar la
solucin.
Para la regresin en k variables, con las variables explicativas
k
X X X ,....... ,
2 1
(donde
1
X =1 para todas las observaciones de tal manera que se permita la inclusin de la
interseccin), se dice que existe una relacin lineal exacta si se satisfacen las siguientes
condiciones:
0 .........
2 2 1 1
+ +
k k
X X X
Donde
k
,......... ,
2 1
son constantes tal que no todas sean simultneamente 0.
No obstante, en la actualidad el trmino multicolinealidad se utiliza en un sentido ms amplio
para incluir el caso de multicolinealidad perfecta, como tambin aquella situacin en donde las
variables X estn intercorrelacionadas, peor no en forma perfecta, de la siguiente manera:
0 .........
2 2 1 1
+ + +
i k k
v X X X
Donde
i
v es un trmino estocstico de error.
Para apreciar la diferencia existente entre multicolinealidad perfecta y multicolinealidad menos
que perfecta, supongamos, por ejemplo, que 0
2
en consecuencia
0 .........
2 2 1 1
+ +
k k
X X X se puede expresar como:
ki
k
i i i
X X X X
2
3
2
3
1
2
1
2
........


Lo cual muestra que
2
X esta exactamente relacionada en forma lineal con otras variables o que
se puede derivar a partir de la combinacin lineal de las restantes variables X. En esta situacin,
el coeficiente de correlacin entre la variable
2
X y la combinacin lineal del lado derecho de
ki
k
i i i
X X X X
2
3
2
3
1
2
1
2
........


debe ser igual a uno.
En forma similar, el 0
2
, la ecuacin 0 .........
2 2 1 1
+ + +
i k k
v X X X se puede
expresar como:
i ki
k
i i i
v X X X X
2 2
3
2
3
1
2
1
2
1
........


Lo cual muestra que
2
X no es exactamente una combinacin lineal de las restantes X`s debido
a que tambin est determinada por el termino del error estocstico
i
v .
A propsito podemos observar que la multicolinealidad, de acuerdo con nuestra definicin,
excluye nicamente las relaciones lineales entre las variables X. Elimina las relaciones no
lineales existentes entre ellas entre ellas. Por ejemplo consideremos el siguiente modelo de
regresin.
i i i i t
u X X X Y + + + +
3
3
2
2 1 0

Donde: Y = costo total de produccin y
X = produccin
Es obvio que las variables
2
i
X (produccin de cuadrado) y
3
i
X (produccin al cubo) estn
funcionalmente relacionadas con
i
X , pero la relacin no es lineal. Por tanto, hablando
estrictamente, modelos similares a
i i i i t
u X X X Y + + + +
3
3
2
2 1 0
no violan el supuesto
de no multicolinealidad. Sin embargo, en aplicaciones concretas el coeficiente de correlacin
convencionalmente medido demostrara que
i
X ,
2
i
X y
3
i
X estn estrechamente
correlacionadas, lo cual, dificultara la estimacin de los parmetros de
i i i i t
u X X X Y + + + +
3
3
2
2 1 0
con mayor precisin.
Por qu supone el modelo clsico de regresin lineal que no existe multicolinealidad entre las
X?. El razonamiento es el siguiente:
- Si la multicolinealidad es perfecta en el sentido de
0 .........
2 2 1 1
+ +
k k
X X X
, los
coeficientes de regresin de las variables X son indeterminados y sus errores estndar
son infinitos.
- Si la multicolinealidad es menos que perfecta como en
0 .........
2 2 1 1
+ + +
i k k
v X X X los coeficientes de regresin, aunque
determinados o finitos, poseen errores estndar demasiado grandes, lo cual implica que
los coeficientes no se pueden estimar con gran precisin o exactitud.
Existen diversas fuentes de multicolinealidad. Como afirman Montgomery y Peck, la
multicolinealidad puede deberse a los siguientes factores:
1.- El mtodo de recoleccin de informacin empleado, por ejemplo, la obtencin de muestras en
un intervalo limitado de valores tomados por las regresoras en la poblacin.
2.- Restricciones en el modelo o en la poblacin objeto del muestreo, por ejemplo, en la regresin
del consumo de electricidad sobre el ingreso (X
2
) y el tamao de las viviendas (X
3
) hay una
restriccin fsica en en la poblacin puesto que las familias con ingresos mas altos
generalmente tienen viviendas mas grandes que las familias con ingresos mas bajos.
3.- Especificacin del modelo, por ejemplo, la adicin de trminos polinomiales a un modelo de
regresin, especialmente cuando el intervalo de la variable X es pequeo.
4.- Un modelo sobre determinado. Esto sucede cuando el modelo tiene ms variables
explicativas que el nmero de observaciones. Esto podra suceder en investigacin mdica,
donde puede haber un nmero reducido de pacientes sobre quienes se rene informacin
respecto a un gran nmero de variables.
Una razn adicional para la existencia de la multicolinealidad, sobre todo en los datos de series
de tiempo, podra ser que las regresoras incluidas en el modelo compartan una tendencia comn,
es decir, que tosas aumenten o disminuyan a lo largo del tiempo. Por tanto, en la regresin del
gasto de consumo sobre el ingreso, la riqueza y la poblacin, las regresoras ingresos, riqueza y
poblacin quiz se incrementaran con el tiempo a una tasa aproximadamente igual, con lo cual
se presentara la colinealidad entre dichas variables.
CARACTERISTICAS DE MULTICOLINEALIDAD
a). Es un problema que se genera en la muestra y no en la poblacin.
b). Es un problema de grado y no de tipo.
Grados de la multicolinealidad
- Ausencia de multicolinealidad
- Alto grado de multicolinealidad.
- Multicolinealidad perfecta.
- AUSENCIA DE MULTICOLINEALIDAD
n
X X X X
X X Cov
i i i i
i i
) )( (
) , (
3 3 2 2
3 2

0 ) , (
3 2

i i
X X Cov
Entonces:

3 , 2
r
2
3
3
2
2 2
3 3 2 2
) ( ) (
) )( (
i
i i i
i i i i
X X X X
X X X X



3 , 2
r
0
- ALTO GRADO DE MULTICOLINEALIDAD
La situacin en el caso de la multicolinealidad perfecta es un extremo de tipo patolgico.
Generalmente no existe una relacin lineal exacta entre las variables X, especialmente con
informacin relacionada con series de tiempo en Economa. Por tanto, teniendo un modelo con
tres variables podemos tener:
i i i i
e x x y + +
3
^
3 2 2
^

i i i
v x x +
2 3

Donde
0
y
i
v es un termino de error estocstico, tal que 0
2

i i
v x . Porque es este caso
es factible la estimacin de los coeficientes de regresin
2
y
3
, por ejemplo, sustituyendo
i i i
v x x +
2 3
en la solucin para
1
, en el caso del modelo de tres variables, obtenemos:
2 2
2
2 2
2
2
2
2
2
2
2
2
2
2 2
2
^
2
) ( ) (
) )( ( ) )( (
i i i
i
i
i i i i i
i
i i
x v x x
x v y x y v x x y
+
+ +

Si: 0
2

i ki
k
i i i
v X X X X
2 2
3
2
3
1
2
1
2
1
........


AGM
- MULTICOLINEALIDAD PERFECTA
Teniendo:

3 , 2
r
2
3
3
2
2 2
3 3 2 2
) ( ) (
) )( (
i
i i i
i i i i
X X X X
X X X X




Pero:


i i i i
X X X X
2 3 2 3
3 3

3 , 2
r
2
2
2
2
2 2
2 2 2 2
) 3 3 ( ) (
) 3 3 )( (
i
i i i
i i i i
X X X X
X X X X



3 , 2
r
2
2
2 2
2
2
2 2
) ( 3
) ( 3
1
]
1


1
]
1

i i
i i
X X
X X

3 , 2
r
1
]
1


1
]
1

2
2 2
2
2 2
) ( 3
) ( 3
i i
i i
X X
X X

3 , 2
r
1 EXISTE MULTICOLINEALIDAD PERFECTA
Si: 0
2

ki
k
i i i
X X X X
2
3
2
3
1
2
1
2
........


MP
2. ESTIMACION EN EL CASO DE MULTICOLINEALIDAD
Se estableci previamente que en el caso de multicolinealidad perfecta, los coeficientes de
regresin son indeterminados y sus errores estndar infinitos.
Lo cual se puede demostrar fcilmente en trminos del modelo de regresin con tres variables.
Utilizando la estimacin del modelo en forma de desviaciones de sus medias mustrales. El
modelo de regresin con tres variables se puede escribir como:
i i i i
e x x y + +
3
^
3 2 2
^

Se puede demostrar entonces que:
Y
Y
Y
Y
Y
2
3 2
2
3
2
2
3
2
2 3
2
3 2
^
2
) ( ) )( (
) )( ( ) )( (
i i i i
i i i i i i i
x x x x
x x x y x x y



2
3 2
2
3
2
2
3
2
2 2
2
2 3
^
2
) ( ) )( (
) )( ( ) )( (
i i i i
i i i i i i i
x x x x
x x x y x x y



Supngase que:
i i
x x
2 3

Donde es una constante diferente de 0. Sustituyendo esto tenemos:
2 2
2
2 2
2
2
2
2
2
2
2
2
2 2
2
^
2
) ( ) )( (
) )( ( ) )( (
i i
i
i
i i
i
i i
x x x
x x y x x y

0
0
^
2
INDETERMINADO
Es una expresin indeterminada comprobando tambin que
^
3

es indeterminado.
^
2

: Este da la tasa de cambio en el valor promedio de Y a medida que X


2
cambia en una
unidad, manteniendo X
3
constante. Pero si X
3
y X
2
son perfectamente colineales, no hay forma
que X
3
se mantenga constante: a medida que X
2
cambia, tambin lo hace X
3
por el factor .
Lo que esto significa, entonces, es que no hay forma de desenredar las influencias separadas de
X
3
y X
2
de la muestra dad: para fines prcticos X
3
y X
2
don distinguibles.
GRAFICO DE BALLENTINE DE MULTICOLINEALIDAD


a) Ausencia de multicolinealidad b) leve presencia de multicolinealidad
r
23
= 0 r
23
0
c) Moderado grado de multicolinealidad d) Alto grado de multicolinealidad
Y
Y
Y
Y
Y
r
23
1

e) Multicolinealidad perfecta
r
23
= 1
GRAFICOS DE BALLENTINE
Ausencia de multicolinealidad Bajo nivel de multicolinealidad
Moderado nivel de multicolinealidad Alto grado de multicolinealidad
2
X

3
X
3.- CONSECUENCIAS TEORICAS Y PRACTICAS DE MULTICOLINEALIDAD
- CONSECUENCIAS TERICAS
Recordemos que si satisfacen los supuestos del modelo clsico, los estimadores de MCO de los
coeficientes de regresin son MELI.
Se puede entonces demostrar que, aun en el caso de multicolinealidad muy alta, aquella
situacin de casi multicolinealidad, los estimadores de MCO continan manteniendo su
propiedad de ser estimadores MELI.(puesto que la multicolinealidad no vielo por si misma los
otros supuestos).
No obstante, el problema de la casi multicolinealidad o alta multicolinealidad se presenta
frecuentemente en anlisis de tipo emprico y presenta problemas de estimacin suficientemente
importantes para garantizar que le consideremos como una violacin al modelo clsico de
regresin lineal.
- En primer lugar, es cierto que aun en el caso de casi multicolinealidad los estimadores
de MCO continuaran siendo insesgados, siguen siendo MELI. Sin embargo, el
insesgamiento es una propiedad de muestras mltiples o de muestreo repetido.
- En segundo lugar, sin embargo y que pesen a que siguen siendo MELI en caso de
multicolinealidad en algn grado sus varianzas y covarianzas pese a ser mnimas son
exageradamente grandes y en este sentido afectan a la precisin de las estimaciones.
Y
2
X
3
X
Y
2
X
3
X
Y
2
X
3
X
Y
Y
2
X 3
X
- En tercer lugar, la multicolinealidad es esencialmente en fenmeno muestral (de
regresin), en el sentido de que aunque las variables X no estn linealmente
relacionadas en la poblacin, pueden relacionarse en la muestra especfica que se tenga
a mano. En conclusin, nuestra muestra puede no ser suficientemente rica para incluir
todas las variables X en el anlisis.
- CONSECUENCIAS PRCTICAS
Los casos de casi multicolinealidad o de alta multicolinealidad pueden traer consigo las
siguientes consecuencias:
1.- Aun cuando los estimadores MCO son MELI, estos presentan Varianzas y covarianzas
amplias o grandes que hacen difcil la estimacin precisa.
2.- Debido a la consecuencia 1, los intervalos de confianza tienden a ser mucho ms amplios. Lo
cual propicia una aceptacin mas fcil de la hiptesis nula cero (es decore verdadero
coeficiente poblacional es cero).
3.- tambin debido a la consecuencia 1, la razn t de uno o ms coeficientes tiende a ser
estadsticamente no significativa.
4.- Aun cuando la razn t de uno o ms coeficientes sea estadsticamente no significativa, R
2
, la
medida global de bondad de ajuste, puede ser muy alta.
5. Los estimadores MCO y sus errores estndar son sensibles a pequeos cambios en la
informacin.
Se da en los tres grados de multicolinealidad:
- AUSENCIA DE MULTICOLINEALIDAD
^
2

y
^
3

son determinadas
) 1 (
) (
2
3 , 2
2
2
2
^
2
r x
V
i

Pero: 0 0
2
3 , 2 3 , 2
r r
) 0 1 (
) (
2
2
2
^
2

i
x
V

2
2
2
^
2
) (
i
x
V

2
2 2
2
^
2
) (
) (

i i
X X
V

2
3 3
2
^
3
) (
) (

i i
X X
V

Covarianzas:
) 1 (
) , (
2
3 , 2
2
3
2
2
3 , 2
2
^
3
^
2
r x x
r
Cov
i i



Si: 0 0
2
3 , 2 3 , 2
r r
) 1 (
0
) , (
2
3 , 2
2
3
2
2
^
3
^
2
r x x
Cov
i i


- ALTO GRADO DE MULTICOLINEALIDAD .
1.- Las varianzas y covarianzas son exageradamente grandes
0 ) , (
^
3
^
2
Cov
2.- Los intervalos de confianza son mucho mas amplios consecuentemente existe la tendencia a
aceptar la hiptesis nula.
3.- El estadstico t como consecuencia de las varianzas y covarianzas son exageradamente
grandes tiende a ser no significativa.
4.- Estadsticos t son no significativos pero
2
R
alto.
^
2

y
^
3

son determinadas
) 1 (
) (
2
3 , 2
2
2
2
^
2
r x
V
i

Pero: 92 , 0 96 , 0 1
2
3 , 2 3 , 2 3 , 2
r r r
) 92 , 0 1 (
) (
2
2
2
^
2

i
x
V

2
2
2
^
2
08 , 0
) (
i
x
V

2
3
2
^
3
08 , 0
) (
i
x
V

Covarianzas:
) 1 (
) , (
2
3 , 2
2
3
2
2
3 , 2
2
^
3
^
2
r x x
r
Cov
i i



Si: 92 , 0 96 , 0 1
2
3 , 2 3 , 2 3 , 2
r r r
) 92 , 0 1 (
) , (
2
3
2
2
3 , 2
2
^
3
^
2

i i
x x
r
Cov


- MULTICOLINEALIDAD PERFECTA.
^
2

y
^
3

son indeterminadas
0
0
^
2

0
0
^
3

) (
^
2
V ) (
^
3
V
) , (
^
3
^
2
Cov
Intervalos de confianza, AGM
- En el modelo de 2 variables:



1
]
1

+ < <

1 " " " "
) 1 (
^ ^
) 1 (
^ ^
^ ^
n n
t t
- En el modelo de k variables:



1
]
1

+ < <

1 " " " "
) (
^ ^
) (
^ ^
^ ^
k n k k k n k
t t
k k
Dcimas
- Dcima t
^
^
) (
^
" "
k
k k
k n
t

Si: 0 :
0

k
H R.C R.A. R.C.
^
^
) (
^
" "
k
k
k n
t

AGM
En presencia de AGM entonces el valor de t se hace ms pequea y por tanto puede entrar en
la regin de rechazo cuando tal vez sea de la regin de aceptacin.
4, COMO DETECTAR LA MULTICOLINEALIDAD?
La deteccin de multicolinealidad es la mitad de la batalla. La otra mitad esta relacionada con
hallar la forma de deshacerse del problema
Cmo puede conocerse la presencia de colinealidad en cualquier situacin dada, especialmente
en modelos que contienen mas de dos variables explicativas?. Aqu es til tener en mente la
advertencia de Kmenta:
1.- La multicolinealidad es un problema de grado y no de tipo. La distincin significativa no es
entre la presencia y la ausencia de multicolinealidad, sino entre sus diferentes grados y
magnitudes.
2.- Puesto que la multicolinealidad se refiere a la condicin de las variables explicativas, que
se supone que no son estocsticas, ella es una caracterstica de la muestra y no de la poblacin.
Lo que tenemos en realidad son ciertas reglas generales, algunas de ellas formales y otras
informales, peor solamente reglas generales. Consideremos a continuacin algunas de estas.
1.- Un
2
R
elevado pero pocas razones t significativas
Ete es un sntoma clsico de multicolinealidad. Si el
2
R
es alto, digamos 0,8, la prueba F en
la mayora de los casos rechazara la hiptesis de que los coeficientes parciales de las pendientes
son simultneamente iguales a cero. Sin embargo las pruebas t individuales mostraran que
ningn coeficiente parcial de las pendientes, o muy pocos de ellos, son estadsticamente
diferentes de cero.
Este diagnostico es sensible, su gran desventaja consiste en que es demasiado fuerte, en el
sentido de que la multicolinealidad se considera daina, nicamente cuando la totalidad de las
influencias de las variables explicativas sobre Y no se pueden separar.
i i t
u X X Y
i
+ + +
3 3 2 1
2

2
R
de la regresin es alto
2
R
>=0,8
0 :
0

k
H ^
^
) (
^
" "
k
k
k n
t

Para comprobar se utiliza esta formula


0 :
1

k
H
2.- Altas correlaciones pares entre regresores
Otra regla general que se sugiere utilizar consiste en observar el coeficiente de correlacin de
orden cero o para entre regresores. Si este es alto, digamos superior a 0,8 entonces la
multicolinealidad es un problema serio.
Las correlaciones de orden cero elevadas son una condicin suficiente pero no necesaria para la
existencia de multicolinealidad debido a que esta puede existir, a pesar de que las correlaciones
de orcen cero o correlaciones simples sean comparativamente bajas (es decir inferiores a 0.50).
Por tanto, en los modelos que involucren ms de dos variables explicativas la correlacin simple
o de orden cero no proporcionara una gua infalible sobre la presencia de multicolinealidad.
3.- Regresiones parciales
i i t
u X X Y
i
+ + +
3 3 2 1
2

ALTO R X f X
i i
2
3 , 2 3 2
) , (
Coeficiente de correlacin

3 , 2
r
2
3
3
2
2 2
3 3 2 2
) ( ) (
) )( (
i
i i i
i i i i
X X X X
X X X X




4.- Regresin con omisin de variables
2
2
^
2
2
) (
) (

Y Y
X X
R

+ + +
2
3 3 2 1
2
R u X X Y
i i t
i
ALTO
+ +
2
2 1
2
R u X Y
i t
i
BAJO
+ +
2
3 2 1
R u X Y
i i t
BAJO
5.- MEDIDAS REMEDIALES
Qu puede hacerse si multicolinalidad es grave? Se tiene dos elecciones: 1) no hacer nada, o 2)
seguir algunas reglas prcticas.
No hacer nada.
La multicolinealidad es en esencia un problema de deficiencia de datos y en algunas ocasiones
no hay eleccin respecto a los datos que se tienen disponibles para el anlisis emprico.
Blanchard
PROCEDIMIENTOS PRCTICOS:
Se pueden llevar a cabo los siguientes lineamientos prcticos para abordar el problema de la
multicolinealidad; el xito depende de la severidad de la multicolinealidad.
1.- Informacin a priori
Suponiendo que consideramos el siguiente modelo
i i i i
u X X Y + + +
3 3 2 2 1

Donde: Yi consumo

i
X
2
= ingreso

i
X
3
= riqueza
Las variables ingreso y riqueza tienden a ser altamente colineales

2 3
10 , 0 Informacin a priori (la tasa de cambio del consumo con respecto a la riqueza
es un decima parte de la correspondiente con respecto al ingreso) Entonces se puede efectuar la
siguiente regresin:
i i i i
u X X Y + + +
3 2 2 2 1
10 , 0
i i i i
u X X Y + + + ) 10 , 0 (
3 2 2 1

SI:
i i i
X X X + ) 10 , 0 (
3 2
Entonces:
i i i
u X Y + +
2 1

Una vez que se a obtenido se puede estimar a partir dela relacin postulada entre y
Cmo se obtiene informacin a priori? puede obtenerse de investigaciones o trabajos anteriores
dentro del pas o fuera de el; esta puede provenir de trabajos empricos anteriores donde el
problema de colinealidad resulto ser menos grave o de teora relevante
2.- Transformacin en primeras diferencias
Tambin llamadas diferencias de primer orden.
Supngase que tiene informacin de series de tiempo sobre el gasto de consumo, el ingreso y la
riqueza. Una razn para la alta multicolinealidad entre el ingreso y la riqueza en tal informacin
es que con el tiempo las dos variables tienden a moverse en la misma direccin. Una forma de
minimizar esa dependencia es proceder de la siguiente manera
- Si la relacin:
t t t t
u X X Y + + +
3 3 2 2 1
1
se cumple en el periodo t, tambin debe cumplirse en el periodo t-1 puesto que el orden del
tiempo es, de todas formas, arbitrario. Por consiguiente, se tiene que:
AGM X f X
t t
) , (
3 3

1 1 3 3 1 2 2 1 1
+ + +
t t t t
u X X Y 2
Restamos 2 de 1
t t t t t
u X X Y Y + + +
3 3 2 2 1 1
-
1 1 3 3 1 2 2 1
+ + +
t t t
u X X
) ( ) ( ) (
1 1 3 3 3 1 2 2 2 1
+ +
t t t t t t t t
u u X X X X Y Y
Transformaciones de 1ras diferencias
t t t t
v X X Y + +
3 3 2 2
* * *
En esta ltima funcin ya no hay multicolinealidad
Donde: *
t
Y
1

t t
Y Y

t
X
2
* ) (
1 2 2

t t
X X

t
X
3
* ) (
1 3 3

t t
X X

t
v ) (
1

t t
u u
3.- Aumentar el tamao de la muestra
Puesto que la multicolinealidad es una caracterstica de la muestra, es posible que en otra
muestra que contenga las mismas variables, la colinealidad no sea tan grave como la primera. A
veces, con solo aumentar el tamao de la muestro (si esto es posible), puede atenuarse el
problema de colinealidad.
i i i i
u X X Y + + +
3 3 2 2 1

AGM X f X
i i
) , (
3 2

) 1 ( ) (
) (
2
3 , 2
2
2 2
2
^
2
r X X
V
i i

) 1 ( ) (
) (
2
3 , 2
2
3 3
2
^
3
r X X
V
i i

1
X
2
X
1 X
3
X
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
n
n
Para concluir el anlisis de las medidas remdiales, es importante una nota de advertencia. En el
anlisis de regresin, cuando obtenemos valores t no significativos para los coeficientes de
regresin, con frecuencia existe la tentacin de culpar por esta falta de significancia a la
multicolinealidad pero puede ser otro factor diferente.
BIBLIOGRAFIA
DOMODAR N. GUJARATI ECONOMETRIA
BOLO N 7 BOLO N 7
MODELO LINEAL GENERAL MODELO LINEAL GENERAL
1.- INTRODUCCIN.-
El propsito de este tema es presentar generalizaciones de detalles textuales importantes y se
lograr con la aplicacin del lgebra matricial, como primero explicaremos el modelo lineal de
forma matricial y tambin abarcaremos algunos supuestos bsicos donde su principal
caracterstica es que Depende no solo de una variable explicativa sino de muchas ms.
) .. .......... , , (
4 3 2 k i
X X X X f Y + +
i ki k i i
u X X Y + + + ...... ..........
2 2 1
2.- SUPUESTOS BSICOS (Hiptesis):
1.- Y = u +
2.-
u
N
3.- E (u) = 0
MRLNC 3.- E (u u`) =
2

I
4.- ) ( ) (
`
= K< n
5.- es una matriz cuyos elementos son fijos
Supongamos que existe una relacin lineal entre una variable Y y K-1 variables explicativas
k
X X X ,....... ,
2 1
y un termino de perturbacin
i
u .
Explicaremos ahora el MODELO LINEAL en forma matricial:
Deduciendo ; si tenemos una muestra de n observaciones de Y y X podemos escribir.
Los coeficientes y los parmetros de la distribucin de
i
u son desconocidos, y el
problema que se nos presente es obtener estimaciones de estas incgnitas. Las n ecuaciones de
i ki k i i
u X X Y + + + .........
2 2 1
se pueden formular concisamente con notacin matricial
as;
En donde
1
1
1
1
]
1

n
Y
Y
Y
y
.
.
2
1
1
1
1
1
1
1
]
1

kn n
k
k
X X
X X
X X
X
......... .. 1
..... .......... ..........
..... .......... ..........
........ .. 1
........ .. 1
2
2 22
1 21
1 1 31 3 21 2 1 1
... u X X X Y
i i
+ + + + +
2 2 32 3 22 2 1 2
... u X X X Y
i i
+ + + + +
n in i n n n
u X X X Y + + + + + ...
3 3 2 2 1
n i u X X X Y
n in i n n i
,........ 2 , 1 ...
3 3 2 2 1
+ + + + +
u y +
1
1
1
1
]
1

.
.
2
1
1
1
1
1
]
1

n
u
u
u
u
.
.
2
1
Donde : Y = n x 1 Vector de columna de observaciones de la variable
dependiente.
X = n X i matriz de observaciones de la variable independiente.
En el que n indica la fila; i seala la columna de dicha matriz X.
= i X 1 Vector columna de parmetros desconocidos.
u=Trminos de perturbacin.
El termino independiente
1
ordenada en el origen precisa la introduccin de una columna de
unos en la matriz X. El convenio de utilizar
ki
X para designar a la i-esima observacin de la
variable
k
X supone que los subndices de la matriz X estn en orden contrario al habitual.
Para proceder a la estimacin del vector de los coeficientes , hemos de establecer algunas
hiptesis sobre el modo en que se han generado las observaciones en :
n i u X X Y
i ki k i i
,........ 2 , 1 .........
2 2 1
+ + + .
Estas hiptesis son decisivas en el proceso de estimacin, as que comenzamos con el conjunto
ms sencillo. El conjunto ms simple de hiptesis importante es este:
E (u) = 0
E (u u`) =
2

I
X es un conjunto de nmeros fijos
X tiene de rango k<n
La primera hiptesis establece que E (u) = 0 para todo i, es decir, que las u son variables
aleatorias con esperanza matemtica cero. La segunda hiptesis es una forma abreviada de
escribir una doble hiptesis muy importante.
Dado que u es un vector columna n x 1 y u` un vector fila, el producto u u` es una matriz
simtrica de orden n y puesto que la operacin de tomar esperanzas matemticas ha de aplicarse
a cada uno de los elementos de la matriz, tenemos:
E (u u`) =
1
1
1
1
1
1
1
1
]
1

1
1
1
1
1
1
1
1
]
1

2
2
2
2
2 1
2
2
2 1 2
1 2 1
2
1
........ 0 .. 0
.
.
.
0 ..... .. 0
0 ...... 0 .
) ( .. )......... ( ).. (
.
.
.
) ( ... )......... ( ).. (
) ( ... )......... ( ).. (

n n n
n
n
u E u u E u u E
u u E u E u u E
u u E u u E u E
I
Los trminos de la diagonal principal muestran que
2 2
) (
i
i u E para todo i; esto es, las
i
u
tienen varianza constante
2

, propiedad que se denomina homocedasticidad. Los trminos


restantes de la matriz dan 0 ) (
1

+ i i
u u E .
La hiptesis X es un conjunto de nmeros fijos segn la cual la matriz X indica un conjunto de
nmeros fijos. Esto significa que, en el muestreo, la nica fuente de variacin en el vector y
procede de la variacin en el vector u y que las propiedades de nuestros estimadores estn
condicionadas a X.

La hiptesis final sobre X es que el nmero de observaciones excede al numero de parmetros a


estimar y que no existe ninguna relacin lineal exacta entre las variables X para incluir
1
X ,
cuyo valor es siempre la unidad y que corresponde a la primera columna de X
3.- LOS ESTIMADORES MINIMOS CUADRTICOS .-
Tomando:
n i u X X Y
i ki k i i
,........ 2 , 1 .........
2 2 1
+ + +
E (u) = 0
X tiene de rango k<n
Aplicamos ahora el principio de los mnimos cuadrados para estimar los parmetros de

i ki k i i
u X X Y + + + .........
2 2 1
sea:
^
2
^
1
^ ^
.........
k

Un vector columna de las estimaciones de . Podemos entonces escribir
e y +
^

En donde e representa al vector columna de los n residuos


) (
^
y
. Obsrvese
cuidadosamente la distincin entre u y + y
e y +
^

. En la primera aparecen los


coeficientes desconocidos y las perturbaciones desconocidas u, mientras que en la ultima
tenemos un conjunto de estimaciones
^

y el correspondiente conjunto de residuos e. De


e y +
^

la suma de los cuadrados de los residuos es:


e e e
n
i
i
,
1
2
DEBE SER MINIMO
) )( (
^ ^
1
2
X y X y e
n
i
i

^
,
,
^
,
,
^
,
1
2
2 ( X X y X y y e
n
i
i
+

Que se deduce de observar que


y X
,
,
^

es un escalar y, por tanto, igual a su transpuesta


^
,
X y
. Para hallar el valor de
^

que minimiza la suma de los cuadrados de los residuos, derivamos:


^
, , ,
^
2 2 ) (

X X y X e e +

Igualando a cero resulta


y X X X
,
^
,

Y teniendo en cuenta la hiptesis: X tiene de rango k<n
Este es el resultado fundamental para los estimadores mnimos cuadrticos.
La caracterstica fundamental del ESTIMADOR DE MNIMOS CUADRADOS , es que el
lineal e insesgado; de hecho

es el mejor estimador Lineal Insesgado de

; en el sentido de
que tiene la Varianza mnima de todos los estimadores insesgados.
Como ilustracin de este resultado consideremos el caso de dos variables.
y X X X
, 1 ,
^
) (


Aqu:
1
]
1

2
,
....
..........
X X
X n
X X y
1
]
1

XY
Y
y X
,
Por lo que escribiendo
y X X X
, 1 ,
^
) (


en forma alternativa:
y X X X
,
^
,
) (
Y sustituyendo, se obtiene:
X n Y +
2
^ ^
1

2
2
^ ^
1
X X XY +
Que son las dos ecuaciones normales obtenidas. Para el caso de tres variables es el siguiente:
3 3
^
2 2
^ ^
1
X X n Y + +
3 2
^
3
2
2 2
^
2
^
1 2
X X X X Y X + +
2
3
^
3 3 2 2
^
3
^
1 3
X X X X Y X + +
Y por simetra es evidente la forma de construir estas ecuaciones para casos de mas variables.
La ecuacin
y X X X
, 1 ,
^
) (


proporciona
^

como un vector columna. Alternativamente,


podra haberse escrito:
X X y X e e
,
,
^
, ,
^
2 2 ) (

Que nos dara:


1 , ,
,
^
) (

X X X y
Trasponiendo ambos miembros de este ltimo resultado obtenemos directamente
y X X X
, 1 ,
^
) (


4.- MEDIA Y VARIANZA DE .-

y X X X
, 1 ,
^
) (


u y +
Para obtener la media y la varianza de
^

sustituimos u y + en
y X X X
, 1 ,
^
) (


lo
que nos da:
) ( ) (
, 1 ,
^
u X X X X +


u X X X
, 1 ,
^
) (

+
Puesto que
k
I X X X X
, 1 ,
) ( . Esto expresa a
^

como una funcin lineal de la verdadera


pero desconocida y de las perturbaciones
n
u u u ,........ ,
2 1
. Si consideramos que se repite el
proceso de muestreo, entonces los valores de X permanecen fijos de muestra a muestra
conforme a la hiptesis (X es un conjunto de nmeros fijos), pero cada muestra dar un
conjunto diferente de las U y, por tanto, un vector
^

diferente. Tomando las esperanzas


matemticas de ambos miembros de:


u X X X
, 1 ,
^
) (

+
resulta.
[ ] u X X X E E E
, 1 ,
^
) ( ) ( ) (

+
) ( ) ( ) (
, 1 ,
^
u E X X X E

+
Puesto que X permanece fijo. Por tanto
) (
^
E
ES INSESGADO
Ya que 0 ) ( u E en virtud de la hiptesis 0 ) ( u E . En consecuencia, los estimadores
mnimos cuadrticos son insesgados.
Consideremos ahora:
1
]
1


,
^ ^
) )( ( E
1
1
1
1
1
1
1
1
1
]
1





2
^
2
^
2
^
1
^
1
^
^
2
^
2
2
2
^
2 1
^
1 2
^
2
^
1
^
1 2 2
^
1 1
^
2
1
^
1
) ( ... )......... )( ( )..... )( (
.
.
) )( ( .... .......... .......... ) ( )..... )( (
) )( ( ... )......... )( ( ....... .......... ) (
k k k k k k
k k
k k
E E E
E E E
E E E
Cov Var



Teniendo presente que
) (
^
E
para i = 1,2,..k, podemos deducir que
2
^
) (
i i
E
es la
varianza de
^
i

y
) )( (
^ ^
j j i i
E
es la covarianza de
^
i

y
^
j

. Por lo tanto, la matriz


simtrica dada contiene varianzas en su diagonal principal y las covarianzas en los restantes
lugares. A esta matriz la denominaremos matriz de varianzas y covarianzas de las
^

y la
designaremos por
) var(
^

.
De
u X X X
, 1 ,
^
) (

+
tenemos:
u X X X
, 1 ,
^
) ( ) (


Por tanto:
1
]
1


,
^ ^ ^
) )( ( ) var( E
[ ]
1 , , , 1 ,
^
) ( ) ( ) var(

X X X uu X X X E
Aplicando la regla de que
, , , ,
) ( A B C ABC y observado que
1 ,
) (

X X es una matriz
simtrica, porque ) (
,
X X tambin lo es. Por tanto:
1 , , , 1 ,
^
) ( ) ( ) ( ) var(

X X X uu E X X X
1 , 2 , 1 ,
^
) ( ) ( ) var(

X X X I X X X
n

1 , 2
^
) ( ) var(

X X
Ya que
2

es un escalar, se puede trasladar colocndolo delante o detrs de una matriz, segn


convenga, y puede suprimirse
n
I y obtendramos:
1 , 2
^
) ( ) var(

X X
con lo que es posible obtener la varianza de cualquier coeficiente
^
i

con solo tomar el i-simo


termino de la diagonal principal de
1 ,
) (

X X y multiplicarlo por
2

que es la varianza de
i
u ,
mientras que la covarianza de cualquier pareja de estimaciones,
^
i

y
^
j

, se halla multiplicando
2

por el termino i,j-simo de


1 ,
) (

X X .
Hemos demostrado que los estimadores mnimo cuadrticos son lineales e insesgados; por
lineales se entiende que los estimadores son funciones lineales de y. se puede tambin demostrar
que tales estimadores poseen una varianza menor que cualquier otro estimador insesgado lineal
y por tanto que son estimadores insesgados lineales ptimos.
Lo probaremos de un modo ms general, del cual es este un caso especial. El resultado ms
general tiene, asimismo, aplicaciones en problemas de prediccin. Consideremos una funcin
lineal parametrica
,
c en donde c es un vector columna kx1 de constantes conocidas. Un
estimador posible de
,
c es
^
,
c
, en donde:
y X X X
, 1 ,
^
) (


Este estimador es insesgado, ya que

,
^
,
) ( c c E
Y su varianza es:
2
^
,
^
,
) ( ) var(
1
]
1

c E c
1
]
1

c c E c
,
^ ^
,
^
,
) )( ( ) var(
c X X c c
1 , , 2
^
,
) ( ) var(


Sea: y a b
,

Cualquier otro estimador lineal insesgado de


,
c
) ( ) (
,
au X a E b E +
0 ) ( ) (
,
u E X a b E

,
) ( c b E
Siempre y cuando
, ,
c X a
Como
, ,
c X a
se verifica
u a c b
, ,
+
As pues,
[ ]
2 ,
) ( ) var( c b E b
[ ] a uu a E b
, ,
( ) var(
a a b
, 2
) var(
Mediante
, ,
c X a
podemos escribir tambin
a X X X X a c
, 1 , , 2
^
,
) ( ) var(


As pues:
[ ]a X X X X I a c b
, 1 , , 2
^
,
) ( ) var( ) var(


Ma a c b
, 2
^
,
) var( ) var(
En donde:
[ ]
, 1 ,
) ( X X X X I M


M es una matriz simtrica idempotente. Es adems semidefinida positiva, y por tanto.
0 ) var( ) var(
^
,
c b
Esto es, el estimador mnimo cuadrtico de
,
c tiene una varianza muestral al menos tan
pequea como cualquier otro estimador lineal insesgado.
Considerando los vectores
[ ] 0 ....... 0 .... 1 .... 0 ........ 0
,

i
c
Con la unidad en la posicin i-esima y ceros en los dems lugares, se obtiene
0 ) var( ) var(
^
,
c b
Por lo que los estimadores mnimos cuadrticos
k i .. .......... 1
^

son estimadores lineales insesgados ptimos de los parmetros
desconocidos k i .. .......... 1
Volviendo ahora a la suma de los cuadrados de los residuos
e y +
^

nos da
^
y e
[ ] ) ( ) (
, 1 ,
u X X X X X u X e + +


u X X X X u e
, 1 ,
) (


[ ]u X X X X I e
n
, 1 ,
) (


Mu e
Que expresa los residuos observados como una funcin lineal de las perturbaciones
desconocidas.
Por tanto, la suma de los cuadrados de los residuos es:
Mu M u e e
, , ,

Mu u e e
, ,

[ ]u X X X X I u e e
, 1 , , ,
) (


Tomando esperanzas matemticas de ambos miembros
[ ]
, 1 , 2 ,
) ( ) ( X X X X I tr e e E


[ ]
, 1 , 2 ,
) ( ) ( X X X trX trI e e E


[ ] ) ( ) ( ) (
, 1 , 2 ,
X X X X tr n e e E


2 ,
) ( ) ( k n e e E
Puesto que ) (
,
X X es de orden k de modo que
k
I X X X X
, 1 ,
) ( luego
k n
e e
s

,
2
Nos proporciona un estimador insesgado de la varianza de la perturbacin.
El calculo de
2
s
se realiza fcilmente aplicando
k i b .. .......... 1 ) var( ) var(
^

^
,
,
^
,
^
, , ,
2 X X y X y y e e +
y X y y e e
,
^
, , ,

Puesto que
y X X X
,
^
,
) (
conforme a la derivacin mnimo cuadrtica de
^

. Utilizando
letras minsculas para representar las desviaciones con respecto a las medias aritmticas:
2
1 1
2
1
2
1

,
_




n
i
i
n
i
i
n
i
i
Y
n
Y y
2 ,
1
2
) (
1
Y
n
y y y
n
i
i

e e y
n
i
i
,
1
2

Obsrvese que una propiedad del ajuste por mnimos cuadrados es que
_
e
= 0. particionando la
suma total de los cuadrados de Y, debida a la influencia lineal de las variables explicativas, y en
la suma de cuadrados de los residuos, tenemos
Suma explicativa
2 2
i i
e y SS
2 , ,
) (
1
Y
n
e e y y SS
2 ,
^
,
) (
1
Y
n
y X SS
5.- EL ESTIMADOR DE .-
1 2
^
) ( ) (

X X Cov Var
En el modelo de dos variables
2

2
2

n
e
i
u

En el modelo lineal general


k n
e e

2

e y +
^

^
y e
^
,
,
^
,
^
, , ,
2 X X y X y y e e +
Pero:
y X X X
^

Entonces:
y X y X y y e e
,
,
^
,
^
, , ,
2 +
y X y y e e
,
,
^
, ,

1 2
^
) ( ) (

X X Cov Var
2


Pero:
2 ,
y y y
6.- EL COEFICIENTE DE DETERMINACION.-
STC=SRC+SEC
STC=
2 2
2
2 2
) (
) ( Y
n
n
Y
n
Y
Y Y Y


STC=
2 2
Y n Y
Pero:
2 ,
y y y
2 2
Y n Y Y STC Y Y Y
SEC STC SRC
e e Y n Y Y SRC
2
Entonces;
2
)

( Y n Y X Y Y Y Y SRC
2

Y n Y X Y Y Y Y SRC +
2

Y n Y X SRC
Finalmente obtenemos:
2
2
........ 23 1
2

Y n Y Y
Y n Y X
R k


O tambin el coeficiente de correlacin mltiple
k
R
..... 23 , 1
queda entonces definido por:
2 ,
2 ,
^
,
........ 23 1
2
) )( / 1 (
) )( / 1 (
Y n y y
Y n y X
R k


Es costumbre calcular el coeficiente de correlacin solamente para las variables aleatorias que
poseen una distribucin conjunta. Lo hemos incluido aqu por dos razones:
- PRIMERO; Porque incluso en el caso de X filas, es til para las tablas del anlisis de
la varianza.
1.- puede verse esto, derivando la suma de los cuadrados con respecto a
^
1

e igualando a 0.
2
^
2
^
2
^
1
^
1
2
^
1
) ... .......... (
ki k i i i
X X Y e

0 ) ... .......... ( 2
^
2
^
2
^
1
2
^
1

ki k i i i
X X Y e

Es decir:
0 0
2


e e
i
k n
y X y y

2
STC
SRC
R
2
2
R
- SEGUNDO; Porque el supuesto X filas se puede suprimir ms adelante. Es cualquier
caso, una medida de la proporcin de la varianza total explicada por la relacin lineal
ajustada resulta prctica para fines descriptivos.
COEFICIENTE DE DETERMINACION AJUSTADO :
A veces es til calcular una
2
R
corregida de grados de libertad, particularmente cuando se va a
comparar el poder explicativo de diferentes conjuntos de variables explicativas. La razn de
correccin esta en advertir que
2
R
se puede expresar as:
STC
SEC
R 1
2
Para el Modelo Lineal General:
) )( (
) 1 (
1
2
2
k n Y n Y Y
n e e
R



k n
n
R R


1
) 1 ( 1
2 2
O tambin puede ser as:
2
2
........ 23 1
2
1
y
e
k
s
s
R
En donde
n
e
s
e
2
2

y
n
y
s
y
2
2

es decir, que ambas sumas de cuadrados, la inexplicada y
la total, aparecen divididas por n. Sin embargo, los estimadores insesgados de estas varianzas
vienen dados, respectivamente por
k n
e

2
y
1
2

n
y
. El
2
R
corregido se define as:
) 1 /(
) /(
1
2
2
........ 23 1
2



n y
k n e
R k
y la relacin entre ambos coeficientes se puede expresar de este modo.
) 1 (
1
1 .... 23 1
2
........ 23 1
2
_
k k R
k n
n
R


O bien :
) 1 (
1
.... 23 1
2
........ 23 1
2
_
k k R
k n
n
k n
k n
R

El coeficiente sin corregir no disminuir nunca cuando se aadan a la regresin variables


explicativas adicionales, pero es posible que el coeficiente corregido disminuya si una variable
adicional produce en (1-
2
R
) una reduccin demasiado pequea para compensar el aumento de
(n-1)(n-k).
Reuniendo los resultados conseguidos hasta ahora tenemos:
e u X y + +
^

y X X X
, 1 ,
^
) (


1 /
/
1
2


n STC
k n SEC
R
1 /
/
1
2


n STC
k n SEC
R
) (
^
E
1 , 2
^
) ( ) var(

X X
2 ,
) ( ) ( k n e e E
2 ,
2 ,
^
........ 23 1
2
) )( / 1 (
) )( / 1 (
Y n y y
Y n y X
R k


Estas formulas han sido todas desarrolladas a partir de la relacin inicial
n i u X X Y
i ki k i i
,........ 2 , 1 .........
2 2 1
+ + + , en que las variables se miden desde el
origen cero. Promediando n i u X X Y
i ki k i i
,........ 2 , 1 .........
2 2 1
+ + + y
e y +
^

para las n observaciones mustrales tenemos:


_ ^ _
2
^
2
^
1
_ _
2
_
2 1
_
......... .........
k k
i ki
k
i X X u X X Y + + + + + +
Puesto que
i u
_
, en general, no se anulara, pero, como se demostr anteriormente, una
consecuencia del ajuste de los mnimos cuadrados es que
0 0
2


e e
i
Restando de las relaciones originales y utilizando letras minsculas para representar las
desviaciones respecto a las medias aritmticas, tenemos:
n i e x x u u x x y
i k k i
i
i ki k i i
..... 1 ......... .........
^
2
^
2
_
2 2
+ + + + + +
O en notacin matricial:
e u u X y + +
^ _

En donde ahora:
1
1
1
1
]
1

n
y
y
y
y
.
.
2
1
1
1
1
1
1
1
]
1

kn n n
k
k
x x x
x x x
x x x
X
...... .....
..... .......... ..........
..... .......... ..........
..... .....
...... ....
3 2
2 32 22
1 31 21
1
1
1
1
]
1

.
.
3
2
1
1
1
1
]
1

n
u
u
u
u
.
.
2
1
1
1
1
1
1
1
]
1

k
^
3
^
2
^
^
.
.

1
1
1
1
1
1
]
1

_
_
_
_
.
.
u
u
u
u
1
1
1
1
]
1

n
e
e
e
e
.
.
2
1
Se deduce claramente que podramos proceder exactamente igual que en el anterior desarrollo
para obtener la formula:
y X X X
, 1 ,
^
) (


Los residuos e son exactamente los mismos de antes, de modo que
2 ,
) ( ) ( k n e e E y
y X y y e e
,
^
, , ,

. El nico cambio que se produce es en la formula de
2
R
, que se convierte
ahora en
y y
y X
R
,
,
^
2

Y la suma de los cuadrados debida a la influencia lineal de las variables explicativas es


i
n
i
ki k
n
i
i i
y x y x y X


+ +
1
^
1
2
^
2
,
^
,
........
En el modelo lineal general el estadstico Fisher es mucho ms adecuado
ESTADISTICO F :
Dcima de no relacin :
1.- Dcima
k
H ..... :
3 2 0
k
H > > > ....... :
3 2 1
2.- Nivel de significancia: 1
Por razones pedaggicas se grafica de la siguiente manera:
.




R.A. R.C.

3.- Estadstico a prueba
[ ]
k n
SEC
k
SEC
F
K n K


1
" "
) ( 1
[ ]
k n Y X Y Y
k Y n Y X
F
K n K

1 /

" "
2
) ( 1

^
i Y

4.- REGLA DE DECISIN
Si:
F calculada > F tablas
Entonces:
SE RECHAZA
k
H ..... :
3 2 0
, es decir existe relacin entre variables.
1
[ ]
) 1 )(

(
) )(

(
" "
2
) ( 1


k Y X Y Y
k n Y n Y X
F
K n K

EJEMPLO: En el diseo de un modelo de simulacin se precisaba disponer de una funcin de


consumo de bienes de origen industrial para ello se dispone los siguientes datos: (FALTA
EL EJERCICIO DEL CUADERNO DEL LIC. CABALLERO)
AO
CONSUMO
(Bienes Industriales)
INGRESO
DISPONIBLE
IMPORTACIONES
DE BIENES DE
CONSUMO
1995
1996
1997
1998
1999
2000
45
42
48
55
53
65
52
58
58
60
65
70
10
13
10
14
16
18
Se pide: Con el siguiente modelo:
t t t t
u X X Y + + +
3 3 2 2 1

Determinar la varianza maestral del trmino estocstico y su desviacin tpica maestral.
a) Determinar la varianza de

.
b) Determinar el coeficientes de determinacin (
t r
2
)
SOLUCION:
a)
b)
k n
y X y y

2
t k n
SEC

50 , 30
468
14273
3 6
156
14273
2

1
2
^
) ( ) (

X X Var
156
14273
SEC
156
38975
SRC
3
1024
STC
) ( 6 nes Observacio n
) ( 3 parametros K
c)
STC
SRC
R
2
7320 , 0
159744
116925
3
1024
156
38975
2
R
Bolo n 8
IMPLICACIONES IMPORTANTES DEL MODELO DE REGRESION
LINEAL DE DOS VARIABLES
1.- INTERVALOS CONFIDENCIALES
El verdadero parmetro poblacional es infinitesimalmente pequeo.
[ ] + < < 1 P
Donde:
Es un valor 1 0 < <
Es el error de tipo 1 (nivel de significancia). La probabilidad de rechazar una hiptesis
cuando es verdadero.
1 Nivel de confianza.
Si: X ) , (
2
N
Por tanto:
Z
) 1 , 0 ( N
Si 0,05 1 0,95. En la distribucin normal es exactamente z = 1,96 z t . Se
reemplaza con un indicador de precisin.
2.- INTERVALO CONFIDENCIAL PARA


" "
) 2 ( n
t


1
]
1



1 " "

" "
) 2 (

) 2 ( n n
t t P
[ ]

+

1 " " " "
) 2 ( ) 2 ( n n
t t
[ ]

+

1 " " " "
) 2 ( ) 2 ( n n
t t
Intervalo confidencial
[ ]

+

1 " " " "
) 2 ( ) 2 ( n n
t t
3.- INTERVALO CONFIDENCIAL PARA
a). Cuando se conoce
2
u




1
]
1

+ 1

^
Z Z
PARA

) , (
2

N
Por tanto:


Z ) 1 , 0 ( N
PERO:
2
2
2

) ( X X
i
u

Intervalo probabilstico


1
1
]
1

Z Z P
[ ]

1


Z Z
[ ]

1


Z Z



1
]
1

+ 1

^
Z Z
a). Cuando no se conoce
2
u


Z ) 1 , 0 ( N
En trminos de MRLNC.
u
i i
Y E Y
Z

) (
) 1 , 0 ( N
[ ]
u
i i
Y E Y
Z
2
2
2
) (

2
) 1 (

[ ]
u
i i
Y E Y
Z
2
2
2
) (



2
) (n

Pero:
i i i
u X Y + +
i i
X Y E + ) (
[ ]
u
i i
X Y
Z
2
2
2




2
) 2 ( n

Utilizando un artificio matemtico obtenemos:


[ ]
2 2
2
2
2
2 )

(
2
2

u u
i i
u
i i
n X Y
n
n X Y


2
)

(
2


n
X Y
i i


2
) 2 ( n

Pero:
2

2
2

n
e
i
u


2
)

(
2
n
Y Y
i
2
)

(
2


n
X Y
i i

2
2

2
u
u
n


2
) 2 ( n

2
2
2
2
) 2 (
) 2 (

n
x
x
n
u
u

2
) 2 ( n

TEOREMA.-
El cociente de una distribucin normal con media cero y varianza unitaria, entre un
denominador con distribucin
2
da como resultado una distribucin t de Student,
independiente.
Pero:
2
2 / 1
2
) 2 (
2

1
1
]
1

n
n
Independiente
Entonces:
2 / 1
2
) 2 (
2
) 1 , 0 (
1
1
]
1

n
N
n


) 2 (
" "
n
t
Realizando algunas operaciones obtenemos:

2
) 2 (

n
n

) 2 (
) 2 (


n
n

) (

Finalizando tenemos:


" " " "
) 2 (
t t
n

Students solo para muestras pequeas.


1
1
]
1

1 " "

" "

t t P
1
2 / 2 /


-t +t

" "


1
1
]
1



1 " "

" "
) 2 (

) 2 ( n n
t t P
[ ]

+

1 " "

" "
) 2 ( ) 2 ( n n
t t
[ ]

+

1

" "

" "
) 2 ( ) 2 ( n n
t t
Intervalo confidencial
[ ]

+

1 " "

" "

) 2 ( ) 2 ( n n
t t
4.- INTERVALO CONFIDENCIAL PARA
2
u

Mejor estimador insesgado.


Pero:
2
2

2
u
u
n


2
) 2 ( n

5.- INTERVALO CONFIDENCIAL DE LA F.R.P. ) / ( X Y E


i
Partiendo de:
i i i
u X Y + +
i i
X Y E + ) (
Entonces:
FRP X Y E
i i
+ ) (
FRM X Y Y E
i i i
+

) (
Realizando operaciones obtenemos:
)

( )

(
i i
X Y E +
)

( ) ( )

( E X E Y E
i i
+

i i
X Y E + )

(
i i i
Y X Y E

( + Es insesgado
VARIANZAS
[ ]
2
2
)

( Y E Y E Y V
i Y i

[ ]
2
2

(
i i Y i
X X E Y V +
[ ]
2
2
)

( ) ( )

(
i Y i
X E Y V +
[ ]
2
2 2 2 2
)

( )

)( ( 2 ) ( )

(
i i Y i
X X E Y V + +
2 2 2 2
)

( )

)( ( 2 ) ( )

( + + E X E X E Y V
i i Y i
Pero:
1
1
]
1

+
2
2
2
1
) ( ) (
i
u
x
X
n
V E
2
2
)

( )

(
i
u
x
V E




1
1
]
1


2
2
)

( )

, ( )

)( (
i
u
x
X V X Cov E


Entonces:

2

(
Y
i
Y V +
1
1
]
1

+
2
2
2
1
i
u
x
X
n
+
1
1
]
1

,
_

2
2
2
i
u
i
x
X X

2
2
2
i
u
i
x
X

(
Y
i
Y V
2
2
i
u
x

1
1
]
1

2
2
X
n
x
i
+
i
X X 2
2
i
X

2

(
Y
i
Y V
2
2
i
u
x

2
2
( X
n
x
i
+

+
i
X X 2
2
i
X
)
) (
2
X X
2
X
+
i
X X 2
2
i
X

2

(
Y
i
Y V
2
2
i
u
x

1
1
]
1

2
2
) ( X X
n
x
i
1
1
]
1

+
2
2
2 2

) ( 1
)

(
i
u
Y
i
x
X X
n
Y V
Finalmente
1
]
1

+
2
2
2 2

) (
) ( 1
)

(
X X
X X
n
Y V
u
Y
i

Estandarizamos:
i
Y

); (
Y
i
X N +
Y
i i
X Y

) (

+
N (0,1)
a). Si se conoce
2
u



1
1
]
1


1
) (

Z
X Y
Z P
Y
i
[ ] 1

) (


Y Z X Y Z
Y
i
Y
[ ] + 1

) (


Y
i
Y
Z Y X Z Y
b). Si no se conoce
2
u

2
2

n
e
i
u

1
]
1

+
2
2
2 2

) (
) ( 1

X X
X X
n
u
Y

Y
i i
X Y

) (

+

) 2 (
" "
n
t



1
1
]
1

+
+


1 " "

) (

" "
) 2 (

) 2 ( n
Y
i i
n
t
X Y
t P
[ ] + +

1

" " ) (

" "
) 2 ( ) 2 (
Y t X Y t
Y
n i
Y
n
[ ] + +

1 " "

) ( " "

) 2 ( ) 2 (
Y
n i
Y
n
t Y X t Y
Llamado tambin intervalo de confianza o banda de confianza.
6.- DESCOMPOSICION DE LA VARIACION MUESTRAL DE Y (ANALISIS DE LA
VARIANZA)
Y FRM;
i
i X Y

+

i
Y
i
u
i
e FRP;
i i
X X Y E + ) / (

i Y

) / (
i
X Y E
X
i
i
i
e Y Y +

i
i
i
e Y Y Y Y +

) (
STC= SUMA TOTAL DE CUADRADOS
STC=
2
) ( Y Y
[ ]
2
2
)

( ) (
i i
e Y Y Y Y +
[ ]
2 2 2
)

( 2 )

( ) (
i i i i
e e Y Y Y Y Y Y + +
2 2 2
)

( 2 )

( ) (
i i i i
e e Y Y Y Y Y Y + +
Pero:
Y Y

Y X X
X
X
X
i i i
i e Y X e Y Y )

( ) ( +


i i i i i
i e Y e X e e Y Y +

) (
Finalmente:
2 2 2
)

( ) (
i i
e Y Y Y Y +
Es decir: STC = SRC + SEC
Tambin: SRC = SUMA DE REGRESION DE CUADRADOS

[ ]
2
2
)

( X X Y Y SRC
i i
+ +
2 2
)

( )

( X X Y Y SRC
i i
+
2 2
)

( )

( X X Y Y SRC
i i

[ ]
2
2
) (

( X X Y Y SRC
i i

Finalmente:
2 2 2
) (

( X X Y Y SRC
i i

Entonces:

2
) ( Y Y
2 2 2
) (

i i
e X X +
Es decir: STC = SRC + SEC
6.- COEFICIENTE DE DETERMINACION
2
r
Y COEFICIENTE DE CORRELACION
r

STC
SRC

2
R
Coeficiente de determinacin
STC
SEC
STC
SRC
STC
STC
+
Pero:
2
R
STC
SRC

2
2 2
2
) (
) (

Y Y
X X
R
i
i


Entonces:
STC
SEC
R 1
2
2
2
2
) (
1
Y Y
e
R
i
i


1 0
2
R
n
Y Y
n
X X
R
i
i
) (
) (

2 2
2

Finalmente:
Y Y

Y X X
X
X
X

2
2
2 2

Y
X
S
S
R
2
2
2 2

Y
X
R


R = Coeficiente de correlacin
2
R R
Es una expresin indeterminada comprobando tambin que
^
3

es indeterminado.
GRAFICOS DE BALLENTINE

0
2
R

1 0
2
R

1 0
2
< R
Y Y

1 0
2
< < R

1
2
R
MODELO DE MAS DE 2 VARIABLES
2
R
AJUSTADO ) (
2
R
i i i
u X X Y
i
+ + +
3 3 2 1
2

i i i i
u X X X Y
i
+ + + +
4 4 3 3 2 1
2

A medida que aumenta el nmero de variables tambin aumenta (
2
R
) y la forma mas
conveniente es hallando ) (
2
R .
Calculo de ) (
2
R
1
) (
1
2
2
2


n
Y Y
k n
e
R
i
i
Donde:
K = Numero de parmetros incluido la ordenada al origen o el parmetro independiente.
2
2
2

1
Y
u
S
R


Relacin entre (
2
R
) y ) (
2
R
) ( ) (
) 1 (
1
2
2
2
k n Y Y
n e
R
i
i



) (
) 1 (
1
2
k n
n
STC
SEC
R


Y Y

Y X X
X
X
X
Finalmente:
) (
) 1 (
) 1 ( 1
2 2
k n
n
R R


7.- DOCIMAS DE HIPOTESIS
a). Docima de no relacin entre variables
) , (
i i i i i i
u X f Y u X Y + +
Si 0
) (
i i i i
u f Y u Y +
Docima de no relacin
1.- Docima
0 :
0
H
0 :
1
H
2.- nivel de significancia: 1
1
2 / 2 /


-t +t

" "

t
3.- Estadstico a prueba

) 2 (

" "

n
t
Pero por hiptesis 0

) 2 (

" "


n
t
^
i Y

4.- Regla de decisin
Si:
" "
) 2 ( n
t
Calculada >
" "
) 2 ( n
t
tablas
Entonces:
SE RECHAZA 0 :
0
H , es decir existe relacin entre variables.
b). Docima sobre la ordenada al origen
1.- Docima
0 0 :
0
H
0 0 :
1
H
2.- nivel de significancia: 1
1
2 / 2 /


-t +t

" "

t
3.- Estadstico a prueba

) 2 (

" "

n
t
Pero por hiptesis 0

) 2 (

" "


n
t
^
i Y

4.- Regla de decisin
Si:
" "
) 2 ( n
t
Calculada >
" "
) 2 ( n
t
tablas
Entonces:
SE RECHAZA 0 :
0
H , es decir existe relacin entre variables.
DOCIMA PARA
2
u

- Docima
2

1.- Docima
* :
2 2
0 u u
H
* :
2 2
1 u u
H
2.- nivel de significancia: 1
1
2 / 2 /




2
2 /

2
2 / 1

3.- Estadstico a prueba


2
2
) 2 (
u
u
n



2
) 2 ( n

2
) 2 ( n
=
2
2
) 2 (
u
u
n


^
i Y

4.- Regla de decisin
Si:
2
Calculada <
2
2 /

2
Calculada >
2
2 / 1


Entonces:
SE RECHAZA * :
2 2
0 u u
H
DOCIMA DE NO RELACION ENTRE VARIABLES
- Docima F de Fisher
Teorema
- Si U y V son variables aleatorias con n y m grados de libertad respectivamente y con
distribucin
2
el cociente:
m
V
n
U
da como resultado una distribucin F en n grados de
libertad en el numerador y m grados de libertad en el denominador.
Es decir:
m
V
n
U

[ ]
" "
) (m n
F
En el MRLNC de dos variables:

k n
e
k
Y Y
k n
SEC
k
SEC
i
i
2
2
1
) (
1
k n
e
k
X X
i
i


2
2 2
1
) (


[ ]
" "
) (m n
F
1.- Docima
0 :
0
H
0 :
1
> H
2.- nivel de significancia: 1
Por razones pedaggicas se grafica de la siguiente manera:


1

R.A. R.C.
F
3.- Estadstico a prueba
[ ]

) 2 ( 1
" "
n
F
k n
e
X X
i
i


2
2 2
1
) (

^
i Y

4.- Regla de decisin
Si:
F calculada > F tablas
Entonces:
SE RECHAZA 0 :
0
H , es decir existe relacin entre variables.
BOLO N 9
EL MODELO LINEAL DE DOS VARIABLES
1.- MEJOR ESTIMACION LINEAL E INSESGADO (MELI)
Dados los supuestos del modelo de regresin lineal clsico, los estimativos de mnimos
cuadrados poseen propiedades ideales u optimas, las cuales se encuentran resumidas en el
teorema de Gauss Markov. Para comprender este teorema es necesario tener en cuenta la
propiedad por la cual un estimador se considera el mejor estimador lineal insesgado.
Un estimador, digamos el estimador

, MCO, es el mejor estimador lineal insesgado MELI de


si:
- Es lineal, es decir una funcin lineal de una variable aleatoria tal como la variable
dependiente Y en el modelo de regresin.
- Es insesgado, es decir, su valor promedio o esperado
) (

E
, es igual al valor verdadero
.
- Tiene varianza mnima entre la clase de todos los estimadores lineales insesgados; a un
estimador insesgado con varianza mnima se le conoce como un estimador eficiente.
En el contexto del anlisis de regresin se puede demostrar que los estimadores de MCO son
MELI. Esta es la clave del famoso teorema de Gauss- Markov, el cual se puede enunciar de la
siguiente forma:
- TEOREMA DE GAUSS - MARKOV
Dados los supuestos del modelo clsico de regresin lineal, los estimadores de mnimos
cuadrados, en la clase de estimadores lineales insesgados, tienen varianza mnima, es decir, son
MELI.
a) Propiedad de linealidad

,
_

,
_

,
_


n
i
n
i i
X X
Y Y X X
1
2
1
^

n
i
i
n
i
x
y x
1
2
1
^


,
_

n
i
n
i i
x
Y Y x
1
2
1
^


n
i
n
i
n
i
n
i i
x
x Y
x
Y x
1
2
1
_
1
2
1
^

n
i
n
i i
x
Y x
1
2
1
^

n
i i
Y w
1
2 ES LINEAL
CONVENIO
i
i
i
x
x
w
2

1
0
1

n
i
w 3


n
i
n
i
x
w
1
2 1
1
4
0
1

n
i i
x w 5
0
1

n
i i
X w 6
_ _
X Y


n
X
n
Y
i i



_
X Y w
n
Y
i i
i

i i
Y w X
n
)
1
(
_

7 ES LINEAL
b) Propiedad de insesgamiento
El anlisis es mediante

n
i i
Y w
1

Pero
i i i
u X Y + +
Reemplazando tenemos:
) (
i i i
u X w + +


i i
u w +


8
Aplicando esperanzas
) ( ) (
i i
u E w E +

) ( E
9 ES INSESGADO
El anlisis es mediante

:
i i
Y w X
n
)
1
(
_

Pero
i i i
u X Y + +
Reemplazando tenemos:
) )(
1
(
_
i i i
u X w X
n
+ +


)
1
( )
1
( )
1
(
_ _ _
i i i i i
w X
n
u w X
n
X w X
n
+ +


i i i i
i
i
u w X
n
X w X
n
X
w X
n
n
)
1
( ) ( ) (
_ _ _
+ +


i i i i
i
u w X
n
X w X
n
X
)
1
(
_ _
+


i i
u w X
n
X X )
1
(
_ _ _
+ +


i i
u w X
n
)
1
(
_
+

10
Aplicando esperanzas
) ( )
1
( ) (
_
i i
u E w X
n
E +

) ( E
11 ES INSESGADO
c) Propiedad de mnima varianza

) ( E
Varianza
2
) ( ) (
1
]
1



E E V
2
) (
1
]
1



E V
Utilizando 8 tenemos
i i
u w +


i i
u w


2
) ( ) (
i i
u w E V

Pero:
E (
i u
2
) =
2
u

Entonces:
2 2
) (
i u
w V


Pero:
2
2
1
) (
i
u
x
V


2
2
_
2
) (
) (

X X
V
i
u
12
Desarrollamos
2


2
_
2
) ( X X
i
u

13
O ms brevemente:

) , (
2

N
Por tanto:


Z ) 1 , 0 ( N
Tambin sigue una distribucin normal estandarizada.

) (
^
f
) (Z f


) ( E
^

0
^
i Y


Z
) ( )
1
( ) (
_
i i
u E w X
n
E +

) ( E
Estandarizamos:

) , (
2

N
Por tanto:

) ( E
Z ) 1 , 0 ( N


Z ) 1 , 0 ( N
Tambin sigue una distribucin normal estandarizada.

) (
^
f
) (Z f


) ( E
^

0
^
i Y


Z
Relacionndonos con:
i i
u w X
n
)
1
(
_
+

14
Obtenemos:
i i
u w X
n
)
1
(
_


Varianza
2
) (
1
]
1



E V
2
_
)
1
( ) (
1
]
1

i i
u w X
n
E V
Pero:
E (
i u
2
) =
2
u

Entonces:
2 2
) (
i u
w V


Pero:
2
2
_
2
_
2
) (
1
) (

1
1
1
]
1


X X
X
n
V
i
u
15
2
) (

V
2
_
_
) (
1
X X
X
n
i
u

+

Desarrollando tenemos:

1
1
1
]
1

2
2
_
2
1
) (
x
X
n
V
u

1
1
1
]
1

2
2
_
2
2
) (
x n
X x
V
u

1
1
1
1
1
]
1

2
_
2
_
2
2
_
2
) (
) (
) (
) (
X X n
n
X
n X X
V
i
i
u

1
1
1
1
]
1

n
X
X n
X
V
i
i
u
2
2
2
2
) (
) (
2
2
_
2
2
) (
) (

1
1
]
1


X X n
X
V
i
u
16
d) Propiedad de eficiencia
i i
Y c
~
Donde:
i i i
d w c +
Pero:
i i i
u X Y + +
Reemplazando tenemos:
) (
~
i i i
u X c + +
i i i i i
u c X c c + +
~
CONDICION
Si: 0
i
c
1
i i
X c
Entonces:
i i
u c +
~
17
Aplicando esperanzas
) ( )
~
(
i i
u E c E +
)
~
( E ES INSESGADO
Varianza
[ ]
2
)
~
(
~
)
~
( E E V
[ ]
2
~
)
~
( E V
De
i i
u c +
~
tenemos:
i i
u c
~
[ ]
2
)
~
(
i i
u c E V
[ ] i i u c E V
2 2
)
~
(
) ( )
~
(
2 2
i i
u E c V
Pero:
E (
i u
2
) =
2
u

Entonces:
2 2
)
~
(
i u
c V
Pero:
i i i
d w c +
i i i
w c d
i i i
d w c +
0
i
d
0
i i
X d
0
i i
x d
0
i i
d w
Reemplazando en
2 2
)
~
(
i u
c V tenemos:
) ( )
~
(
2 2 2
i i u
d w V +
) )
~
(
2 2 2 2
i u i u
d w V +
2 2
2
2
)
~
(
i u
u
d
x
V +

PERO:
) (
2
2

V
x
u
Entonces:
2 2
) ( )
~
(
i u
d V V +


FINALMENTE
)
~
( ) ( V V


) (

ES UN ESTIMADOR EFICIENTE
2.- ESTIMACION MAXIMO VEROSIMIL (EMV)
Un mtodo de estimacin puntual, con algunas propiedades tericas ms fuertes que las del
mtodo de MCO, es el mtodo de mxima verosimilitud.
El estimador de mxima verosimilitud EMV para
n
e
i
2
2


. Este estimador es sesgado,
mientras el estimador de MCO para
2
2
2

n
e
i

es insesgado.
2 2
u Y

i i i
u X Y + +
Estandarizamos:
i
Y
2
); (
Y i
X N +
- DISTRIBUCION NORMAL GENERAL
2
) (
2
1
2
2
2
1
) (

i
X
i
e X f
[ ]
2
) (
2
1
2
2
2
1
) (
i i
u
X Y
u
i
e Y f

- DISTRIBUCION CONJUNTA
) ( ...... ),........ ( ), ( ) (
2 1 n i
Y f Y f Y f Y L
2
2
2
2 2
2
1 1
2
) (
2
1
2
) (
2
1
2
2
) (
2
1
2
2
1
* ......... .......... *
2
1
*
2
1
) (
n n
u u u
X Y
u
X Y
u
X Y
u
i
e e e Y L

- FUNCIN DE VEROSIMILITUD
2
) (
2
1
2
1
2
) 2 (
1
) (
i i
n
u
X Y
n
u
i
e L Y L




2
) (
2
1
2
2
1
2
* ) 2 ( ) (
i i
n
u
X Y
n
u i
e L Y L




Aplicando logaritmos obtenemos
e X Y
n
L L
n
i i
u
u
ln ) (
2
1
) 2 (
2
* ln
1
2
2
2

2
2
2
2
) (
ln
2
2 ln
2
* ln
u
i i
u
X Y n n
L L





Derivadas
- Estimadores de mnimos cuadrados
0 ) 1 )( (
2
2 *
2

i i
u
X Y
L

0 ) (
i i
X Y
0
i i
X n Y
0

i i
X n Y
1
0 ) )( (
2
2 *
2

i i i
u
X X Y
L

0 ) )( (
i i i
X X Y
0
2
i
i i i
X X X Y
0
2


i
i i i
X X X Y
2
SISTEMA DE ECUACIONES NORMALES
0

i i
X n Y
1
0
2


i
i i i
X X X Y
2
_ _
X Y


2
_
_ _
) (
) )( (
i i
i i i i
X X
Y Y X X

0
) (
1
2
) ( 1
2
*
2 2
2
2 2

,
_

,
_

u
i i
u u
X Y n L



0
2
) (
4
2 2

u
i i u
X Y n


0 ) (
2 2
+
i i u
X Y n
2 2
) (
i i u
X Y n
n
X Y
i i
u
2
2
) (

n
X Y
i i
u
2
2
) (
1
]
1

Pero:
i
i X Y

+
i i i
e X Y + +


i i i
X Y e


) (
i i i
X Y e


i i i
Y Y e
n
Y Y
i i
u
2
2
) (

n
e
i
u
2
2

ES SESGADO

2
2
2
n
e
i
u
ES INSESGADO
2

2
2

n
e
i
u

PERO:

(
) (
2
2
2

V
X X
i
u

1
]
1


+ ) (
) (
1
2
2
2 2
V
X X
X
n
i
u

1
1
]
1

) (
) (
2
2
2 2
V
X X n
X
i
i
u
RESIDUALES


i i i
Y Y e
) (
i i i
X Y e

+
i i i
X Y e


2 2
) (
i i
i X Y e


PERO:
_ _
X Y


Y REEMPLAZANDO TENEMOS:
2 2
)

(
i i
i X X Y Y e +
2 2 2 2
) (

) )( (

2 ) ( X X X X Y Y Y Y e
i i i i
i +
PERO:
2
_
_ _
^
) (
) )( (
i i
i i i i
X X
Y Y X X



ENTONCES: ) )( ( ) (

2
X X Y Y X X
i i i

2 2 2 2 2
) (

) (

2 ) ( X X X X Y Y e
i i i
i +
2 2 2
) (

) ( X X Y Y e
i i
i
REEMPLAZANDO EN
2

2
2

n
e
i
u

OBTENEMOS:
2
) (

) (

2 2 2
2

n
X X Y Y
i i
u

Y TAMBIEN:
2
) )( (

) (

2
2

n
X X Y Y Y Y
i i i
u

En conclusin
2

2
2

n
e
i
u

,
2
) (

) (

2 2 2
2

n
X X Y Y
i i
u

y
2
) )( (

) (

2
2

n
X X Y Y Y Y
i i i
u

nos llevan al mismo resultado


3.- PROPIEDADES DE LOS ESTIMADORES (DISTRIBUCION DE

)
Partiendo de modelo de dos variables obtenemos:
i i i
u X Y + +
_ _
X Y


) ( E 2
2
2
) ( X X
i
u

) ( E
1
1
]
1

2
2
2 2

) ( X X n
X
i
i
u

TEOREMA:
Es propio de la estadstica. Si X, Y, Z,..son variables aleatorias con distribucin normal a, b,
c, son coeficientes entonces la combinacin lineal ; aX; bY; cZ;. Tambin tienen
distribucin normal.
CARACTERISTICAS: PARA

Estandarizamos:

) , (
2

N
Por tanto:

) ( E
Z ) 1 , 0 ( N


Z ) 1 , 0 ( N
Tambin sigue una distribucin normal estandarizada.

) (
^
f
) (Z f


) ( E
^

0
^
i Y


Z
PARA

) , (
2

N
Por tanto:


Z ) 1 , 0 ( N
Tambin sigue una distribucin normal estandarizada.

) (
^
f
) (Z f


) ( E
^

0
^
i Y


Z
4.- COVARIANZA DE

Es un indicador que cuantifica el grado de variacin conjunta, es decir si varan juntos dos o
mas variables.
Existe variacin conjunta de los estimadores de una sola muestra

.
[ ] )

)( ( ( )

, ( E E E Cov
[ ] )

)( ( )

, ( E Cov
Pero:
i i
u w X
n
)
1
(
_


i i
u w


Entonces:
1
]
1

,
_


i i i i
u w u w X
n
E Cov
1
)

, (
1
]
1

,
_

i
i
i
u w X
n
w
E Cov
2 2
)

, (
) ( )

, (
2 2
i i
i
u E w X
n
w
Cov
,
_


Pero: E (
2
i
u ) =
2
u

Entonces:

,
_

2 2
)

, (
i
i
u
w X
n
w
Cov
) ( )

, (
2 2
i u
w X Cov
) ( )

, (
2 2
i u
w X Cov
Pero:


n
i
n
i
x
w
1
2 1
1
Entonces:

,
_


2
2
)

, (
i
u
x
X Cov


Existe una relacin inversa
2
2
1
) (
i
u
x
V

( )

, ( V X Cov
5.- ESTIMACION DE LAS VARIANZAS DE

Las formulas son las siguientes:


1
]
1


+
2
2
2 2

) (
1

X X
X
n
i
u

1
1
]
1

2
2
2 2

) (

X X n
X
i
i
u

2
2
2

) (

X X
i
u

Pero:
2

2
2

n
e
i
u

,
2
) (

) (

2 2 2
2

n
X X Y Y
i i
u


2
) )( (

) (

2
2

n
X X Y Y Y Y
i i i
u

( )

, ( V X Cov
MATRIZ DE VAR - COV
1
1
]
1

. ).........

, (
)

, ( .. ..........



Cov
Cov
Cov Var
Bolo n 10
EL MODELO LINEAL DE DOS VARIABLES
1.- INTRODUCCION
El significado de linealidad es que la expectativa condicional de Y es una funcin lineal de X.
geomtricamente, la curva de regresin es en este caso una lnea recta.
2.- EL MODELO DE REGRESION LINEAL SIMPLE
) , (
i i i
u X f Y
Donde:
i
u es una variable aleatoria
i i i
u X Y + +
Esta ecuacin podemos ver que es:
- modelo uniecuacional
- modelo de dos variables
- modelo lineal
3.- SUPUESTOS E HIPOTESIS DEL MODELO DE REGRESION LINEAL
El modelo de regresin, conocido tambin como el modelo de Gauss, o modelo clsico, estndar
o lineal general, en el cual se basa la mayor parte de la teora econometrica, plantea los
siguientes supuestos
1.- Y =
i i
u X + + 1
2.-
u
N 2
MRLNC 3.- E (
i
u ) = 0 3
4.- E (
i u
2
) =
2
u
4
5.-
) ( : ) ( 0 ) ( j i u u Cov u u E
j i j i

5
6.- es un regresor fijo 6
Comprobacin de los supuestos:
Y
FRP=Y =
i
X +
+
i
u
-
i
u

X
Supuesto 1
i i i
u X Y + +
) (
i i i
X Y u +
Varianza
[ ]
2
) ( ) (
i i i
Y E Y E Y V
Pero:
) ( ) (
i i i
u X E Y E + +
) ( ) (
i i i
u E X Y E + +
+
i i
X Y E ) ( F.R.P.
Entonces:
[ ] [ ]
2 2
) ( ) (
i i i i i
X u X E Y E Y E + + +
[ ]
2 2
) (
i i i
u E Y V
) ( ) (
i i
u V Y V
Supuesto 3
E (
i
u ) = 0
Porque las distancias de los puntos localizados por encima y debajo de los valores medios no
son otra cosa que los
i
u , dicho de otro modo, los valores positivos de
i
u se cancelan con los
valores negativos de tal manera que su efecto promedio sobre Y es cero.
Supuesto 4
Esta situacin se conoce con el nombre de heterocedasticidad o dispersin o desigual varianza
E (
i u
2
) =
2
u

[ ]
2
) ( ) (
i i i
u E u E u V
2 2
) ( ) (
i i
u E u V
Supuesto 5
En este supuesto podemos observar que no existe ninguna relacin de dependencia, es decir no
existe ninguna relacin.
[ ]
2
) ( ) (
i i j i
u E u E u u Cov [ ]
2
) (
j j
u E u
[ ]
2 2
) ( ) ( ) (
j i j i
u u E u u Cov
) ( 0 ) (
j i j i
u u E u u Cov
4.- PROPIEDADES DE, Y y
^
Y

^
Y Y e
Supuesto 6
es un regresor fijo
i i i
u X Y + +
i i
X Y E + ) (
- FUNCION DE REGRESION POBLACIONAL (FRP)
Se deduce claramente que cada media condicional ) / (
i
X Y E esta en funcin de
i
X .
Simblicamente, se tiene que:
) ( ) / (
i i
X f X Y E
i i
X X Y E + ) / (
En donde ) (
i
X f denota una funcin de la variable explicativa
i
X
La ecuacin ) ( ) / (
i i
X f X Y E se conoce como la funcin de regresin poblacional FRP.
Dicha funcin denota nicamente que la media poblacional de la distribucin de Y dado
i
X
esta funcionalmente relacionada con
i
X . En otras palabra, nos muestra como el valor promedio
poblacional de Y varia con las X. Dicho de otra forma, nos dice como la respuesta media o
promedio de Y varia con X.
- FUNCION DE REGRESION MUESTRAL (FRM)
Es simplemente una regla, formula o mtodo que nos dice como estimar el parmetro
poblacional a partir de la informacin proporcionada por la muestra que se tiene a mano. El
valor particular que se obtiene para el estimador despus de efectuada una aplicacin se conoce
con el nombre de estimativo.

FRP FRM
i
i X Y

+
FRM en su forma estocstica es de la siguiente manera:
i i i
e X Y + +


Conceptualmente
i
e es anlogo a
i
u .
Resumiendo, el objetivo fundamental del anlisis de regresin consiste en estimar la FRP
i i i
u X Y + + con base en la FRM
i i i
e X Y + +


, en razn de que en la mayora de
los casos el anlisis se debe llevar a cabo con base en una muestra tomada de la poblacin. Sin
embargo debido a fluctuaciones entre una muestra y otra, nuestra estimacin de la FRP con base
en la FRM es, en el mejor de los casos, una aproximacin.
Para
i
X X tenemos una observacin muestral
i
Y Y . En trminos de la FRM, el
i
Y
observado puede expresarse como:
i
i
i
e Y Y +

y en trminos de FRP, como:
i i i
u X Y E Y + ) / (
LINEAS DE REGRESION POBLACIONAL Y MUESTRAL
Y FRM;
i
i X Y

+

i
Y
i
u
i
e FRP;
i i
X X Y E + ) / (

i Y

) / (
i
X Y E
X
- CARACTERISTICAS FUNDAMENTALES
i
i X Y

+
0
i
e
i i i
e X Y + +


0
i i
X e
i i i
X Y e


0
_

n
e
e
i
) (
i i i
X Y e


i i i
Y Y e
i i
i e Y Y +

i
i
i
e Y Y +

i i
e FRM Y +
5.- ESTIMACION DE LOS PARAMETROS DE LA FUNCION DE REGRESION
POBLACIONAL F.R.P.
Existen en la actualidad varios mtodos para construir la FRM, pero en concerniente al anlisis
de regresin el ms usado es el mtodo de mnimos cuadrados ordinarios MCO,
- METODO DE LOS MINIMOS CUADRADOS ORDINARIOS
El mtodo de mnimos cuadrados ordinarios se ha atribuido al matemtico alemn Carl
Friedrich Gauss. Bajo ciertos supuestos, el mtodo de MCO ofrece algunas propiedades
estadsticas muy atractivas, por lo cual se ha constituido en uno de los ms eficaces y populares
mtodos de anlisis de regresin.
- El criterio de mnimos cuadrados
Y
FRM;
i
i X Y

+

1
e

2
e
-
4
e
-
3
e

X
- El principio de los mnimos cuadrados
Recordando la FRP en dos variables
Y =
i i
u X + +
Sin embargo no se puede observar directamente, la estimamos a partir de la FRM.
i i i
e X Y + +


i
i
i
e Y Y +

Donde
i Y

es el valor estimado (media condicional) de


i
Y
Los residuos
i
e son simplemente las diferencias entre los valores reales y los estimados de Y.


i i i
Y Y e
Ahora bien, dados N pares de observaciones de Y y X estamos interesados en determinar la
FRM de tal forma que este tan cerca como sea posible del Y real. Con este fin podemos adoptar
el siguiente criterio: eligase la FRM, de tal manera que la suma de los residuos resulte ser tan
pequea como sea posible:
i e
2
Debe ser mnimo
En otras palabras, a todos los residuos se les da la misma importancia o peso sin importar que
tan cerca o que tan dispersas estn las observaciones individuales de la FRM. Como
consecuencia, es bastante factible que la suma algebraica de los
i
e sea muy pequea aun cero, a
pesar de que los
i
e estn muy dispersos alrededor de la FRM. Para verificar lo anterior,
supongamos que
1
e ,
2
e ,
3
e y
4
e asumen valores de 10, -2, + 2 y -10 respectivamente; la suma
algebraica de estos residuos es cero, a pesar de que
1
e y
4
e estn mas dispersos alrededor de la
FRM que
2
e y
3
e . Este problema puede evitarse adoptando el criterio de los mnimos
cuadrados segn el cual la FRM puede plantearse en forma tal que:
2 2
) (


i i
i Y Y e
2 2
) (
i i
i X Y e


Resulte ser tan pequea como sea posible y en donde
i e
2
representan los residuos al
cuadrado.
- Estimadores de mnimos cuadrados
0 ) 1 )( ( 2
^
2



i i
i
X Y
e

0 )

i i
X n Y
i i
X n Y +
^ ^

1
0 ) )( ( 2
^
2



i i i
i
X X Y
e

0 )
2


i
i i i
X X X Y
2
^ ^
i i i i
X X Y X +
2
SISTEMA DE ECUACIONES NORMALES
i i
X n Y +
^ ^

2
^ ^
i i i i
X X Y X +
_ _
X Y


2
_
_ _
^
) (
) )( (
i i
i i i i
X X
Y Y X X



Para estimar
^

puede expresarse en forma alterna como:


2
^
i
i i
x
y x


_
2 2
^
i i
i i
nX X
Y x


_
2 2
^
i i
i i
nX X
y X


2
2
_
_ _
^
) , (
/ ) (
/ ) )( (
X
i i
i i i i
S
Y X Cov
n X X
n Y Y X X




2
^
) , (
X
S
Y X Cov

BIBLIOGRAFIA
ECONOMETRIA(Modelos y Pronsticos) Robert S. Pindyck
ECONOMETRIA Damodar Gujarati
ECONOMETRIA Apuntes Lic. Raul Arias
Lic. Benigno Caballero

You might also like