Professional Documents
Culture Documents
Variables Multidimensionales
y Teoremas Lmites
Transformaciones de variables
Variables aleatorias multidimensionales
Sumas de variables aleatorias
Variables
bidimensionales
Esperanzas y momentos
Covarianza
Coeficiente de Correlacin
Indepen. y Condicionalidad
4.1 Variables bidimensionales
Cuando se est interesado no slo en el estudio de
una variable aleatoria individual sino que tambin en
la relacin entre dos o ms variables aleatorias,
aparecen las variables bidimensionales o n-
dimensionales.
Dado un experimento, el par (X, Y) se llama
variable aleatoria bidimensional si cada X
i
, i = 1,2
es una variable aleatoria.
El par (X1, X2 ) es conjuntamente continuo si cada
Xi,
i=1,2 es una variable aleatoria continua y es
conjuntamente discreto si cada Xi, es una variable
aleatoria discreta.
Si una variable es discreta y la otra es continua, entonces
(X1, X2) es un vector aleatorio mixto.
Si el par (X
1
, X
2
) es discreto, entonces su
funcin de probabilidades es de la forma:
2
2 1 2 2 1 1 2 1
2 1
) , ( ) , ( ) , ( 9 e = = = x x x X x X P x x p
x x
,
1 ) , ( )
) , ( 0 ) , ( )
)
2
,
1
(
2 1
2 1
2
2 1 2 1
2 1
=
9 e >
x x
x x
x x
x x p ii
x x x x p i
e
=
A x x
x x
x x p A P
)
2
,
1
(
2 1
2 1
) , ( ) (
Si A _ R
x1x2
entonces la probabilidad del evento A es:
Las funciones de probabilidades individuales de
las variables X
1
y X
2
se llaman probabilidades
marginales X
1
y X
2
, respectivamente.
= = = = = =
2
2 1
2 1
2
2 2 1 1 1 1 1
1
) , ( ) , ( ) ( ) (
x
x x
x
x
x x p x X x X P x X P x p
- Distribucin marginal de X
1
:
= = = = = =
1
2 1
2 1
1
2 2 1 1 2 2 2
2
) , ( ) , ( ) ( ) (
x
x x
x
x
x x p x X x X P x X P x p
- Distribucin marginal de X
2
:
Si el par (X
1
, X
2
) es continuo, entonces su funcin
de densidad de probabilidad debe satisfacer las
siguientes condiciones:
1 ) , ( )
) , ( 0 ) , ( )
2 1 2 1
2 1
2
2 1 2 1
2 1
=
9 e >
} }
- -
dx dx x x f ii
x x x x f i
x x
x x
Si A = {(x
1
, x
2
): a
1
< x
1
< b
1
, a
2
< x
2
< b
2
}, entonces:
} }
= < < < < =
1
1
2
2
1 2
2 1
2 1
2 2 2 1 1 1
) , ( ) , ( ) (
b
a
b
a
x x x x
d d x x f b X a b X a P A P
para todo a
1
, a
2
, b
1
, b
2
Densidades marginales para X
1
y X
2
}
=
2 2 1
2 1
1
1
) , ( ) ( dx x x f x f
x x x
- Densidad marginal para X
1
:
- Densidad marginal de X
2
:
}
=
1 2 1
2 1
2
2
) , ( ) ( dx x x f x f
x x x
Las funcin de distribucin, F(t
1
,t
2
), para una
variable aleatoria bidimensional (X
1
, X
2
) est dada
por:
2
2 1 2 2 1 1 2 1
) , ( ) , ( ) , ( 9 e s s = t t t X t X P t t F ,
Si la funcin de distribucin es continua y la segunda
derivada parcial de F(x
1
,x
2
) existe, la funcin de densidad
bivariante de (X
1
, X
2
) es:
) , ( ) , (
2 1
2 1
2
2 1
x x F
x x
x x f
c c
c
=
} }
=
1 2
1 2 2 1 2 1
) , ( ) , (
x x
dt dt t t f x x F
Ejemplo: Consideremos las v.a. bidimensional
(X, Y) con funcin de probabilidad conjunta
X\Y -3 2 4
1 0.1 0.2 0.2
3 0.3 0.1 0.1
1.- Calcule la probabilidad conjunta de que:
a) Y no supere a 2 y X supere a 1.
b) Y no supere a X.
2.- Las distribuciones marginales de X e Y.
3.- Las Esperanzas y Varianzas de las v.a. X e Y.
Solucin
( ) ( ) ( )
( ) ( ) 4 . 0 3 , 3 2 , 3
3 , 3 2 , 3 2 , 1
= + =
= = + = = = s >
p p
Y X P Y X P Y X P
1a)
( ) ( )
( ) ( ) ( ) 5 . 0 2 , 3 3 , 3 3 , 1
0
= + + =
> = >
p p p
Y X P Y X P
1b)
x 1 3
p(x) 0.5 0.5
y -3 2 4
P(y) 0.4 0.3 0.3
2)
( ) ( ) ( ) 24 . 9 ) ( ; 6 . 0 y 1 ; 2 = = = = Y V Y E X V X E
3)
Ejemplo: Supongamos que la f.d. conjunta de X e
Y est dada por
( ) 0 , 0 , 2 ,
2
> > =
y x e e y x f
y x
Determine las marginales.
( )
( )
}
}
> = =
> = =
0
2 2
0
2
0 , 2 2
0 , 2
y e dx e e y f
x e dy e e x f
y y x
x y x
Calcular las siguientes probabilidades:
( )
a
a
y x
a
a
a
x
a
e
dydx e e dydx y x f
e dx e dx x f a X P
=
= =
= = = <
} } } }
} }
1
2 ) , (
1 ) (
0 0
2
0 0
0 0
( ) ( ) ( ) Y X P y 1 , 1 ; < < > < Y X P a X P
( )
( )
2 1
1
0
2 1
1
0 1
2
1
2 2 1 , 1
=
= = < >
} } }
e e
dy e e dydx e e Y X P
y y x
( ) ( )
3 1 3 2 1 2 2
1 2 2
0
3
0
2
0
2
0 0
2
= = =
= = <
} }
} } }
dy e dy e
dy e e dxdy e e Y X P
y y
y y
y
y x
Ej.: Consideremos las v.a. X e Y, con f.d. conjunta
( )
> >
> < < +
< < > +
< < < < +
s s
=
1 1 1
1 , 1 0 2 1
1 0 , 1 2 1
1 0 , 1 0 2
0 y 0 0
,
,y x
y x x x
y x y y
x x y x xy
x
y x F
4.2 Esperanzas y momentos
Definicin: Sea ( ) Y X g , una funcin real
valuada de las variables aleatorias X e Y.
Entonces la Esperanza de ( ) Y X g , , que
denotaremos por ( ) | | Y X g E , , se define como
( ) | | ( ) ( )
( ) | | ( ) ( )dxdy Y X f Y X g Y X g E
Y X p Y X g Y X g E
} }
=
, , ,
, , ,
Sea g(X, Y) = X
j
Y
k
, j, k 0, tenemos E[X
j
Y
k
] llamado momento
conjunto (j, k) de la variable aleatoria bidimensional (X, Y):
0 , ; ] [ > = k j Y X E m
k j
jk
Los momentos conjuntos centrales de X e Y se pueden definir como:
] ) ( ) [(
k
Y
j
X jk
Y X E n =
Utilizando
k
Y
j
X
Y X Y X g ) ( ) ( ) , ( =
La Covarianza entre las variables X e Y
)] )( [( ) , (
Y X XY
Y X E Y X Cov o = =
La Correlacin o Coeficiente de Correlacin entre
las variables X e Y
X X
XY
XY
o o
o
=
Se puede probar que es invariante por traslaciones
de ejes; esto es,
XY
XY d cY b aX
=
+ + ) , (
1 s
XY
X\Y -3 2 4
1 0.1 0.2 0.2
3 0.3 0.1 0.1
( ) ( )
( ) 24 . 9 ) ( ; 6 . 0
1 ; 2
= =
= =
Y V Y E
X V X E
| | ( )
( )( ) ( )( ) ( )( )
( )( ) ( )( ) ( )( ) 0 1 . 0 4 3 1 . 0 2 3 3 . 0 3 3
2 . 0 4 1 2 . 0 2 1 1 . 0 3 1
,
= + + =
+ + + =
=
y x xyp XY E
| | 2 . 1 ) , ( = =
Y X
XY E Y X Cov
( )
( )( )
394 . 0
04 . 3 1
2 . 1 ,
=
= =
Y X
XY
Y X Cov
o o
= =
2 1 2 1 1 2
) (
2
] / [ dx x x f x x X X E
( )
=
=
caso otro cualquier en 0
2 , 1 , 1 , 2 si 4 1
1
1
1
x
x p
X
Ejemplo: Consideremos la v.a.d. X1 con f.de p.
es y de conjunta p. f.de la Entonces .
2 1
2
1 2
X X X X = Y definamos
( )
( ) ( ) ( ) ( ) ( )
=
=
caso otro cualquier en 0
4 , 2 , 1 , 1 , 1 , 1 , 4 , 2 , si 4 1
,
2 1
2 1
x x
x x p
| | 0
4
8
4
1
4
1
4
8
2 1
= + +
= X X E
| | ( )
es. dependient claramente
son y variables las embargo, Sin . 0
luego y 0 , entonces , 0 como y
2 1
2 1
X
2 1 1
X X
X X Cov X E
X
=
= =
< < = I = =
0
1 0 , 1 ) 2 ( ) ( y du ue y g
u
Y
es decir, Y tiene distribucin uniforme en (0,1).
Ejemplo
Sean X
1
y X
2
variables aleatorias independientes, cada una con
distribucin uniforme sobre el intervalo (0,1). Determinemos la
funcin de densidad de Y = X
1
+X
2
.
1 0 , 1 0 1 ) ( ) ( ) , (
2 1 2
2
1
1
2 1
< < < < = = x x x f x f x x f
X X
si ;
Considerando la transformacin uno a uno
2
2 1
x z
x x y
=
+ =
- La transformacin inversa est dada por:
z x
z y x
=
=
2
1
siendo su Jacobiano J
1
= 1
Como X
1
y X
2
son variables aleatorias independientes, entonces la
densidad conjunta de X
1
y X
2
es el producto de las marginales
correspondientes; esto es,
- La funcin densidad conjunta de Y y Z es:
1 , 1 0 , 1 ) , ( ) , (
2 1
,
+ < < < < = z y z z z z y f z y g
X X Z Y
+ < < e
=
casos otros en
si
0
1 ), 1 , 0 ( 1
) , (
,
z y z z
z y g
Z Y
o bien
Para obtener la densidad marginal de Y integramos
separadamente en: y 0 ; 0 <y < 1 ; 1 <y < 2 e y 2.
>
< < =
< < =
s
=
}
}
2 0
2 1 2
1 0
0 0
) (
1
1
0
y
y y dz
y y dz
y
y g
y
y
Y
si
si
si
si
Ejemplo
Supongamos que X
1
, X
2
y X
3
son variables aleatorias independientes,
cada una con distribucin exponencial de parmetro = 1.
Calculemos la funcin de densidad de Y = (X
1
+X
2
+X
3
)/3.
Considerando la siguiente transformacin uno a uno
3 3
2 2
3 2 1 1
3 / ) (
x y
x y
x x x y
=
=
+ + =
0 , 0 , 0 ) , , (
3 2 1
)
3 2 1
(
3 2 1
> > > =
+ +
x x x e x x x f
x x x
,
Como las variables son independientes, la densidad conjunta est dada
por:
- La transformacin inversa est dada por:
3 3
2 2
3 2 1 1
3
y x
y x
y y y x
=
=
=
siendo su Jacobiano J
1
= 3
- La densidad conjunta de Y
1
, Y
2
e Y
3
es:
0 , 0 , 0 3 3 ) , , (
3 2 3 2 1
1
3 2 1
> > > =
y y y y y e y y y f
y
;
0 ,
2
27
3 ) (
1
3
1
2
1
1
3
0
2 1
3
0
2 3
1
3
1
1
> = =
} }
y e y dy dy e y f
y
y y y
y
Y
y la densidad marginal de Y
1
= (X
1
+ X
2
+ X
3
)/3
Ejemplo
Sean X
1
y X
2
variables aleatorias independientes, cada una con
distribucin Poisson con parmetro comn . Queremos determinar la
funcin de probabilidades de Y = X
1
+X
2
.
Definiendo la siguiente transformacin uno a uno:
2 2
2 1 1
X Y
X X Y
=
+ =
Cuya transformacin inversa es
2 2
2 1 1
Y X
Y Y X
=
=
Como X
1
y X
2
son independientes, entonces la funcin de
probabilidad conjunta es
,... 1 , 0 ,...; 1 , 0 ,
! !
,... 1 , 0 ,...; 1 , 0 ), ( ) ( ) , (
2 1
2
2
1
1
2 1 2
2
1
1
2 1
= = =
= = =
x x
x
e
x
e
x x x p x p x x p
x x
X X
La funcin de probabilidad conjunta de Y
1
e Y
2
es
2 1
2 1
2 2 1
1
2
2 2 1
2 1
2 1
2 1
) , (
! )! (
) , ( ) , (
Y Y
y
X X Y Y
R y y
y y y
e
y y y p y y p e
= =
} 0 : ) , {(
1 2 2 1
2 1
y y y y R
Y Y
s s Z Z e =
+ +
donde
La funcin de probabilidad de Y
1
= X
1
+X
2
,... 1 , 0
!
) 2 (
! )! (
) (
1
1
1
2 1
0
2
2 2 1
1
2
1
1
= =
=
=
y
y
e
y y y
e
y p
y
y
y
y
Y
,
Por lo tanto, Y
1
= X
1
+X
2
es una variable aleatoria con distribucin
Poisson de parmetro 2.
4.5 Variables aleatorias multidimensionales
X = (X
1
, X
n
) es un vector aleatorio continuo si cada
una de sus componentes X
i
, i = 1,,n es una variable
aleatoria continua. Anlogamente, diremos que X es
discreto si cada X
i
, i = 1,.,n, es una variable aleatoria
discreta. En cada caso y segn corresponda, podemos
asociar a X una funcin de probabilidades o una funcin
de densidad de probabilidades, respectivamente.
Si X es discreta, la funcin de probabilidad asociada es
n
n n n X
x x x X x X P x p 9 e = = > ) ,..., ( ), ,..., ( ) (
1 1 1
La funcin de probabilidades para la variable n-dimensional
debe satisfacer las reglas anlogas al caso unidimensional:
=
9 e = >
1 ) ( )
) ,..., ( , 0 ) ( )
1
x p ii
x x x x p i
X
n
n X
Dada p
X
(x), podemos calcular las marginales, haciendo
} , 1 ; : { ), ( ) (
1
n j i j x R x p x p
j
i
R
X i
i
X
= = = =
donde
} , 1 ; : { , ) ( ) , (
1
n k i j k x R x p x x p
k
R
X
j i
j
X
i
X
= = = = =
con
Tambin se puede determinar la funcin de probabilidades
conjuntas de dos o ms componentes, a partir de p
X
(x).
Las variables aleatorias X
i
, i=1,,n, son idnticamente
distribuidas si cada una de ellas tiene la misma distribucin
de probabilidades.
Las variables aleatorias X
i
, i=1,,n son independientes si
y slo si
discreta nte conjuntame es cuando
continua nte conjuntame es cuando
X x x p x p
X x x f x f
n
n
i
i
i
X X
n
n
i
i
i
X X
, ) ( ) (
, ) ( ) (
1
1
9 e =
9 e =
[
[
=
=
Teorema 4.5 Si X
1
,,X
n
son variables aleatorias
independientes y si Y
1
=G
1
(X
1
),,Y
n
=G
n
(X
n
), son funciones
de X
1
,,X
n
, respectivamente, entonces Y
1
,,Y
n
son
variables aleatorias independientes.
Teorema 4.6 Si X
1
,X
2
,,X
n
son variables aleatorias
independientes y si Y
1
=G
1
(X
1
,,X
r
), Y
2
=G
2
(X
r+1
,,X
p
),,
Y
m
=G
m
(X
k+1
,,X
n
), donde Y
j
, j=1,,m son funciones de
subconjuntos mutuamente excluyentes de X
1
,X
2
,,X
n
.
Entonces Y
1
,Y
2
,,Y
m
son variables aleatorias
independientes.
4.6 Distribucin X
2
, t y F
La distribucin X
2
es un caso especial de la distribucin
Gamma. Si consideramos la variable aleatoria Z con
distribucin normal estndar, entonces la funcin de
distribucin de U = Z
2
, para todo t 0 est dada por:
1 ) ( 2 1 ) ( 2 ) ( ) ( ) (
2
u = = s s = s = t t F t Z t P t Z P t F
Z U
y su funcin de densidad
0 , ) 2 ( ) ( ) ( ) (
2 / 2 / 1 2 / 1
> = = =
t e t t f t t F
dt
d
t f
t
Z U U
t
Teorema 4.7 Si Z
1
,,Z
n
son variables aleatorias normales
estndar, independientes, entonces:
=
2
) (
2
n i
Z U _ n distribuci tiene
Ejemplo
Supongamos que X es una variable aleatoria con funcin de
densidad
0 ,
4
1
) (
2 /
> =
x xe x f
x
X
entonces la funcin de densidad de X corresponde a la de una Chi-
cuadrado con 4 grados de libertad.
2 / 4
2 / 1 2 / 4
2 /
2 ) 2 / 4 (
4
1
) (
I
= =
x
x
X
e x
xe x f
Teorema 4.8 Si X
1
,,X
n
son variables aleatorias
independientes, cada una con distribucin X
2
con v
1
,,v
n
grados de libertad, respectivamente, entonces:
= libertad. de grados con cuadrado - Chi n distribuci tiene
i i
v X Y
Teorema 4.9 Sean X
1
y X
2
variables aleatorias independientes.
2
1
2 1
2
2 1
2
1
1
, ~ ~
v v v v
X v v X X X
> + _ _ _ distribuye se entonces, y Si
La Distribucin t-Student: Sea Z una variable aleatoria
normal estndar, y X una variable que se distribuye Chi-
cuadrado con v grados de libertad. Si Z y X son
independientes, entonces la variable aleatoria T definida por
v X
Z
T
/
=
tiene distribucin t-Student con v grados de libertad. La
notacin usual es Y ~ t
v
.
Siendo su funcin de densidad
< <
+
I
+ I
=
+
t
v t
v v
v
t f
v
T
,
)] / ( 1 [
1
) 2 / (
) 2 / ) 1 ((
) (
2 / ) 1 ( 2
t
La Distribucin F de Snedecor: Sean X
1
y X
2
, variables
aleatorias Chi-cuadrado con v
1
y v
2
grados de libertad,
respectivamente. Si X
1
y X
2
son independientes, la variable
aleatoria
1 2
2 1
2 2
1 1
/
/
v
v
X
X
v X
v X
F = =
Siendo su funcin de densidad
0 ,
) 1 (
2 2
2
) (
2 / )
2 1
(
2
1 2 1
1
2
1
2
1
2
1 2 1
>
+
|
.
|
\
|
I
|
.
|
\
|
I
|
|
.
|
\
|
|
.
|
\
|
+
I
=
+
|
.
|
\
|
t
t
v
v v v
t
v
v v v
t f
v v
v
v
v
F
El valor esperado de F es:
2
] [
2
2
=
v
v
F E
La varianza de F es:
) 4 ( ) 2 (
]
2
1 [ 2
] [
2
2
2
1
2
2
2
+
=
v v
v
v
v
F Var
4.7 Sumas de variables aleatorias
Si X
1
, X
n
son variables aleatorias independientes e
idnticamente distribuidas, diremos que ellas conforman una
muestra aleatoria.
Teorema 4.10 Sean X
1
,,X
n
variables aleatorias
independientes e idnticamente distribuidas, con funciones
generadoras de momentos M
X1
(t),,M
Xn
(t), respectivamente.
Si definimos:
=
=
n
i
i
X Y
1
Entonces la funcin generadora de momentos de Y es:
n
X Y
t M t M )] ( [ ) ( =
Ejemplo
tenemos que
Supongamos que X
1
,,X
n
son variables aleatorias Bernoulli
independientes, idnticamente distribuidas, cada una con
parmetro p. Entonces M
xi
(t)=q + pe
t
, i=1,,n.
Si definimos:
=
=
n
i
i
X Y
1
n t n
X Y
pe q t M t M ) ( )] ( [ ) ( + = =
Ejemplo
Supongamos que X
1
,,X
n
son variables aleatorias normales
independientes, con medias
1
,,
n
y varianzas o
1
2
,,o
n
2
respectivamente. Entonces
) 2 / exp( ) (
2 2
i i
i
X
t t t M o + =
Si definimos
s arbitraria constantes con
i
n
i
i i
a X a Y ,
1
=
=
Entonces tenemos que
) 2 / exp( ) ( ) (
2 2 2
1
i i i i
n
i
i
i
X Y
a t a t ta M t M o + = =
[
=
Entonces
< = =
+ = =
j i
j i j i
n
i
i i Y
n
i
i i Y
X X Cov a a a a ) , ( 2 ,
1
2 2 2
1
o o
Teorema 4.11 Sean X
1
,,X
n
variables aleatorias con medias
1
,,
n
y varianzas o
1
2
,,o
n
2
respectivamente. Definiendo
s arbitraria constantes con
i
n
i
i i
a X a Y ,
1
=
=
Teorema 4.12 Sean X
1
,,X
n
variables aleatorias no
correlacionadas. Si
= = =
= = =
n
i
i i
Y
n
i
i i Y
n
i
i i
a a X a Y
1
2 2 2
1 1
, o o y entonces
Teorema 4.13 Sean X
1
,,X
n
variables aleatorias
independientes e idnticamente distribuidas, cada una con
media y varianza o
2
. Si
2 2
1
, o o n n X Y
Y Y
n
i
i
= = =
=
y entonces
4.8 Mximos y mnimos
Sean X
1
,,X
n
, n variables aleatorias independientes e
idnticamente distribuidas con funcin de distribucin F
X
(x). Si
ordenamos las variables aleatorias en forma ascendente de
acuerdo a su magnitud, podemos definir dos funciones de
inters primordial en estadstica. Ellas son el mximo y el
mnimo, denotadas por:
}
}
n
n n
X X Mnimo X
X X Mximo X
, , {
, , {
1 ] 1 [
1 ] [
=
=
- La funcin de distribucin acumulada del mximo de n
variables aleatorias independientes e idnticamente distribuidas
es:
n
X
t F t G )) ( ( ) ( =
Si las variables son continuas, podemos obtener la funcin
de densidad del mximo.
) ( )) ( (
) (
) (
1
t f t F n
dt
t dG
t g
X
n
X
= =
- La funcin de distribucin acumulada del Mnimo de n
variables aleatorias independientes e idnticamente
distribuidas es:
n
X
t F t H )] ( 1 [ 1 ) ( =
Si las variables son continuas, la funcin de densidad del
mnimo es:
) ( ))] ( 1 [(
) (
) (
1
t f t F n
dt
t dH
t h
X
n
X
= =
Ejemplo
Supongamos que X
1
,,X
n
son n variables aleatorias
independientes, cada una con distribucin exponencial de
parmetro >0. La funcin de densidad del mximo y
mnimo respectivamente son:
y
0 , ) 1 ( ) (
1
> =
t e e n t g
t n t
si
0 , )] 1 ( 1 [( ) (
1
> = =
t e n e e n t h
tn t n t
si