You are on page 1of 54

Unidad IV:

Variables Multidimensionales
y Teoremas Lmites
Transformaciones de variables
Variables aleatorias multidimensionales
Sumas de variables aleatorias
Variables
bidimensionales
Esperanzas y momentos
Covarianza
Coeficiente de Correlacin
Indepen. y Condicionalidad
4.1 Variables bidimensionales
Cuando se est interesado no slo en el estudio de
una variable aleatoria individual sino que tambin en
la relacin entre dos o ms variables aleatorias,
aparecen las variables bidimensionales o n-
dimensionales.
Dado un experimento, el par (X, Y) se llama
variable aleatoria bidimensional si cada X
i
, i = 1,2
es una variable aleatoria.
El par (X1, X2 ) es conjuntamente continuo si cada
Xi,
i=1,2 es una variable aleatoria continua y es
conjuntamente discreto si cada Xi, es una variable
aleatoria discreta.

Si una variable es discreta y la otra es continua, entonces
(X1, X2) es un vector aleatorio mixto.
Si el par (X
1
, X
2
) es discreto, entonces su
funcin de probabilidades es de la forma:
2
2 1 2 2 1 1 2 1
2 1
) , ( ) , ( ) , ( 9 e = = = x x x X x X P x x p
x x
,
1 ) , ( )
) , ( 0 ) , ( )
)
2
,
1
(
2 1
2 1
2
2 1 2 1
2 1
=
9 e >

x x
x x
x x
x x p ii
x x x x p i

e
=
A x x
x x
x x p A P
)
2
,
1
(
2 1
2 1
) , ( ) (
Si A _ R
x1x2
entonces la probabilidad del evento A es:
Las funciones de probabilidades individuales de
las variables X
1
y X
2
se llaman probabilidades
marginales X
1
y X
2
, respectivamente.

= = = = = =
2
2 1
2 1
2
2 2 1 1 1 1 1
1
) , ( ) , ( ) ( ) (
x
x x
x
x
x x p x X x X P x X P x p
- Distribucin marginal de X
1
:

= = = = = =
1
2 1
2 1
1
2 2 1 1 2 2 2
2
) , ( ) , ( ) ( ) (
x
x x
x
x
x x p x X x X P x X P x p
- Distribucin marginal de X
2
:
Si el par (X
1
, X
2
) es continuo, entonces su funcin
de densidad de probabilidad debe satisfacer las
siguientes condiciones:
1 ) , ( )
) , ( 0 ) , ( )
2 1 2 1
2 1
2
2 1 2 1
2 1
=
9 e >
} }


- -

dx dx x x f ii
x x x x f i
x x
x x
Si A = {(x
1
, x
2
): a
1
< x
1
< b
1
, a
2
< x
2
< b
2
}, entonces:
} }
= < < < < =
1
1
2
2
1 2
2 1
2 1
2 2 2 1 1 1
) , ( ) , ( ) (
b
a
b
a
x x x x
d d x x f b X a b X a P A P
para todo a
1
, a
2
, b
1
, b
2

Densidades marginales para X
1
y X
2

}


=
2 2 1
2 1
1
1
) , ( ) ( dx x x f x f
x x x
- Densidad marginal para X
1
:
- Densidad marginal de X
2
:
}


=
1 2 1
2 1
2
2
) , ( ) ( dx x x f x f
x x x
Las funcin de distribucin, F(t
1
,t
2
), para una
variable aleatoria bidimensional (X
1
, X
2
) est dada
por:
2
2 1 2 2 1 1 2 1
) , ( ) , ( ) , ( 9 e s s = t t t X t X P t t F ,
Si la funcin de distribucin es continua y la segunda
derivada parcial de F(x
1
,x
2
) existe, la funcin de densidad
bivariante de (X
1
, X
2
) es:
) , ( ) , (
2 1
2 1
2
2 1
x x F
x x
x x f
c c
c
=
} }

=
1 2
1 2 2 1 2 1
) , ( ) , (
x x
dt dt t t f x x F
Ejemplo: Consideremos las v.a. bidimensional
(X, Y) con funcin de probabilidad conjunta

X\Y -3 2 4
1 0.1 0.2 0.2
3 0.3 0.1 0.1

1.- Calcule la probabilidad conjunta de que:
a) Y no supere a 2 y X supere a 1.
b) Y no supere a X.
2.- Las distribuciones marginales de X e Y.
3.- Las Esperanzas y Varianzas de las v.a. X e Y.
Solucin
( ) ( ) ( )
( ) ( ) 4 . 0 3 , 3 2 , 3
3 , 3 2 , 3 2 , 1
= + =
= = + = = = s >
p p
Y X P Y X P Y X P
1a)
( ) ( )
( ) ( ) ( ) 5 . 0 2 , 3 3 , 3 3 , 1
0
= + + =
> = >
p p p
Y X P Y X P
1b)

x 1 3
p(x) 0.5 0.5


y -3 2 4
P(y) 0.4 0.3 0.3

2)
( ) ( ) ( ) 24 . 9 ) ( ; 6 . 0 y 1 ; 2 = = = = Y V Y E X V X E
3)
Ejemplo: Supongamos que la f.d. conjunta de X e
Y est dada por
( ) 0 , 0 , 2 ,
2
> > =

y x e e y x f
y x
Determine las marginales.
( )
( )
}
}


> = =
> = =
0
2 2
0
2
0 , 2 2
0 , 2
y e dx e e y f
x e dy e e x f
y y x
x y x
Calcular las siguientes probabilidades:
( )
a
a
y x
a
a
a
x
a
e
dydx e e dydx y x f
e dx e dx x f a X P


=
= =
= = = <
} } } }
} }
1
2 ) , (
1 ) (
0 0
2
0 0
0 0
( ) ( ) ( ) Y X P y 1 , 1 ; < < > < Y X P a X P
( )
( )
2 1
1
0
2 1
1
0 1
2
1
2 2 1 , 1


=
= = < >
} } }
e e
dy e e dydx e e Y X P
y y x
( ) ( )
3 1 3 2 1 2 2
1 2 2
0
3
0
2
0
2
0 0
2
= = =
= = <
} }
} } }


dy e dy e
dy e e dxdy e e Y X P
y y
y y
y
y x
Ej.: Consideremos las v.a. X e Y, con f.d. conjunta
( )

< < < < +


=
caso otro cualquier en 0
1 0 , 1 0
,
y x y x
y x f
Determine la funcin de distribucin de (X,Y)
Obviamente si
( ) 0 , entonces , 0 y 0 = < < y x F y x
( ) ( )
( ) y x xy
dsdt t s y x F y x
y
x
+ =
+ = < < < <
} }
2
1

, 1 0 , 1 0
0 0
( ) ( )
( ) y x y
dsdt t s y x F y x
y
+ =
+ = < < >
} }
2
1

, 1 0 , 1
0
1
0
( ) ( )
( ) y x x
dsdt t s y x F y x
x
+ =
+ = > < <
} }
2
1

, 1 , 1 0
1
0 0
( ) ( ) 1 , 1 , 1
1
0
1
0
= + = > >
} }
dsdt t s y x F y x
( )
( )
( )
( )

> >
> < < +
< < > +
< < < < +
s s
=
1 1 1
1 , 1 0 2 1
1 0 , 1 2 1
1 0 , 1 0 2
0 y 0 0
,
,y x
y x x x
y x y y
x x y x xy
x
y x F
4.2 Esperanzas y momentos
Definicin: Sea ( ) Y X g , una funcin real
valuada de las variables aleatorias X e Y.
Entonces la Esperanza de ( ) Y X g , , que
denotaremos por ( ) | | Y X g E , , se define como
( ) | | ( ) ( )
( ) | | ( ) ( )dxdy Y X f Y X g Y X g E
Y X p Y X g Y X g E
} }
=


, , ,
, , ,
Sea g(X, Y) = X
j
Y
k
, j, k 0, tenemos E[X
j
Y
k
] llamado momento
conjunto (j, k) de la variable aleatoria bidimensional (X, Y):
0 , ; ] [ > = k j Y X E m
k j
jk

Los momentos conjuntos centrales de X e Y se pueden definir como:
] ) ( ) [(
k
Y
j
X jk
Y X E n =
Utilizando
k
Y
j
X
Y X Y X g ) ( ) ( ) , ( =
La Covarianza entre las variables X e Y
)] )( [( ) , (
Y X XY
Y X E Y X Cov o = =
La Correlacin o Coeficiente de Correlacin entre
las variables X e Y
X X
XY
XY
o o
o
=
Se puede probar que es invariante por traslaciones
de ejes; esto es,
XY

XY d cY b aX
=
+ + ) , (
1 s
XY


X\Y -3 2 4
1 0.1 0.2 0.2
3 0.3 0.1 0.1

( ) ( )
( ) 24 . 9 ) ( ; 6 . 0
1 ; 2
= =
= =
Y V Y E
X V X E
| | ( )
( )( ) ( )( ) ( )( )
( )( ) ( )( ) ( )( ) 0 1 . 0 4 3 1 . 0 2 3 3 . 0 3 3
2 . 0 4 1 2 . 0 2 1 1 . 0 3 1
,
= + + =
+ + + =
=

y x xyp XY E
| | 2 . 1 ) , ( = =
Y X
XY E Y X Cov
( )
( )( )
394 . 0
04 . 3 1
2 . 1 ,
=

= =
Y X
XY
Y X Cov
o o

4.3 Independencia y Condicionalidad


Dada una variable aleatoria bidimensional (X
1
, X
2
) con funcin de
distribucin F(x
1
, x
2
) y marginales Fx
1
(x
1
) y Fx
2
(x
2
), diremos que X
1
y
X
2
son independientes si:
) ( ) ( ) , (
2
2
1
1
2 1
x F x F x x F
x x
=
) ( ) ( ) , (
2
2
1
1
2 1
x f x f x x f
x x
=
y
Teorema 4.3 Sean X
1
y X
2
variables aleatorias
independientes. Si Y
1
=G(X
1
) e Y
2
=H(X
2
) son funciones
montonas de X
1
y X
2
, respectivamente, entonces Y
1
e Y
2
son
variables aleatorias independientes.
Teorema 4.4 Sean X
1
y X
2
variables aleatorias independientes. Si
G(X
1
) y H(X
2
) son slo funciones de X
1
y X
2
, respectivamente,
entonces:
)] ( [ )] ( [ )] ( ) ( [
2 1 2 1
X H E X G E X H X G E =
Teorema 4.5 Si X
1
y X
2
son variables independientes, entonces
0
2 1 2 1
= =
X X X X
o
Sea (X
1
, X
2
) una variable aleatoria bidimensional. Entonces:
a) Si (X
1
,X
2
) es conjuntamente discreta, definimos la funcin de
probabilidad condicional de X
2
dada X
1
=x
1

0 ) (
) (
) , (
) / ( ) / (
1
1
1
1
2 1
1 2 1 2
1
/
2
> = = x p
x p
x x p
x x p x x p
x
x
x x
si ;
y es cero en otro caso
b) Si (X
1
,X
2
) es una variable aleatoria continua, definimos la funcin
de densidad condicional de X
2
dada X
1
=x
1

0 ) (
) (
) , (
) / ( ) / (
1
1
1
1
2 1
1 2 1 2
1
/
2
> = = x f
x f
x x f
x x f x x f
x
x
x x
si ;
y es cero en otro caso
Anlogamente, se pueden definir las distribuciones condicionales de
X
1
dada X
2
=x
2
.
Si X
1
y X
2
son variables aleatorias independientes
) ( ] / [
1 2 2 1
X E x X X E = =
cuando la esperanza de X
1
existe.
La media y varianza condicional para una variable
bidimensional continua (X
1
, X
2
).
2
1 1 2 1 1
2
2 1 1 2
]) / [ ( ) / ( ) / ( x X X E x X X E x X X Var = = = =
}


= =
2 1 2 1 1 2
) (
2
] / [ dx x x f x x X X E
( )

=
=
caso otro cualquier en 0
2 , 1 , 1 , 2 si 4 1
1
1
1
x
x p
X
Ejemplo: Consideremos la v.a.d. X1 con f.de p.
es y de conjunta p. f.de la Entonces .
2 1
2
1 2
X X X X = Y definamos
( )
( ) ( ) ( ) ( ) ( )

=
=
caso otro cualquier en 0
4 , 2 , 1 , 1 , 1 , 1 , 4 , 2 , si 4 1
,
2 1
2 1
x x
x x p
| | 0
4
8
4
1
4
1
4
8
2 1
= + +

= X X E
| | ( )
es. dependient claramente
son y variables las embargo, Sin . 0
luego y 0 , entonces , 0 como y
2 1
2 1
X
2 1 1
X X
X X Cov X E
X
=
= =

4.4 Transformaciones de variables


Considerando una variable aleatoria bidimensional (X
1
, X
2
) con
densidad f
x1x2
(x
1
, x
2
) y sea:
)) , ( ), , ( ( ) , (
2 1 2 2 1 1 2 1
X X G X X G Y Y =
una transformacin continua y biunvoca.
Suponiendo que G
1
y G
2
admiten derivadas parciales continuas y
considerando una regin A del plano x
1
x
2
tal que el Jacobiano de la
transformacin es distinto de cero, entonces, en todos los puntos
de A existe la transformacin inversa de (Y
1
,Y
2
)
)) , ( ), , ( ( ) , (
2 1 2 2 1 1 2 1
Y Y H Y Y H X X =
la cual es continua y uniforme en una regin B del plano y
1
y
2.

Ejemplo
Consideremos las variables aleatorias X
1
y X
2
con funcin de
densidad conjunta f(x
1
,x
2
) = e
-(x1+x2)
, x
1
> 0, x
2
> 0.
Determinemos la funcin de densidad de Y = X
1
/(X
1
+X
2
).
1
2 1 1
) /(
x z
x x x y
=
+ =
0 ) /(
) , (
) , (
2
2 1 1
2 1
= + =
c
c
= x x x
x x
z y
J
La transformacin inversa est dada por:
y yz z x
z x
/ ) (
2
1
=
=
siendo el valor absoluto del Jacobiano de la inversa es:
|J
1
| = |z/y
2
|
Definimos la siguiente transformacin:
- La funcin densidad conjunta de Y y Z es:
1 0 , 0 , ) / ( / ) / ) ( , ( ) , (
/ 2 2
2 1
,
< < > = =

y z e y z y z y yz z z f z y g
y z
X X Z Y

} }


= =
0 0
/ 2
,
) / ( ) , ( ) ( dz e y z dz z y g y g
y z
Z Y Y
- La marginal de Y es:
Haciendo el cambio de variable u = z/y se tiene que
}


< < = I = =
0
1 0 , 1 ) 2 ( ) ( y du ue y g
u
Y

es decir, Y tiene distribucin uniforme en (0,1).
Ejemplo
Sean X
1
y X
2
variables aleatorias independientes, cada una con
distribucin uniforme sobre el intervalo (0,1). Determinemos la
funcin de densidad de Y = X
1
+X
2
.
1 0 , 1 0 1 ) ( ) ( ) , (
2 1 2
2
1
1
2 1
< < < < = = x x x f x f x x f
X X
si ;
Considerando la transformacin uno a uno
2
2 1
x z
x x y
=
+ =
- La transformacin inversa est dada por:
z x
z y x
=
=
2
1
siendo su Jacobiano J
1
= 1
Como X
1
y X
2
son variables aleatorias independientes, entonces la
densidad conjunta de X
1
y X
2
es el producto de las marginales
correspondientes; esto es,

- La funcin densidad conjunta de Y y Z es:
1 , 1 0 , 1 ) , ( ) , (
2 1
,
+ < < < < = z y z z z z y f z y g
X X Z Y

+ < < e
=
casos otros en
si
0
1 ), 1 , 0 ( 1
) , (
,
z y z z
z y g
Z Y
o bien
Para obtener la densidad marginal de Y integramos
separadamente en: y 0 ; 0 <y < 1 ; 1 <y < 2 e y 2.

>
< < =
< < =
s
=
}
}

2 0
2 1 2
1 0
0 0
) (
1
1
0
y
y y dz
y y dz
y
y g
y
y
Y
si
si
si
si
Ejemplo
Supongamos que X
1
, X
2
y X
3
son variables aleatorias independientes,
cada una con distribucin exponencial de parmetro = 1.
Calculemos la funcin de densidad de Y = (X
1
+X
2
+X
3
)/3.
Considerando la siguiente transformacin uno a uno
3 3
2 2
3 2 1 1
3 / ) (
x y
x y
x x x y
=
=
+ + =
0 , 0 , 0 ) , , (
3 2 1
)
3 2 1
(
3 2 1
> > > =
+ +
x x x e x x x f
x x x
,
Como las variables son independientes, la densidad conjunta est dada
por:
- La transformacin inversa est dada por:
3 3
2 2
3 2 1 1
3
y x
y x
y y y x
=
=
=
siendo su Jacobiano J
1
= 3
- La densidad conjunta de Y
1
, Y
2
e Y
3
es:
0 , 0 , 0 3 3 ) , , (
3 2 3 2 1
1
3 2 1
> > > =

y y y y y e y y y f
y
;
0 ,
2
27
3 ) (
1
3
1
2
1
1
3
0
2 1
3
0
2 3
1
3
1
1
> = =


} }
y e y dy dy e y f
y
y y y
y
Y

y la densidad marginal de Y
1
= (X
1
+ X
2
+ X
3
)/3
Ejemplo
Sean X
1
y X
2
variables aleatorias independientes, cada una con
distribucin Poisson con parmetro comn . Queremos determinar la
funcin de probabilidades de Y = X
1
+X
2
.
Definiendo la siguiente transformacin uno a uno:
2 2
2 1 1
X Y
X X Y
=
+ =
Cuya transformacin inversa es
2 2
2 1 1
Y X
Y Y X
=
=
Como X
1
y X
2
son independientes, entonces la funcin de
probabilidad conjunta es
,... 1 , 0 ,...; 1 , 0 ,
! !
,... 1 , 0 ,...; 1 , 0 ), ( ) ( ) , (
2 1
2
2
1
1
2 1 2
2
1
1
2 1
= = =
= = =

x x
x
e
x
e
x x x p x p x x p
x x
X X




La funcin de probabilidad conjunta de Y
1
e Y
2
es
2 1
2 1
2 2 1
1
2
2 2 1
2 1
2 1
2 1
) , (
! )! (
) , ( ) , (
Y Y
y
X X Y Y
R y y
y y y
e
y y y p y y p e

= =

} 0 : ) , {(
1 2 2 1
2 1
y y y y R
Y Y
s s Z Z e =
+ +
donde
La funcin de probabilidad de Y
1
= X
1
+X
2

,... 1 , 0
!
) 2 (
! )! (
) (
1
1
1
2 1
0
2
2 2 1
1
2
1
1
= =

=

=

y
y
e
y y y
e
y p
y
y
y
y
Y
,


Por lo tanto, Y
1
= X
1
+X
2
es una variable aleatoria con distribucin
Poisson de parmetro 2.
4.5 Variables aleatorias multidimensionales
X = (X
1
, X
n
) es un vector aleatorio continuo si cada
una de sus componentes X
i
, i = 1,,n es una variable
aleatoria continua. Anlogamente, diremos que X es
discreto si cada X
i
, i = 1,.,n, es una variable aleatoria
discreta. En cada caso y segn corresponda, podemos
asociar a X una funcin de probabilidades o una funcin
de densidad de probabilidades, respectivamente.
Si X es discreta, la funcin de probabilidad asociada es
n
n n n X
x x x X x X P x p 9 e = = > ) ,..., ( ), ,..., ( ) (
1 1 1

La funcin de probabilidades para la variable n-dimensional
debe satisfacer las reglas anlogas al caso unidimensional:

=
9 e = >
1 ) ( )
) ,..., ( , 0 ) ( )
1
x p ii
x x x x p i
X
n
n X

Dada p
X
(x), podemos calcular las marginales, haciendo
} , 1 ; : { ), ( ) (
1
n j i j x R x p x p
j
i
R
X i
i
X
= = = =

donde
} , 1 ; : { , ) ( ) , (
1
n k i j k x R x p x x p
k
R
X
j i
j
X
i
X
= = = = =

con
Tambin se puede determinar la funcin de probabilidades
conjuntas de dos o ms componentes, a partir de p
X
(x).
Las variables aleatorias X
i
, i=1,,n, son idnticamente
distribuidas si cada una de ellas tiene la misma distribucin
de probabilidades.
Las variables aleatorias X
i
, i=1,,n son independientes si
y slo si
discreta nte conjuntame es cuando
continua nte conjuntame es cuando
X x x p x p
X x x f x f
n
n
i
i
i
X X
n
n
i
i
i
X X
, ) ( ) (
, ) ( ) (
1
1
9 e =
9 e =
[
[
=
=
Teorema 4.5 Si X
1
,,X
n
son variables aleatorias
independientes y si Y
1
=G
1
(X
1
),,Y
n
=G
n
(X
n
), son funciones
de X
1
,,X
n
, respectivamente, entonces Y
1
,,Y
n
son
variables aleatorias independientes.
Teorema 4.6 Si X
1
,X
2
,,X
n
son variables aleatorias
independientes y si Y
1
=G
1
(X
1
,,X
r
), Y
2
=G
2
(X
r+1
,,X
p
),,
Y
m
=G
m
(X
k+1
,,X
n
), donde Y
j
, j=1,,m son funciones de
subconjuntos mutuamente excluyentes de X
1
,X
2
,,X
n
.
Entonces Y
1
,Y
2
,,Y
m
son variables aleatorias
independientes.
4.6 Distribucin X
2
, t y F
La distribucin X
2
es un caso especial de la distribucin
Gamma. Si consideramos la variable aleatoria Z con
distribucin normal estndar, entonces la funcin de
distribucin de U = Z
2
, para todo t 0 est dada por:
1 ) ( 2 1 ) ( 2 ) ( ) ( ) (
2
u = = s s = s = t t F t Z t P t Z P t F
Z U
y su funcin de densidad
0 , ) 2 ( ) ( ) ( ) (
2 / 2 / 1 2 / 1
> = = =

t e t t f t t F
dt
d
t f
t
Z U U
t
Teorema 4.7 Si Z
1
,,Z
n
son variables aleatorias normales
estndar, independientes, entonces:

=
2
) (
2
n i
Z U _ n distribuci tiene
Ejemplo
Supongamos que X es una variable aleatoria con funcin de
densidad
0 ,
4
1
) (
2 /
> =

x xe x f
x
X

entonces la funcin de densidad de X corresponde a la de una Chi-
cuadrado con 4 grados de libertad.
2 / 4
2 / 1 2 / 4
2 /
2 ) 2 / 4 (
4
1
) (
I
= =

x
x
X
e x
xe x f
Teorema 4.8 Si X
1
,,X
n
son variables aleatorias
independientes, cada una con distribucin X
2
con v
1
,,v
n

grados de libertad, respectivamente, entonces:

= libertad. de grados con cuadrado - Chi n distribuci tiene
i i
v X Y
Teorema 4.9 Sean X
1
y X
2
variables aleatorias independientes.
2
1
2 1
2
2 1
2
1
1
, ~ ~
v v v v
X v v X X X

> + _ _ _ distribuye se entonces, y Si
La Distribucin t-Student: Sea Z una variable aleatoria
normal estndar, y X una variable que se distribuye Chi-
cuadrado con v grados de libertad. Si Z y X son
independientes, entonces la variable aleatoria T definida por
v X
Z
T
/
=
tiene distribucin t-Student con v grados de libertad. La
notacin usual es Y ~ t
v
.
Siendo su funcin de densidad
< <
+

I
+ I
=
+
t
v t
v v
v
t f
v
T
,
)] / ( 1 [
1
) 2 / (
) 2 / ) 1 ((
) (
2 / ) 1 ( 2
t
La Distribucin F de Snedecor: Sean X
1
y X
2
, variables
aleatorias Chi-cuadrado con v
1
y v
2
grados de libertad,
respectivamente. Si X
1
y X
2
son independientes, la variable
aleatoria
1 2
2 1
2 2
1 1
/
/
v
v
X
X
v X
v X
F = =
Siendo su funcin de densidad
0 ,
) 1 (
2 2
2
) (
2 / )
2 1
(
2
1 2 1
1
2
1
2
1
2
1 2 1
>
+
|
.
|

\
|
I
|
.
|

\
|
I
|
|
.
|

\
|
|
.
|

\
|
+
I
=
+
|
.
|

\
|

t
t
v
v v v
t
v
v v v
t f
v v
v
v
v
F
El valor esperado de F es:
2
] [
2
2

=
v
v
F E
La varianza de F es:
) 4 ( ) 2 (
]
2
1 [ 2
] [
2
2
2
1
2
2
2

+
=
v v
v
v
v
F Var
4.7 Sumas de variables aleatorias
Si X
1
, X
n
son variables aleatorias independientes e
idnticamente distribuidas, diremos que ellas conforman una
muestra aleatoria.
Teorema 4.10 Sean X
1
,,X
n
variables aleatorias
independientes e idnticamente distribuidas, con funciones
generadoras de momentos M
X1
(t),,M
Xn
(t), respectivamente.
Si definimos:

=
=
n
i
i
X Y
1
Entonces la funcin generadora de momentos de Y es:
n
X Y
t M t M )] ( [ ) ( =
Ejemplo
tenemos que
Supongamos que X
1
,,X
n
son variables aleatorias Bernoulli
independientes, idnticamente distribuidas, cada una con
parmetro p. Entonces M
xi
(t)=q + pe
t
, i=1,,n.
Si definimos:

=
=
n
i
i
X Y
1
n t n
X Y
pe q t M t M ) ( )] ( [ ) ( + = =
Ejemplo
Supongamos que X
1
,,X
n
son variables aleatorias normales
independientes, con medias
1
,,
n
y varianzas o
1
2
,,o
n
2

respectivamente. Entonces
) 2 / exp( ) (
2 2
i i
i
X
t t t M o + =
Si definimos
s arbitraria constantes con
i
n
i
i i
a X a Y ,
1

=
=
Entonces tenemos que
) 2 / exp( ) ( ) (
2 2 2
1
i i i i
n
i
i
i
X Y
a t a t ta M t M o + = =
[
=
Entonces

< = =
+ = =
j i
j i j i
n
i
i i Y
n
i
i i Y
X X Cov a a a a ) , ( 2 ,
1
2 2 2
1
o o
Teorema 4.11 Sean X
1
,,X
n
variables aleatorias con medias

1
,,
n
y varianzas o
1
2
,,o
n
2

respectivamente. Definiendo
s arbitraria constantes con
i
n
i
i i
a X a Y ,
1

=
=
Teorema 4.12 Sean X
1
,,X
n
variables aleatorias no
correlacionadas. Si

= = =
= = =
n
i
i i
Y
n
i
i i Y
n
i
i i
a a X a Y
1
2 2 2
1 1
, o o y entonces
Teorema 4.13 Sean X
1
,,X
n
variables aleatorias
independientes e idnticamente distribuidas, cada una con
media y varianza o
2
. Si
2 2
1
, o o n n X Y
Y Y
n
i
i
= = =

=
y entonces
4.8 Mximos y mnimos
Sean X
1
,,X
n
, n variables aleatorias independientes e
idnticamente distribuidas con funcin de distribucin F
X
(x). Si
ordenamos las variables aleatorias en forma ascendente de
acuerdo a su magnitud, podemos definir dos funciones de
inters primordial en estadstica. Ellas son el mximo y el
mnimo, denotadas por:
}
}
n
n n
X X Mnimo X
X X Mximo X
, , {
, , {
1 ] 1 [
1 ] [

=
=
- La funcin de distribucin acumulada del mximo de n
variables aleatorias independientes e idnticamente distribuidas
es:
n
X
t F t G )) ( ( ) ( =
Si las variables son continuas, podemos obtener la funcin
de densidad del mximo.
) ( )) ( (
) (
) (
1
t f t F n
dt
t dG
t g
X
n
X

= =
- La funcin de distribucin acumulada del Mnimo de n
variables aleatorias independientes e idnticamente
distribuidas es:
n
X
t F t H )] ( 1 [ 1 ) ( =
Si las variables son continuas, la funcin de densidad del
mnimo es:
) ( ))] ( 1 [(
) (
) (
1
t f t F n
dt
t dH
t h
X
n
X

= =
Ejemplo
Supongamos que X
1
,,X
n
son n variables aleatorias
independientes, cada una con distribucin exponencial de
parmetro >0. La funcin de densidad del mximo y
mnimo respectivamente son:
y
0 , ) 1 ( ) (
1
> =

t e e n t g
t n t
si


0 , )] 1 ( 1 [( ) (
1
> = =

t e n e e n t h
tn t n t
si

You might also like