You are on page 1of 11

(SEGUNDO PARCIAL)

DISTRIBUCIONES DE PROBABILIDADES UNIDIMENSIONALES

-DISTRIBUCIONES DISCRETAS

Ensayos Bernoulli (Jaques Bernoulli)


Éxito Fracaso
1 0 p+q= 1
P 1-P

F(x)= Px (1-P)1-x x= 0,1 usando la función indicadora


0 p.c.o.v. px (1-p)1-x I{0,1}(x)

Donde 0 < p < 1 y 1-p se puede denotar como q

E(x)= p Var. (x)= pq

-DISTRIBUCIÓN BINOMIAL

Se usa en inspección de calidad, mercadotecnia, medicina, etc. Es una sucesión de ensayos Bernoulli
donde la probabilidad de éxitos es p.

P(e) = p P(f) = 1-p = q

X representa el numero de éxitos en n ensayos, en esta se debe de obtener exactamente: X=x. Las
suposiciones para esta distribución son:

1) La probabilidad de éxito (P) permanece constante para cada ensayo.


2) Los n ensayos son independientes entre si.

La función de probabilidad se obtiene cuando hay x éxitos seguidos de n-x fracasos.

Px (1-P)n-x

multiplicando por el número de ordenes distintas, tenemos:

n Px (1-P)1-x x=0,1,2,…,n
b(x; n, p)= x

0 p.c.o.v.

E(x) = np Var.(x)= npq

*Para esta función de probabilidad es necesario tener el numero de ensayos (n) así como la probabilidad
del éxito (p) y lo que se busca es la probabilidad de éxitos (x) en n ensayos.

-DISTRIBUCION ACUMULADA

F(X < x) = b(0; n, p) + b(1; n, p) + … + b(x; n, p)


F(x1 < X < x2) = F(X < x2) - F(X < x1-1).
F(X > x2) = 1 - F(X < x2-1)

-DISTRIBUCIÓN BINOMIAL NEGATIVA

Es la probabilidad de tener k éxitos en n ensayos con el último siendo un éxito. Esta distribución también
es conocida como distribución de pascal.

n-1 pk qn-k p(n; k, p)


k-1
*En este caso, lo que se es necesario es el número de éxitos (k), su probabilidad (p), y lo que se busca es
la probabilidad de k éxitos en n ensayos.

k+x-1 Pk (1-P)x x=0,1,2,…


p(x; k, p)= k-1 k=1,2,…

0 p.c.o.v.

-DISTRIBUCIÓN GEOMÉTRICA

Cuando k=1 surge un caso especial llamado distribución geométrica, esto es:

p(x; p) = p (1-p)x-1 x= 1,2,3,… (incluido el éxito)

La variable aleatoria geométrica representa el número de intentos en el cual se presenta el primer éxito.
-Se usa como modelo para la distribución de la longitud de tiempo de espera.

E(x) = 1/p Var.(x) = (1-p)/ p2

-DISTRIBUCIÓN HIPERGEOMÉTRICA

N = objetos o personas

K N-K n
Pertenecientes pertenecen
A una clase a otra clase x n-x
Valor que nos
Interesa

Sea N el número total de objetos, de manera tal que k de estos es de un tipo y N-k de otro, si
seleccionamos una muestra aleatoria de la población constituida de n objetos de la probabilidad de que x
sea de un tipo exactamente y n-x sea del otro esta dada por la función de probabilidad Hipergeométrica

K n-K x=0,1,2,3,…,n
P(x; N, n, K) = x n-x n - x < n-K
N N, n, K enteros positivos
n

0 p.c.o.v.

* Sus parámetros son N, n, k. Una condición fundamental es que sea sin reemplazo.

E(x) = nK = np Var.(x) = nK(N-K) N-n


N N2 N-1

Si el tamaño de la muestra n es relativamente pequeño, con respecto a N, X tendrá a aproximadamente


una distribución Binomial y cuando n es relativamente grande usamos la Hipergeométrica, las n pruebas
ya no son mutuamente independientes ya que las muestras son sin reemplazo, la aparición de un éxito o
un fracaso dependen de cuales hayan sido los resultados de las pruebas anteriores.

Aplicaciones:

-Se usa en control de calidad y aceptación de muestreo.


-DISTRIBUCIÓN HIPERGEOMÉTRICA MULTIVARIADA

Si N resultados se pueden dividir en k celdas: A1,A2,A3,…,Ak con a1,a2,a3,…,ak elementos


respectivamente entonces la distribución de probabilidad de las variables aleatoria x1,x2,x3,…,xk que
representan al número de elementos seleccionados de una muestra aleatoria de tamaño n es:

F(x1,x2,x3,…,xk; a1,a2,a3,…,ak, N, n) = a1 a2 a3 … ak
x1 x2 x3 … xk

N
n
-DISTRIBUCIÓN POISSON
(Ocurrencias en promedio por unidad de medida)

Sea x una variable aleatoria que representa el número de eventos aleatorios independientes que ocurren a
una rapidez constante sobre el tiempo o el espacio y su función de probabilidad es:

ã- l l x
P(x; ) = x! tomando x=0, 1,2,…

0 p.c.o.v.

Su parámetro es  (número promedio de ocurrencias del evento aleatoria por unidad de tiempo o
espacio).

Aplicaciones:

-En análisis de problemas de líneas de espera (colas), control y aseguramiento de calidad, en muestreo.

Teorema:

Sea x una variable aleatoria distribuida binomialmente con parámetros p con base en n repeticiones del
experimento, esto es:

P(X=k)= n pk (1-p)n-k
k

Supóngase que cuando n tiende a  , np=  (constante), p tiende a cero tal que:

ã- l l x
np -->  esto es: lim p(X=k) = x!
n -> 

Esto nos dice que podemos aproximar las probabilidades de la Distribución Poisson
siempre que n sea grande y p pequeño.

E(x)=  Var.(x)= 

-DISTRIBUCIÓN MULTINOMIAL

Si un intento determinado puede ocurrir en cualquiera de los k resultados Ei con sus probabilidades pi,
entonces la distribución de probabilidad de las variables aleatorias xi que representan el número de
ocurrencias en n intentos, es:

F(X1,X2,…,Xk; P1,P2,…,Pk, n) = n P1x1 P2x2 … PkXk


X1, X2, X3,…,Xk
*Ei = Las particiones X1 = Cuantas veces las particiones n= número total de las particiones

P1 = Probabilidad de que pase alguna partición

DISTRIBUCIONES DE PROBABILIDADES CONTINUAS

La probabilidad de una variable aleatoria continua esta representada por el área bajo la curva que
representa su función de densidad, entre los límites del intervalo y satisface las siguientes condiciones:

àH
L
a) F(X) > para todo x

b)
¥
F x âx =1

àH
L

c) Para cualquier a,b tenemos:

b
F x âx
p(a < x < b)= a (probabilidad acumulada)

Experimentos que nos generan espacios muestrales infinitos:


- Duración de la vida - Índices de natalidad - Medidas de tiempo
- Peso - Estatura - Índices de mortalidad

-DISTRIBUCIÓN NORMAL

Se deduce por De Moivre (1783), fue analizada y aplicada a los errores de observación por Gauss, por eso
se le conoce como campana de Gauss.

HL !!! I M
Se dice que una variable aleatoria x se encuentra distribuida si su función de densidad esta dad por

1 -1 x- m 2
f x; m, s = ã 2 s
2p s

!!!

-Forma Canónica

1 -z2
ã 2
2p Distribución estandarizada x – N (0,1) con parámetro  =0  =1

Propiedades:

1.- La moda está sobre el eje horizontal donde la curva tiene su máximo ocurre en x=  .
2.- La curva es simétrica alrededor de .
3.- La curva tiene sus puntos de inflexión en x=  +  .
4.-La curva se acerca al eje horizontal en forma asíntota.
5.- El área total de la curva es 1 y el achatamiento de la curva se determina por sigma cuadrada.

-DISTRIBUCIÓN ACUMULADA
HLHL
!!!àI M
p X £ x = F x; m, s =

t- m
1
2p s
x - 1
ã 2

x- m 2
s âx

z= t =m+sz
s
1
dz = dt dt = sdz

J N
!!!à
s

t- m z2
t- m 1 -

H L
s
p z£ = ã 2 âz

!!!àI M
s 2p -¥

-ÁREA BAJO LA CURVA NORMAL

1 x2 - 1 x- m 2
p x1 £ X £ x2 = ã 2 s âx
2p s x1

P(x1 < X < x2) para diferentes curvas.

H

-FUNCION GAMMA

H
LHL
G p =

G n = n- 1 !
¥

0
xp- 1 ã- x âx

Para evaluar integrales en donde el integrando es un producto de una potencia por un exponencial
negativo sobre la recta de los reales positivos, para este caso es mejor emplear la función gamma.

H

Propiedades:

HLH
L
¥

HLHL
G p = xp- 1 ã- x âx

!
!

0

H
L
G n +1 = n !

H
LHL
G n +1 = nG n
G 1 2 = p
G n = n - 1 ! si n e Z+

-DISTRIBUCIÓN BETA

H
HL HL
LHL
LH
F x; a, b =
G a +b
G a G b
xa- 1 1 - x b- 1
a, b > 0

0 p.c.o.v.

m=
a
a +b HLHL s2 =
a+b 2
ab
a+b +1

Se usa para representar variables físicas cuyos valores se encuentran registrados en un intervalo de
longitud finita, se utiliza también como un modelo para atracciones, tal como proporciones de impureza
en un producto químico, o la fracción de tiempo que una máquina esta en reparación.

-DISTRIBUCIÓN ACUMULADA
HLHL H HL
LàHL
LH
p X £ x = F x; a, b =
G a +b
G a G b 0
¥
ta- 1 1 - t b- 1
ât

H
H L
LàHL
LHG a +b
G a G b
¥

0
ta- 1 1 - t b- 1
ât = 1
1 x>1

-DISTRIBUCIÓN GAMMA

HL H
Sea x una variable aleatoria continua que toma solo valores no negativos y tiene una distribución gamma

L
con parámetros alfa y beta mayores que cero entonces:

1 - x
F x; a, b = xa- 1 ã b a, b > 0 x >0
G a ba

H
L
0 p.c.o.v.

E x =ab s 2 = ab2

Aplicaciones:

-Para representar el tiempo aleatorio de falla de un sistema que ocurre cuando de manera exacta las
componentes fallan.
-Ingresos familiares, edad del hombre al contraer matrimonio.

!!!

*Nota: Para valores grandes de  podemos aproximar a una distribución normal.
x - ab
Z=
ab2

HLHLH

-DISTRIBUCIÓN ACUMULADA

1 X - t
p X £ x = F x; a, b = ta- 1 ã b ât
G a ba 0

HL
-DISTRIBUCIÓN EXPONENCIAL
(Caso especial de la distribución gamma cuando alfa = 1)

1 - x
f x; q = ã q q >0
q

H
L HL
E x =q

Aplicaciones:
Var. x =q2
0 p.c.o.v.

-Para modelos de duración de componentes electrónicos, se usa en teoría de colas. En teoría de


confiabilidad.

HL
-DISTRIBUCIÓN UNIFORME

1
f x; a, b = a <x < b
b- a
0 p.c.o.v.

*Parámetros: a y b.

m=
a +b
2
2
s =
HL
b- a
12
2

HL
-DISTRIBUCIÓN ACUMULADA

F x; a, b = 0 para x < a

x- a
a <x < b
b- a

1 x>b

Para un intervalo [a1, b1] tenemos:

P(a1 < x < b1)= b1-a1


b-a

(TERCER PARCIAL)

DISTRIBUCIÓN CONJUNTA DE PROBABILIDAD


CASO DISCRETO

Sean X y Y dos variables discretas, la probabilidad de que X=x y Y=y esta determinada por la función de
probabilidad bivariada:

p(x, y) = p (X=x, Y=y) los resultados de X y Y ocurren al mismo tiempo.

La función f(x, y) es una distribución de probabilidad conjunta de las variables aleatorias X y Y si:

2 LââHL
1) f(x, y) 0

X Y
 (x,y)

f x, y =1

3) p(x=x, Y=y)= f(x ,y) para cualquier región A en el plano xy P[(x, y)  A]=  f(x,y)
Cuando se requiere medir mas de una característica en algún fenómeno aleatorio se requiere hacer uso de
modelos multivariados.

DISTRIBUCION DE PROBABILIDAD MULTIVARIADA

Lleva las tres propiedades anteriores.

F(x, y) = P (X < x, Y < y) =   p(Xi, Yi)

CASO CONTINUO

Sea X y Y dos variables aleatorias continúas si existe una función f(x, y) tal que la probabilidad conjunta
este dada por:
LHHL LààHL
1 p a £ x £ b, c £ y £ £ £ d =
b d
f x, y âx â y para cualquier valor a, b, c,

LààHL
a c
d en donde f x, y ³ 0 - ¥ £ x < y £ ¥

¥ ¥
2 f x, y âx â y =1
-¥ -¥

L@HLD
ààHL
3) f(x,y) es la función de densidad de probabilidad bivariada de X y Y

4 P x, y Î A =
A
f x, y â x â y para cualquier región de A en el plano xy

FUNCIÓN DE DISTRIBUCIÓN BIVARIADA ACUMULADA DE X Y Y

H LHL
ààHL
Es la probabilidad conjunta X < x y Y< y dada por:

HL HL
x y
p X £ x, Y £ y = F x, y = f u, v â v â u
-¥ -¥
si queremos conocer f x, y y tenemos F x, y entonces tendremos que hacer las derivadas parciales
de X y Y.

Dada la distribución acumulada podemos calcular:

p(a xb, cyd)= [f(b)-f(a)][f(d)-f(c)]

DISTRIBUCIONES MARGINALES DE PROBABILIDAD


CASO DISCRETO

Sean X y Y variables aleatorias discretas con función de probabilidad de densidad conjunta p(x, y). Las
funciones marginales de probabilidad de X y Y están dadas por:

Fx(x)=gx(x)=Px(x)=  p(x,y)
y

Fy(y)=hy(y)=Py(y)=  p(x,y)
x

CASO CONTINUO

H
LàHL
Sean X y Y variables aleatorias continuas con una función de densidad de probabilidad conjunta f(x, y).
Las funciones de densidad de probabilidad marginales están dadas por:
¥
fx x = f x, y â y

H
LàHL

¥
fy y = f x, y âx

DISTRIBUCIONES ACUMULATIVAS MARGINALES DE X Y Y

Se obtienen de la siguiente forma:


HLH
LààH
HL
à L HL
x ¥
p X £ x = Fx x = f t, y â y ât
-¥ -¥
x
= fx t ât = F x, ¥

HLH
LààH
HL

à L HL
y ¥
p Y £ y = Fy y = f x, t â x ât
-¥ -¥
y
= fy t ât = F ¥ , y

H LHLààHL
Distribución acumulada de X y Y

p X £ x, Y £ y = F x, y =
x y

-¥ -¥
f u, v â v â u

Para variables aleatorias X1,X2,…,Xn tenemos f(X1,X2,…,Xn) entonces la distribución marginal esta
dada por:

H
LâââH L
CASO DISCRETO

fX1 =g X1 =
X2 X3
...
Xn
f X1, X2, ..., Xn
para valores del intervalo de X1

H LâââH L
Ahora la distribución marginal de X1, X2 y X3 esta dad por:

m X1, X2, X3 =
X4 X5
...
Xn
f X1, X2, ..., Xn

CASO CONTINUO

H
Làà àH L
Si tenemos X1,X2,…,Xn variables aleatorias continuas con función de densidad f(X1,X2,…,Xn) su
densidad de probabilidad conjunta, su densidad marginal de X2 esta dad por:

HLàà àH L
¥ ¥ ¥
h X2 = ... f X1, X2, ..., Xn â X1 âX3 ... âXn
-¥ -¥ -¥
¥ ¥ ¥
j X1, Xn = ... f X1, X2, ..., Xn â X2 âX3 ... âXn - 1
-¥ -¥ -¥
- ¥ £ X1 £ Xn £ ¥

DISTRIBUCIONES CONDICIONALES

ÈLH
H L
LHL
Si f(x, y) es el valor de la distribución de probabilidad conjunta en las variables aleatorias discretas X y Y

H
en todos (x,y) y h(y) es el valor de la distribución marginal de Y en y, la función dada por:

f x, y
f x y = h y ¹ 0
h y
Para X dentro del intervalo X se llama la distribución condicional de x dado Y=y. De igual manera se
g(x) es la distribución marginal de X en x la función dada por:
ÈLH
H
w y
HL
LHL x =
f x, y
g x
g x ¹ 0

Para y dentro del intervalo de Y se llama distribución condicional de Y dado X=x.

VARIABLES ALEATORIAS ESTADÍSTICAMENTE INDEPENDIENTES

Sea X y Y dos variables aleatorias con distribución conjunta. Se dice que X y Y son estadísticamente
independientes si y solo si:

P(x, y) = Px(x) Py(y) si X y Y son discretas


F(x, y) = fx(x) fy(y) si X y Y son continuas

En general:

F(X1,X2,…,Xn) =  fi(Xi) para todo (X1,X2,…,Xn)

MOMENTOS

H

m'r = E xr =HL
Sea X una variable aleatoria. El r-esimo momento de x alrededor de cero se define como:

àHL =
xr p x

xr f x âx
si x es discreta

si x es continua

Momento alrededor de cero no. 1=La media o valor esperado.


2=Como se dispersa alrededor de  .
3=Si hay simetría o no (si hay un sesgo a la derecha o a
. la izquierda).
4=Que tan aplanada o puntiaguda esta la grafica.

HLà
â
H LH
L
Sea X una variables aleatoria, el r-esimo momento central de X o el r-esimo momento de la media de X
se define por:

HLHL
mr = E x - m r =

=
x- mr p x

x - m r f x âx
si x es discreta

si x es continua

COEFICIENTE DE ASIMETRÍA
m3
a3 = a3 > 0 asimetría positiva
3
m2 2
a3 > 0 asimetría negativa

a3 = 0 simétrica

COEFICIENTE DE CURTOSIS
a4 =
m4
m22
a4 > 0 H
HL L
platicurtica sin que se note mucho la curva

H
a4 > 0 letocurtica puntiaguda

a4 =0 mesocrotica campana de gauss