Professional Documents
Culture Documents
CAPTULO 6
DEFINICIONES DE PROBABILIDAD Definicin clsica
S u p n g a s e que un evento E puede suceder de h maneras, de un total de n posibles formas igualmente probables. Entonces, la probabilidad de ocurrencia de dicho evento (llamado xito) se denota por p = Pr{E}=n
L a probabilidad de no ocurrencia del evento (llamado/racaso) se denota por q = Pr {noE}=?-^= 1 - = 1 -p= 1 - Pr{}
Por lo tanto, p + q - l o P r { } + Pr{no } = 1. E l evento "no " en ocasiones se denota por E,E o ~E. EJEMPLO 1 Sea sel evento en que al lanzar un dado una vez se obtenga un 3 o un 4. Existen seis formas en que el dado puede caer, siendo stas las caras 1,2, 3,4, 5 o 6; si el dado es bueno (es decir, no est cargado), se supone que las 6 caras tienen la misma probabilidad de ocurrir. Puesto que E puede ocurrir en dos de estas maneras, entonces p = Pr{} = 1 = 3. La probabilidad de no obtener un 3 o un 4 (es decir, obtener 1, 2, 5 o 6) es q = Pr{) = 1 - i = f. O b s r v e s e que la probabilidad de un evento es un n m e r o entre 0 y 1. Si el evento no llega a suceder, su probabilidad es 0. Si debe ocurrir (es decir, si su ocurrencia es una certeza), su probabilidad es 1. Si p es la probabilidad de que un evento ocurra, las probabilidades a favor de su ocurrencia son p : q (lase "p a q"); las probabilidades en contra de su ocurrencia son q : p. As. las probabilidades en contra de la ocurrencia de un 3 o un 4 en un solo lanzamiento de un dado bueno son q : p = : 3 = 2 : 1 (es decir, de 2 a 1).
. :
_ _2 t
"ecr/a elemental
de
probabilidad
te, con sus propios t r m i n o s . Por esto, algunas personas han propuesto una definicin es dstica de probabilidad. Para ellos, la probabilidad estimada o probabilidad emprica de evento es la frecuencia relativa de ocurrencia del evento cuando el n m e r o de observac: nes es muy grande. L a probabilidad es el lmite de la frecuencia relativa, conforme el nrr ro de observaciones crece en forma indefinida. EJEMPLO 2 Si l OOO lanzamientos de una moneda dan como resultado 529 caras, entonces la frecuencia relati de caras es de 529/1 000 = 0.529. Si en otros 1 000 lanzamientos resultan 493 caras, tenemos que frecuencia relativa de los 2 000 lanzamientos totales es de (529 + 493)/2 000 = 0.511. De acuerdo c la definicin estadstica, si se continuara de esta manera, se acercara cada vez ms a un nmero q representa la probabilidad de obtener una cara en un solo lanzamiento de la moneda. De los resultad presentados hasta ahora, ste debe ser 0.5, con un solo dgito. Para obtener ms dgitos habr q realizar ms observaciones. L a definicin estadstica, aunque til en la prctica, implica dificultades desde el pun de vista m a t e m t i c o , ya que q u i z no exista un n m e r o lmite real. Por esto, la moder teora de la probabilidad es axiomtica; es decir, la teora deja el concepto de probabilid; sin definir, de la misma manera en que punto y lnea no tienen una definicin en geometri
"^
Si la ocurrencia o no ocurrencia de ", no afecta la probabilidad de ocurrencia de entonces Pr[E lE} = Pr{E }. Por ello se dice que E y E son eventos independientes; e caso contraro, son eventos dependientes.
2 2 x 2
Si se denota mediante E E al evento en el cual "ambos, E y E , ocurren", llamado e ocasiones evento compuesto, entonces
X 2 ] 2
(j
En particular, Pv{E\E ]
2 x
= Pr{,} Pr{ }
2 2
(2
E:
2 3 2 3 i 2
P r { , } = Pr{-,} P r { l , } P r { l : }
t! 2 3
(J
Esta es la probabilidad de ocurrencia de E E y , y es igual a (la probabilidad de , ) X (1 probabilidad de E , dado queis, ha ocurrido) 3 (la probabilidad de E^njado que , y E hai ocurrido). En particular,
2 2
P T { E E E } = Pi{E}
2 }
Pr{E }
2
Pr{ }
3
(4
En general, si E , ,...,
2 3
respectivas p, p ,p ,...,
2 3
P\PiPi-PEJEMPLO 3
Sean E y EJ los eventos "cara en el quinto lanzamiento" y "cara en el sexto lanzamiento" de un moneda, respectivamente. Entonces E yE son eventos independientes; por lo tanto, la probabilidac de obtener caras en el quinto y sexto lanzamientos es (suponiendo que la moneda no est cargada)
] t 2
P r { , - } = P r { , } Pr{E }
2 2
= Q
= I
Distribuciones
de probabilidad
29
EJEMPLO 4
Si la probabilidad de que A est vivo dentro de 20 aos es de 0.7 y la probabilidad de que B est vivo dentro de 20 aos es de 0.5, entonces la probabilidad de que ambos estn vivos dentro de 20 aos es (0.7)(0.5) = 0.35. Supngase que una caja contiene 3 bolas blancas y 2 bolas negras. Sea Z?, el evento "la primera bola extrada es negra" y el evento E "la segunda bola extrada es negra"; considere que las bolas extradas no se regresan a la caja. Aqu, E y E son eventos independientes. La probabilidad de que la primera bola extrada sea negra es Pr{,} = 2/(3 + 2) = . La probabilidad de que la segunda bola extrada sea negra, dado que la primera bola fue negra, es Pr{ys,} = 1/ (3 + 1) = \. Por lo tanto, la probabilidad de que las dos bolas extradas sean negras es:
2 2
EJEMPLO 5
P r { , } = P r { , } Pr{E \E,}
2 2
= 1 I =
Pr{- + } = P r { } + P r { } - P r { }
1 2 1 2 1 2
(5)
(6)
Como e x t e n s i n de esto, si E E ,..., E son n eventos mutuamente excluyentes con las respectivas probabilidades de o c u r r e n c i a p , p , . . . , p , entonces la probabilidad de ocurrencia de E o E o E es p , + p + + p ,
{ 2 n 2 n 2 n
E l resultado (5) t a m b i n puede generalizarse a tres o m s eventos mutuamente excluyentes ( v a s e el problema 6.38). EJEMPLO 6 Si , es el evento "extraer un as de una baraja" y E es el evento "extraer un rey", entonces Pr{,} = 5^ = y Pr{E ) = A = fs- La probabilidad de extraer un as o un rey en un solo evento es
2 2
Pr{2-, + E } = P r { , } + P r { } = 1 + 1
2 2
dado que un as y un rey no pueden obtenerse en una sola extraccin; por lo tanto, son eventos mutuamente excluyentes. EJEMPLO 7 Si E es el evento "extraer un as" de una baraja y E es el evento "extraer una espada", entonces , y E no son mutuamente excluyentes, puesto que se puede obtener el as de espadas. Por consiguiente, la probabilidad de extraer un as o una espada o ambas es
2 2
Vr{E E }
x 2
_4_ 52
+
13 _ J _ 52 52
:
16 52
_4_
;
13
~eona elemental
de
probabilidad
funcin de frecuencia de X. Debido a que X puede tomar ciertos valores con probabilidades dadas, con frecuencia se le llama variable aleatoria discreta. Una variable aleatoria tambin se conoce como variable azarosa o variable estocstica. EJEMPLO 8 Sea que se lance un par de dados y que X denote la suma de los puntos obtenidos, entonces la distribucin de probabilidad es igual a la que se presenta en la tabla 6-1. Por ejemplo, la probabilidad de obtener la suma 5 es ^ = 5; as, en 900 lanzamientos de los dados, se esperara que en 100 de ellos la suma fuera 5. N t e s e que esto es a n l o g o a una distribucin de frecuencias relativas, donde las probabilidades reemplazan a las frecuencias relativas. Por l o tanto, se puede considerar a las distribuciones de probabilidad como formas tericas o ideales del lmite de distribuciones de frecuencia relativa cuando el n m e r o de observaciones realizadas es muy grande. Por esto, se p e n s a r a que las distribuciones de probabilidad son distribuciones de poblaciones, mientras que las distribuciones de frecuencia relativa son distribuciones de muestras obtenidas de dicha p o b l a c i n . T a b l a 6-1 X P(X) 2 1/36 3 2/36 4 3/36 5 4/36 6 5/36 7 6/36 8 5/36 9 4/36 10 3/36 11 2/36 12 1/36
L a distribucin de probabilidad puede representarse grficamente dibujando p(X) contra X, igual que en las distribuciones de frecuencia relativa ( v a s e el problema 6.11). Por medio de la a c u m u l a c i n de probabilidades, se obtienen distribuciones de probabilidad acumulada, que son a n l o g a s a las distribuciones de frecuencia relativa acumulada. L a funcin asociada con esta distribucin se denomina funcin de distribucin.
Continuas
Las ideas anteriores llegan a extenderse al caso en el que la variable X puede tomar un conjunto continuo de valores. E l p o l g o n o de frecuencia relativa de una muestra se convierte, en el caso terico o lmite de una poblacin, en una curva continua (como la de la figura 6-1), cuya e c u a c i n es Y = p(X). E l rea total bajo esta curva, y sobre el eje X, es igual a 1, en tanto que el rea baj o la curva entre las lneas X = a y X = b (sombreada en la figura 6-1) da la probabilidad de que X est entre a y b, que puede denotarse P r { a < X < b}.
F I G U R A 6-1
P(X)
Se llama a p(X) una funcin de densidad de probabilidad o, de forma breve, funcin de densidad; cuando dicha funcin est dada, se dice que se ha definido una distribucin de probabilidad continua para X. Entonces, la variable X se denomina variable aleatoria continua. Igual que en el caso discreto, es posible definir las distribuciones de probabilidad acumulada y las funciones de distribucin asociadas.
Anlisis combinatorio
131
ESPERANZA MATEMTICA
Si p es la probabilidad de que una persona reciba una suma de dinero S, entonces la esperanza matemtica (o simplemente la esperanza) se define como pS.
EJEMPLO 9
Si la probabilidad de que un hombre gane un premio de $10 es 5, su esperanza es de s($10) = $2. El concepto de esperanza es fcil de extender. Si X denota una variable aleatoria discreta que puede tomar los valores X ,X ,...,X con sus respectivas probabilidades P\,p ,---,p i donde p + p + +p = 1, la esperanza matemtica de X (o simplemente la esperanza de X), denotada por E(X), se define como
l 2 K 2 K x 2 K
E{X)
= X
Pl
+p2X -H + p X
2 K
=
M
PjXj
(7)
Si las probabilidades p de tal esperanza se reemplazan con las frecuencias relativas^/ /V, donde Y.fp la esperanza se reduce a(Y.fX)/N, que es la media aritmtica X de una muestra de t a m a o N, en la cual X X ,...,X aparecen con estas frecuencias relativas. Conforme N se hace m s y m s grande, las frecuencias relativas //N se aproximan a las probabilidades Pj. Por l o tanto, esto conduce a interpretar que E(X) representa la media de la poblacin de donde se obtuvo la muestra. Si llama m a la media de la muestra, puede denotar la media poblacional con la letra griega correspondiente fi (mu).
U 2 K
T a m b i n es posible definir la esperanza para variables aleatorias continuas, aunque esta definicin requiere el empleo del clculo.
ANLISIS COMBINATORIO
Para obtener probabilidades de eventos complejos, frecuentemente la e n u m e r a c i n de casos es difcil, tediosa o ambas. Para facilitar el trabajo se utilizan principios b s i c o s estudiados en un tema llamado anlisis combinatorio.
Principio fundamental
Si un evento puede ocurrir en cualquiera de rc, maneras y si, cuando esto ha ocurrido, c*re evento llega a ocurrir en cualquiera de n maneras, entonces el n m e r o de maneras em ambos eventos sucederan en el orden especificado es n n .
2 x 2
EJEMPLO
10
Si existen 3 candidatos para gobernador y 5 para alcalde, los dos cargos pueden ocapaaer: maneras.
,.Z
~ e : - a e e m e n t a ! de
probabilidad
Factorial de n
E l factorial de n, denotado por n\, se define como n\ =n(nl)(n-2) 1 (5)
Permutaciones
Una p e r m u t a c i n de n objetos diferentes, tomados de r a la vez, es una ordenacin de r objetos tomados de entre n objetos dados, con especial a t e n c i n prestada al orden de la eleccin. E l n m e r o de permutaciones de n objetos, tomando r a la vez, se denota por P , P(n,r) o P , y est dada por
n r nr
= n(n-\)(n-2)---{n-r+\)=j^-^
(9)
E l n m e r o de permutaciones de n objetos, que consisten de grupos en los que n son iguales, n son iguales, es
2
donde n = n + n H
x 2
(70)
E J E M P L O 12
dado que tiene una letra "e", 3 letras "s", 2 letras "t", 2 letras "a", una letra "d", 2 letras " i " y una letra "c".
COMBINACIONES
Una c o m b i n a c i n de n objetos diferentes, tomando r a la vez, es una seleccin de r objetos de los n objetos, sin prestar atencin al orden de eleccin. E l n m e r o de combinaciones de n objetos, tomando r a la vez, se denota con el s m b o l o
0
n\ EJEMPLO 13
. n(n - 1) (n - r + 1)
n\ r\(n - r)\
(11)
3-2 2!
stas son ab, ac y be. Observe que ab es la misma combinacin que ba, pero no la misma permutacin.
Relacin
de Id probabilidad
133
e~
(12)
FIGURA 6-2
El evento E + E es el conjunto de puntos que se encuentran ya sea en E o en E , o en ambos, mientras que el evento E E es el conjunto de puntos comunes a E y a E . A s , la probabilidad de un evento como E es la suma de las probabilidades asociadas con todos los puntos contenidos en el conjunto E . De forma similar, la probabilidad de E + E , simbolizada por Pr{E + E ] , es la suma de las probabilidades asociadas con todos los puntos contenidos en el conjunto E + E . Si E y E no comparten puntos en c o m n (es decir, los eventos son mutuamente excluyentes), entonces P r ^ + E ] = Pr{E ] + Pr{E }. Si hay puntos comunes, entonces P r { , + E ] = Pr{s,} + Pr{E } - PT{E E }.
X 2 X 2 X 2 x 2 X X X 2 X 2 X 2 X 2 2 X 2 2 2 X 2
E l conjunto E + E se denota como E U E y se denomina la unin de dos conjuntos. El conjunto E E se denota por E (~1 E y se denomina la interseccin de los dos conjuntos. Se puede extender a m s de dos conjuntos; as, en lugar de E + E + y E E E , se pueden usar las notaciones E U E U E y E (1 E D E , respectivamente.
X 2 X 2 X 2 X 2 X 2 3 X 2 } X 2 X 2 3
El s m b o l o <f> (letra griega phi) se utiliza para indicar un conjunto sin puntos llamado conjunto vaco. L a probabilidad asociada con un evento correspondiente a este conjunte a cero (es decir, Pr{ <p] = 0). Si en E y E no hay puntos en c o m n , se puede escribir E E - c que significa que los eventos correspondientes son mutuamente excluyentes. de donde Pr{E E ) = 0.
2 x 2
Con este enfoque moderno, una variable aleatoria es una funcin definida en cada pasto del espacio muestral. Por ejemplo, en el problema 6.37 la variable aleatoria es la s*at ae las coordenadas de cada punto. En el caso en que S tenga un n m e r o infinito de puntos, las ideas anienarc* se amernden utilizando conceptos de clculo.