Professional Documents
Culture Documents
1. INTRODUCCION
El objetivo del curso es que el estudiante aprenda a reconocer los problemas tipo de
la Investigacin de Operaciones de modo que sepa a qu tcnico recurrir en cada
caso, para un adecuado estudio y solucin del mismo.
Como su nombre lo indica, la Investigacin de Operaciones (IO), o
Investigacin Operativa, es la investigacin de las operaciones a realizar para el logro
ptimo de los objetivos de un sistema o la mejora del mismo. Esta disciplina brinda y
utiliza la metodologa cientfica en la bsqueda de soluciones ptimas, como apoyo
en los procesos de decisin, en cuanto a lo que se refiere a la toma de decisiones
ptimas y en sistemas que se originan en la vida real.
Antecedentes histricos
El trmino IO se utiliza por primera vez en el ao 1939 durante la 2da Guerra
Mundial, especficamente cuando surge la necesidad de investigar las operaciones
tcticas y estratgicas de la defensa area, ante la incorporacin de un nuevo radar, en
oportunidad de los ataques alemanes a Gran Bretaa. El avance acelerado de la
tecnologa militar hace que los ejecutivos y administradores militares britnicos deban
recurrir a los cientficos, en pos de apoyo y orientacin en la planificacin de su
defensa. El xito de un pequeo grupo de cientficos que trabajaron en conjunto con el
ejecutivo militar a cargo de las operaciones en la lnea, deriv en una mayor
demanda de sus servicios y la extensin del uso de la metodologa a USA, Canad y
Francia entre otros.
Sin embargo, el origen de la Investigacin Operativa puede considerarse como
anterior a la Revolucin Industrial, aunque fue durante este perodo que comienzan a
originarse los problemas tipo que la Investigacin Operativa trata de resolver. A
partir de la Revolucin Industrial y a travs de los aos se origina una segmentacin
funcional y geogrfica de la administracin, lo que da origen a la funcin ejecutiva o
de integracin de la administracin para servir a los intereses del sistema como un
todo.
La Investigacin Operativa tarda en desarrollarse en el campo de la administracin
industrial. El uso de la metodologa cientfica en la industria se incorpora al principiar
los aos 50, a partir de la 2da Revolucin Industrial, propiciada por los avances de las
- Rafia
- Anlisis de Decisiones.
- Howard
- Procesos Markovianos de Decisin.
- Churchman, Ackoff, Arnoff - Orientacin a sistemas, generalizacin de la
Investigacin Operativa.
1970 y parte - Receso en el uso de la Investigacin de Operaciones dcada
80
1985 en Reflorecimiento de la disciplina con el devenir del control automtico
delante industrial, las microcomputadoras y las nuevas interfaces grficas que
impulsan el desarrollo de los Sistemas Automatizados de Apoyo a la Toma de
Decisiones, donde la Investigacin Operativa juega un papel preponderante.
Observar que el problema es UNO SOLO, sin embargo existen maneras distintas de
observar un mismo problema, dependiendo de los objetivos que se planteen para
resolverlo.
Ejemplo: Un proceso de decisin respecto a la poltica de inventarios en una organizacin.
Existen 4 funciones administrativas que han dado lugar a departamentos cuyos objetivos son:
Funcin
Produccin
Comercializacin
Finanzas
Personal
Objetivo
Maximizar la cantidad de bienes (servicios) producidos y
minimizar el costo unitario de la produccin.
Maximizar la cantidad vendida y minimizar el costo
unitario de las ventas.
Minimizar el capital requerido para mantener
cierto nivel del negocio.
Mantener la moral y la alta productividad entre los empleados.
estar apto para utilizar la investigacin cientfica en apoyo a las decisiones que el
ejecutivo deba tomar. Este apoyo se hace especialmente necesario cuando se trata de
la bsqueda de soluciones ptimas a problemas que se originan en las
organizaciones y servicios en general.
segn
restricciones
U
Una vez obtenido el modelo, ste puede usarse para encontrar exacta o
aproximadamente los valores ptimos de las variables no controlables, aquellas que
producen la mejor ejecucin del sistema, es decir, la solucin al problema.
EJEMPLO: Modelo de un problema agrcola.
Supongamos que una empresa citrcola y el Estado pretenden hacer inversiones
cuantiosas en el cultivo de naranja, limn , pomelo y mandarinas, con un doble
objetivo: a) reducir el desempleo rural y b) aumentar las exportaciones para equilibrar
la balanza de pagos.
Segn estudios realizados, se maneja la siguiente informacin (datos inventados):
Tipo de
Produccin Area mnima
Precio
Costo por Horas-hombre
rbol
promedio anual por rbol (m2)
promedio
rbol
de cuidado
en kgs / rbol
mundial por kg
anual por rbol
Naranja
150
4
$ 10
$ 2.00
36
Limn
200
5
$ 04
$ 0.50
72
Pomelo
050
3
$ 15
$ 1.00
50
Mandarina
150
6
$ 07
$ 1.50
10
1. Existe una extensin propicia para este tipo de cultivo de 250.000 m2
2. Se asegura el suministro de agua, aproximadamente por 20 aos (existencia de aguadas
en la zona).
3. La financiera pretende hacer una inversin de 20 millones, pensando exportar toda su
produccin a partir del 3er ao, que es cuando los rboles comienzan a ser productivos.
4. El gobierno ha determinado que ste proyecto emplee al menos 200 personas
ininterrumpidamente.
Decisin a tomar: Cuntos rboles de naranja, limn, pomelo y mandarina, debern
sembrarse con el objetivo de maximizar el valor de la futura exportacin anual?
Formulacin del problema:
Sean X1:
X3:
X4:
Inversin inicial:
que la solucin ptima o cercana a la ptima derivada de ese modelo, es una "buena"
aproximacin a la solucin ptima y, por lo tanto, se supone que ser la mejor para
el problema que se pretende resolver.
Gestin de proyectos
El conjunto de tareas de un proyecto se modelan mediante un grafo, sobre el que se
determinan cules son los tiempos y las tareas crticas ("cuellos de botellas") del
proyecto. Tcnicas usadas: CPM-PERT, mtodo del Camino Crtico.
Algunos de estos problemas, se estudiarn en el curso Introduccin a la Investigacin de
Operaciones.
2. OPTIMIZACIN
2.1 Introduccin
2.1.1 Motivos para estudiar Optimizacin
Existe una enorme variedad de actividades en el mundo cotidiano que pueden ser
tilmente descritas como sistemas, desde sistemas fsicos tales como una planta
industrial hasta entidades tericas tales como los modelos econmicos. La operacin
eficiente de esos sistemas usualmente requiere un intento por optimizar varios ndices
que miden el desempeo del sistema. Algunas veces, esos ndices son cuantificados y
representados como variables algebraicas. Entonces se deben encontrar valores para
esas variables, que maximicen la ganancia o beneficio del sistema, o bien minimicen
los gastos o prdidas. Se asume que las variables dependen de ciertos factores.
Algunos de esos factores a veces estn bajo el control (al menos parcialmente) del
analista responsable del desempeo del sistema.
El proceso de administracin de los recursos escasos de un sistema se suele dividir en
seis fases:
i
ii
iii
iv
v
10
de
de
de
de
Uno de los mtodos importantes para resolver esos problemas, debido a R.E.
Gomory, se basa en parte, en el mtodo simplex antes mencionado. Otro mtodo es de
naturaleza combinatoria y consiste en reducir el problema original a otros ms
pequeos, y tal vez ms fciles, y partir el conjunto de soluciones posibles en
subconjuntos ms pequeos que pueden ser analizados ms fcilmente. Este mtodo
se llama branch and bound (ramificacin y acotacin) o branch and backtrack. Dos
de las contribuciones importantes a ste mtodo las han hecho Balas y Dakin. Pese a
las mejoras realizadas no existe an un mtodo unificado que sea eficaz para resolver
problemas de programacin entera de tamao realista.
11
12
f (x1,x2)
h1 (x1,x2) 0
x1 0
(1.2)
(1.3)
(1.4)
x2 0
Este es un problema tpico en la teora de optimizacin: la maximizacin (o
minimizacin) de una funcin real de variables reales (a veces una sola variable)
sujeta a un nmero de restricciones (a veces este nmero es cero).
La funcin f se llama funcin objetivo, x1 y x2 se llaman variables independientes
o variables decisionales. El problema es encontrar valores reales para x1 y x2, que
satisfagan las restricciones (1.2), (1.3) y (1.4), los cuales introducidos en (1.1) hagan
que f (x1,x2) tome un valor no menor que para cualquier otro par x1,x2.
13
x2
f (x1,x2) = 0.25
(0,1)
f (x1,x2) = 0.50
S
h1 (x1,x2) = 0
f (x1,x2) = 1.00
x1
(1,0)
La funcin objetivo tiene el mismo valor en todos los puntos de cada lnea, de
modo que los contornos pueden asimilarse a las isobaras (o isotermas) de un mapa
climtico.
No es difcil ver que la solucin del problema es:
X = (x1 , x2 ) = (1,0)
(1.5)
Cuando una solucin X S satisface (1.5) se llama solucin ptima, y en este caso solucin
mxima (tambin solucin optimal o maximal). Si el smbolo en (1.5) fuera
, X sera una solucin mnima. Adems, f ( X ) se llama valor ptimo, y no debe ser
confundido con solucin ptima.
En la figura se observa que se podran obtener valores mayores de f eligiendo ciertos x1,
x2 fuera de S.
Cualquier par ordenado de nmeros reales se llama solucin del problema y el
valor correspondiente de f se llama valor de la solucin. Una solucin X tal que X S
se llama solucin factible, en tanto que S = {(x1,x2) : h (x1,x2) 0, x1 0, x2 0},
que generalmente es una regin conexa, se llama regin factible.
2.2 Convexidad
Se revn a continuacin las propiedades ms importantes de los conjuntos convexos y
de las funciones convexas, tales conjuntos y funciones juegan un rol muy importante
en la optimizacin por dos motivos:
14
Cuando se tienen funciones y conjuntos convexos se puede identificar con seguridad los
llamados ptimos globales.
Muchas operaciones y transformaciones conservan la convexidad, por lo que se puede
construir funciones y conjuntos convexos ms complicados a partir de los ms sencillos.
Definicin: Combinacin Convexa.
Dados (x,y) n, una combinacin convexa de ellos es cualquier punto de la forma:
z = x + (1) y
con | 0
1.
Notas:
Si 0 y 1, se dice que z es una combinacin convexa estricta (o propia).
La interpretacin geomtrica es que z es un punto del segmento de recta determinado por (x,y).
Definicin: Conjunto Convexo.
S n es un conjunto convexo si
[x + (1 ) y] S
(x,y) S, : 0 1
conjunto convexo
conjunto no convexo
Es decir que S es un conjunto convexo si contiene a todos los segmentos de recta que se
pueden formar con los puntos que le pertenecen.
Definicin: Funcin Convexa (en un conjunto convexo).
Sea S n, un conjunto convexo.
La funcin f: S es convexa en S si:
f [x + (1) y] f (x) + (1) f (y)
(x,y) S, : 0 1
Si S = n, se dice que f es convexa.
15
f [x + (1) y]
f(y)
y
S = {x| x S}
} ii S T iv
iii
S +T = {x+y| x S, y T} v
{ (x,) | f(x)
{x| f(x) }
f (x) = f i(x) es
i=1
16
i=1
f es convexa en
Paso Inductivo:
k
(Hiptesis)
f ( i xi ) i f (xi ) ,
i=1 i=1 m
(Tesis)
k m 1
f ( i xi ) i f (xi )
i=1
i=1
Demostracin:
17
x
i
i=1 (1m )
f convexa en C
i xi )
i f (xi ) = m i f (xi )
i=1 (1m )
i=1
H.I.
18
F, con x x < .
La mayora de los mtodos para hallar un ptimo son por bsqueda direccional:
partiendo de un punto de F, se define una direccin de bsqueda y se determina un
nuevo punto a lo largo de sta. Por ese motivo son de inters los conceptos de
direccin factible y direccin de descenso.
Definicin: d es una direccin factible de (G) en x F si 0 > 0 tal que x + d F
(0,0)
Definicin: d es una direccin de descenso [o ascenso] de la funcin f en x F si
0 > 0 tal que
f (x+ d) < f (x)
(0, 0)
19
f (x) +
(igi (x)) = 0
i=1
g(x) 0,
20
ii i gi (x) = 0,
i 0,
i = 1,
,m,
Las condiciones de Kuhn Tucker son necesarias para que un punto x interior a X, sea
ptimo local, salvo que ocurran casos excepcionales, por ejemplo: gi (x) = 0, o que
f (x) no pueda ser balanceado por las fuerzas reactivas, como ocurre en la figura
siguiente:
g (x)= 0
2
g (x)
1
g (x)= 0
1
g (x)
2
f(x)
Entonces
i
ii
iii
f (x) 0
2.5 Relajaciones
Cuando se enfrenta un problema difcil de optimizacin, es posible reformularlo de un
modo ms fcil por medio de una relajacin; sta nueva versin se llama problema
relajado
Min fL (x)
x FL
22
f
f
FL
23
Prueba:
Para que xL sea solucin optimal de (G) debe, primero, ser una solucin factible, lo
cual es cierto por i. Para demostrar que brinda un valor de f menor o igual que el de
cualquier otra solucin factible; sea x una solucin factible cualquiera de (G).
f(x) fL(x) por ser (GL) una relajacin de (G). fL(x)
fL(xL) por ser xL una solucin optimal de (GL).
fL(xL) = f(xL) por hiptesis ii luego:
f(x)f(xL).
Entre las relajaciones ms tpicas se puede citar:
(M) sujeto a :
x X
escribe L(x,).
Teorema 2: 0
(M)
es
una
relajacin de (M).
Prueba:
24
i gi (x) 0,
por lo tanto,
i=1
m
i=1
g(x) 0.
f (x ) = f (x ) + i gi (x ) = f (x ) por
la condicin ii.
i=1
25
Min f (x) =
()
x j
22
sujeto a :
(P)
n
a jx j b
j=1
x j 0, j =1,...,n
Se supone que b y aj (j = 1,...,n) son positivos. Se comienza por escribir la primera
n
a jx j 0.
j=1
Min x f(x) =
(
2
a j x j ) + b
j=1
(P) sujeto a :
x j 0, j =1,...,n
(P, j ) sujeto a :
26
x j 0, j =1,...,n
f
Se tiene que
,j
(x j ) = x j a j
x
j
f, j
(x ) > 0; si x >a
x j
j
j
f, j
(x ) < 0; si x <a
x j
f, j
(x ) = 0; si x =a
Luego
x j j
j
Por lo tanto (P ,j) presenta un mnimo global cuando x j =a j = x j (), y en consecuencia: (P)
tiene un ptimo global en x().
Para resolver el problema (P) se trata de encontrar los valores de que satisfacen las condiciones
i al iii del Teorema 4.
La condicin ii (condicin de complementariedad) establece que:
= 0, o bien :
(b
a j x j () = b
Se discuten a continuacin ambos casos.
Si = 0
x j () = 0,
y no se satisface la condicin i: a j x j () b.
Si b = a j x j () = a ja j
b = a2j .
n
Por lo tanto == b
ak2 .
k=1
Con este valor de es vlido que 0, lo cual equivale a iii; y es vlido que
a j x j () = b,
f (x) =
ak2 )2 = b2 ak2
( ak2 )2 = b2
ak2
27
Max
a jx j
j=1
sujeto a :
(KP)
n
bj x j b
j=1
0 x j 1
Siendo aj, bj, b > 0.
Se trata del problema de cargar de vveres una mochila de volumen b para un viaje.
Se debe elegir entre n comestibles; de cada uno de ellos hay existencias por un
volumen bj con un poder nutricional total aj; xj representa la parte que el mochilero
deber cargar de las existencias del alimento jsimo.
Los alimentos tienen distinto valor que es su poder nutricional por unidad de
volumen (cj = aj / bj). Parece natural elegir a los comestibles en orden decreciente de
valor nutricional. Supngase que se cumple c1c2cn.
Se propone el siguiente procedimiento para llenar la mochila:
asignar x1 = 1, x2 = 1, etc. hasta llegar al alimento ksimo, el cual no cabe totalmente, por lo
que se coloca todo cuanto quepa (0 xk < 1).
Se probar que sta es una solucin ptima utilizando relajacin lagrangeana.
Se construye la relajacin lagrangeana (KP) de (KP) (previamente se plantea el problema
como uno de minimizacin)
n
(a j +bj )x j b
Min x
j=1
(KP) sujeto a :
0 x j 1
(KP, j ) sujeto a :
0 x j 1
28
Max
a jx j
j=1
sujeto a :
(KP)
n
bj x j b
j=1
0 x j 1
(con aj, bj y b > 0) se soluciona, en el caso continuo, asignando variables iguales a 1
en orden de valor, es decir, en orden descendiente de aj / bj y sin exceder la
disponibilidad b del recurso.
Sea xk la variable que violara la restriccin si le fuera asignado el valor 1. Para esta
variable se elige un valor menor que 1 y de modo que la restriccin se satisfaga
exactamente.
Ejemplo 3: Encontrar un ptimo global al siguiente problema:
n
min
aixi2
i=1
sujeto a
29
(P)
n
bixi + ai
i=1
pj xj b0
j=1
xi > 0 i =1..n
Sabiendo que pi > 0, ai > 0, bi > 0 i =1..n y b0 > 0
Primero reescribimos la restriccin:
n
bi xi +ai
p j x j = b1x1 +a1 p1x1 +a1 p2 x2 +...+ a1 pn xn +...+bn xn +an p1x1 +an p2 x2 +...+an pn xn =
i=1
j=1
n
i=1
Siendo A=
a j.
j=
min
ai xi2
i=1
sujeto a
(P)
n
(b + Ap )x 0
b0
i=1
xi > 0 i =1..n
Hallamos el problema P, relajando la restriccin:
n
ai xi2
min
(b + Ap )x +b
i
i=1
( ) sujeto a
xi > 0 i =1..n
30
min a j x2j
(P, j ) sujeto a
(b + Ap )x
j
x j > 0 j =1..n
Como a j > 0, la funcin objetivo es convexa. Entonces, encontramos el ptimo derivando:
2a j x j
(b + Ap )= 0 x
j
( ) =
Ap
jj
) (b +
2a j
i=n1
(b + Ap )
i
(bi 2+aAi pi )
= b0
(bi +b0Api )2
i
i=1
2ai
b0 (bj + Ap j )
(bi + Api )2 =
2a j
(bi + Api )2
aj
i=1
2ai
i=1
ai
31
f L (x ) = f (x ) + i gi (x ) = f (x ) pues i(x)
= 0, i.
i=1
iv
32
La mayora de los teoremas de esta seccin suponen que xL F , o sea que la solucin
optimal del problema relajado pertence a la regin factible del problema original. Si xL
F se puede, a partir de xL, encontrar un punto xL F que no es mucho ms caro,
lo cual se deduce del siguiente teorema:
Teorema 7:
Sean
(GL) una relajacin de (G). xL y x soluciones optimales de
(GL) y (G) respectivamente.
xL
de (G). luego: f
2.6 Dualidad
En el captulo anterior se resolvieron problemas de optimizacin determinando
(analticamente) los multiplicadores de Lagrange. Esto rara vez se puede hacer en la
prctica, y en su lugar lo usual es determinar los multiplicadores de Lagrange
resolviendo un nuevo problema de optimizacin, llamado Problema Dual el cual
consiste en buscar la relajacin ms fuerte posible, o sea, una relajacin cuyo valor
optimal est tan prximo como sea posible del valor ptimo del problema original.
33
g(x) 0,x X}
0
(P) se llama problema primal del problema (D).
Si se tiene restricciones de igualdad en el problema primal no habr exigencia de positividad en el
problema dual. Los teoremas que siguen son vlidos tambin en este caso, ya que se construyen a
partir de que () p para los valores de que dan relajaciones.
Sea d el valor optimal de (D). p y d son entoces los valores optimales primal y dual
respectivamente. Observacin: d p Prueba:
(P) es una relajacin de (P), por lo tanto () p, 0
Pero entoces: d = Max {() : 0} p
No siempre ocurre que d = p, por eso se define la discrepancia de dualidad (duality gap):
=pd
Ntese que siempre se cumple que 0.
Ejemplo 4:
n
Min x x2j
j=1
sujeto a :
(P)
n
a jx j b
j=1
x j 0
con aj y b positivos.
Se plantea el problema relajado lagrangeano, tal como se hizo en el captulo de relajaciones:
34
Min x
b
j=1
(P) sujeto a :
x j 0
La solucin de (P) es x j () =a j, segn lo visto en relajaciones.
Entonces la funcin objetivo del problema dual es:
n
() = ((a j )2
2 a ja j ) +b = (
a2j ) +b
j=1
0
es una funcin cncava y tiene, por lo tanto, un valor mximo cuando d
que sto brinde una solucin factible). Se obtiene entonces:
(suponiendo
22
d
0=
d= 0
=(
a j )+b,
Por lo tanto = b a2j es una solucin optimal del problema dual. Este es el mismo multiplicador
de Lagrange que se hall en el captulo Relajaciones. Adems:
d = () = (
a2j )b2 (
a2j )2 +bb
a2j = b2
a2j
Prueba:
() d p f (x)
Corolario 9.1:
35
}= Min [(x,)]
xX
36
(a ) +b g(x
2
) = b a j x j () = b a ja j
Adems () = a2j +b, que concuerda con () = g(x()) como deba ser de acuerdo al
teorema precedente.
Cuando = se cumple que () = g(x ) = 0 y por lo tanto x es una solucin factible.
Adems g(x ) = 0, por lo tanto: f (x ) = f (x ) + g(x ) = ().
La optimalidad de x y de se desprende del Corolario 9.1.
Cabe preguntarse si en general se puede tener la esperanza de encontrar la solucin
ptima del problema primal a travs de la solucin ptima del dual. Los siguientes
teoremas responden parcialmente a esta inquietud.
Teorema 11:
Si X es cerrado y acotado, es solucin ptima de (D) y (P) tiene una solucin
ptima x() nica. Entonces se cumple: i T g(x()) = 0 ii g(x()) 0
Prueba: x() es solucin ptima nica de (P) entonces, por el
Teorema 10
(*)
() = g(x())T
b) () 0
Solamente algunos problemas muy especiales pueden ser resueltos con la tcnica del
captulo Relajaciones, que consiste en resolver analticamente el problema relajado
para valores fijos de los parmetros lagrangeanos, y posteriormente determinar dichos
parmetros de modo que se cumplan las condiciones del Teorema 4.
Con la ayuda del problema dual se obtiene una tcnica general para determinar los
valores ptimos de los parmetros de Lagrange, a partir de los cuales se puede
37
calcular las soluciones ptimas del problema primal, de forma que el duality gap
sea nulo (=0).
2.7.1 Generalidades
En los problemas de programacin lineal (PL) se tiene una funcin objetivo lineal y
restricciones lineales. En general se exige tambin la positividad de las variables. Un
problema general de PL se puede escribir en la forma siguiente:
n
Min z =
c jx j
j=1
sujeto a :
n
aij x j = bi ,
j=1
i =1,...,k
aij x j bi , i = k +1,...,m
j=1
x j 0,
j =1,...,l
38
Min z = c j x j
j=1
sujeto a :
(PLc )
a j x j bi
i
=1,...,
mj
x j 0,
=1,...,
n
Utilizando notacin vectorial y matricial se obtiene una forma ms compacta de escribir el
,
j=1
problema (PLc):
Min z = cT x
sujeto a :
(PLc )
Ax b
x0
Donde {c, x} n, b m, y A mn.
El problema dual del problema de PL en la forma cannica tiene la forma que se deduce del
teorema siguiente:
Teorema 13:
El problema dual (PDc) del problema primal (PLc) es:
Max
bT
sujeto a :
(PDc )
39
AT u c
u0
Prueba:
Antes de hallar el dual se reescribe el problema primal en la forma utilizada para la definicin de
dualidad:
Min
cT
sujeto a :
(PLc )
b Ax 0
x0
Se decide no relajar las exigencias de positividad (x 0). La funcin objetivo del
dual es () = Minx {cTx + T(bAx)x 0} = Minx {(cT TA)x + Tbx 0},
que equivale a:
n
() =
(cT T A) j x j +T b
Min x
x j 0,j =
j=1
T b, si (cT T A) j 0,j
, si j tal que (cT T A) j < 0
Como se desea maximizar (), el valor no interesa. Se tiene una relajacin si se cumple
que 0. El problema dual toma entonces la forma:
Max ()
(PDc ) sujeto a :
0
y puede ser escrito como:
Max
sujeto a :
(PDc )
cT T A 0
0
Transponiendo en la funcin objetivo y en la restriccin se obtiene:
40
Max bT sujeto
a:
(PDc )
AT c
0
La tesis se deduce sustituyendo por u.
Teorema 14:
El problema dual del problema dual (PDc) es el problema primal (PLc).
Prueba:
Se sugiere hacer la relajacin lagrangeana de (PDc) y continuar de la misma forma que en
el Teorema 13.
41
A11T u1 + A21T u2 = c1
c2
u1
libre,
u2 0
(PLs )
Ax =
(b 0)
bx
0
En la forma standard se asume que b 0. Si esta condicin no se cumpliera en algn caso
particular, basta multiplicar por 1 las ecuaciones que tienen signo negativo en b.
La restriccin
aijx j bi se transforma
j=1
condicin de positividad:
n
aij x j + y = bi
j=1
y0
As, con la ayuda de variables de hogura, se llevan a la forma standard los problemas expresados
en forma cannica.
Min cT x Min cT x sujeto a :
sujeto a :
El problema (PLc )
es equivalente a (P)
Ax b Ax y = b x 0 x, y 0
Ax b
o bien:
Ax b
Ax b
42
xk =0
-c
x| Ax =b
43
En la solucin bsica xN = 0 y z = z.
cNT = cTN cTB AB1AN
objetivo al variar xN, dos trminos componen el costo reducido: cTN indica la incidencia directa
de xN sobre la funcin objetivo, en tanto que cTB AB1AN refleja la influencia indirecta de xN a
travs de las variaciones que provoca en xB.
44
(PLs ) sujeto a :
xB = b AN xN
xB , xN 0.
La solucin bsica correspondiente es (xB,xN ) = (b,0). Supngase que dicha solucin bsica es
factible, es decir: b 0.
Si alguna componente de cN , por ejemplo cj, es negativa, se obtendr un valor mejor de la
funcin objetivo incrementando xj desde su valor nulo actual.
Si slo aumenta xj, el incremento en xB se calcula como xB = b a jx j donde a j es la
columna correspondiente a xj en AN . Esta solucin es factible si xB 0, a
continuacin se estudian las condiciones que deben cumplirse para asegurar la
factibilidad.
La ecuacin xB = b a jx j expresada por componentes queda: (xB )i = bi aijx j..
Si aij 0, entonces (xB)i no decrece al aumentar xj. En consecuencia el cumplimiento de
la restriccin (xB)i 0 no est condicionado por la variacin de xj.
Si aij > 0, entonces (xB)i disminuye al aumentar xj, y se hace cero cuando x j = bj aij
En consecuencia, la solucin es factible si las variaciones de xj cumplen que:
x j Mini {bi aij | aij > 0}.
Cuando x j = Mini {bi aij | aij > 0}, una de las variables bsicas se hace cero (la o las
variables bsicas para las cuales se obtiene el mnimo), lo cual equivale a haberse
desplazado hacia un vrtice adyacente al de partida en la representacin geomtrica
del problema (p. ej. el punto b de la figura).
Es adecuado entonces realizar un cambio de sistema de coordenadas en el hiperplano
{x | Ax = b}, xj es ahora mayor que cero y se convierte en variable bsica, al tiempo
que la variable bsica que tom el valor cero se hace no bsica.
Esta es la esencia del funcionamiento del mtodo simplex, que fuera desarrollado por
G.B. Dantzig a fines de los 40. El mtodo se basa en que una solucin factible dada
45
Teorema 16
Si en el problema (PLs) se cumple que b 0 y adems cN 0, entonces la solucin bsica
correspondiente es ptima.
Prueba:
Se demostrar a travs de relajaciones, utilizando el Corolario 1.1.
El problema (PLs) es el mismo que (PLs ) aunque expresado en forma distinta.
Se obtiene una relajacin de (PLs ) ignorando la restriccin xB = b ANxN , el problema relajado
es:
Min z = z + cNT xN = z +
c jx j
x jxN
(PLsr ) sujeto a :
xB , xN 0
46
4. Si algn c j < 0, aumentar xj hasta que algn (xB)i = 0. Se obtiene en ese caso
una nueva solucin bsica. Volver al paso 2.
x2
2
4
3
2
1
x1
La regin factible es el contorno delimitado por los vrtices (1), (2), (3) y (4). Las
lneas punteadas son la curvas de nivel de la funcin objetivo. La solucin ptima se
encuentra en el vrtice (3). Se hallar dicha solucin por el mtodo simplex.
Se introducen en primer lugar las variables de holgura x3 y x4 para llevar el problema a
la forma standard. Tambin se cambia el signo a la funcin objetivo para obtener un
problema de minimizacin:
Min
2x1 3x2
sujeto a :
x1 + x2 + x3 = 2
x1 + 2x2 + x4 =
47
3 xi 0, i =1, ,
4
O en forma matricial:
Min
(2,3,0,0)x
sujeto a :
1 1 1 0
x=
1 2 0 1
x 0 x4
Ntese que las variables de holgura x3 y x4 son variables bsicas adecuadas: estn expresas en
funcin de las otras variables, y estn eliminadas de la funcin objetivo.
x3 = 2 x1 x2
x4 = 3 x1 2x2
El tableau tiene la
siguiente forma T
c
{b a
i
ij
x1
X2
x3
x4
1/2
1/2
-1/2
0
1
0
1
0
0
-1/2
1/2
3/2
1/2
3/2
9/2
Puesto que slo c1 < 0, conviene elegir x1 como variable bsica, obteniendo:
x1
x2
x3
x4
b
1
0
2
-1
1
0
1
-1
0
1
0
0
1
1
5
Se ha obtenido una solucin ptima, pues cj > 0,j . Dicha solucin ptima tiene las
variables no bsicas igualadas a cero y las variables bsicas iguales a b :
x1 = 1, x2 = 1, x3 = 0, x4 = 0.
Mtodo simplex, espacio de soluciones no acotado
Cuando cj < 0, la variable no bsica xj correspondiente puede aumentar hasta hacer que
alguna variable bsica alcance el valor cero.
Si ocurre que aij 0 i, ninguna variable bsica disminuye su valor al aumentar xj, obtenindose
soluciones factibles para cualquier valor (positivo) de xj.
Adems, como cj < 0, la funcin objetivo disminuye con el aumento de xj, de modo que
decrecer hacia cuando xj aumente hacia +.
En estas condiciones se tiene un valor ptimo no acotado, en un dominio infinito de soluciones
factibles.
El ejemplo siguiente ilustra estos conceptos.
Max
x1 +
x2
sujeto a :
x1
x2
1 x2
x1
x1,x2 0
La regin factible es la de la figura siguiente:
49
2
1
3
1
2
1
1
1
1
1
0
0
1
1
1
0
variable
saliente
es
la
xi
(bsica)
correspondiente
al
Min {bi ai1 ai1 0}= Min{11 , }, lo cual ocurre en la fila 1. El elemento a11 se llama
pivot y se utiliza para reformular el sistema de ecuaciones de modo que la columna
x2
1
0
x3
1
1
x4
0
1
b
1
2
50
{b a
i
i2
ai2
NO
x con c < 0
Hay variable
j
j
SI
x
j
entra en la base
Hay a > 0 ?
kj
NO
SI
Determinar la variable bsica saliente
de acuerdo con
/a
k
= Min { b
kj
/a
i
a
kj
,a
ij
> 0}
ij
51
x j = Min
ij
ij
0.
Una
variable bsica decrece hasta hacerse nula, y si hay degeneracin una o ms variables
bsicas continan sindolo, pero con valor cero.
Si
hay
degeneracin,
en
alguna
iteracin
podra
ocurrir
que
52
Min
yi
i=1
(LP1) sujeto a : Ax + y
= b x, y
0
Teorema:
(LP1) tiene siempre un valor ptimo finito 0, dado por el mtodo simplex. Si dicho
valor ptimo es estrictamente mayor que cero, entonces (E) no tiene soluciones
factibles. Si el valor ptimo de (LP1) es igual a cero, entonces (E) tiene soluciones
factibles y el mtodo simplex brinda una de ellas.
Prueba:
Si el valor ptimo de (LP1) es estrictamente mayor que cero, siempre existe por lo
menos una yi > 0, por lo tanto: ( Ax )i = bi yi bi y en consecuencia no existen
soluciones factibles de (E).
Si el valor ptimo de (LP1) es igual a cero: yi = 0, como adems y 0 se concluye que y =
0 y la solucin ptima de (LP1) es factible para (E).
Min
3x1 +
2x2
sujeto a :
x1 + x2 2
x1 + 2x2
3 x1,x2 0
Este problema se representa grficamente en la figura que sigue:
53
x
2
x
1
x2
x3
x4
y1
y2
1
1
3
-2
1
2
2
-3
-1
0
0
1
0
-1
0
1
1
0
0
0
0
1
0
0
2
3
0
-5
54
acuerdo a Min
fila.
{b a
i
i1
x2
x3
x4
y1
y2
1
0
0
0
1
1
-1
-1
-1
1
3
-1
0
-1
0
1
1
-1
-3
2
0
1
0
0
2
1
-6
-1
x2
0
1
0
0
x3
-2
1
4
0
x4
1
-1
-1
0
y1
2
-1
-4
1
y2
-1
1
1
1
b
1
1
-5
0
x2
1
10
-1
x3
x4
-2 1
1
1
0
-1
4
-5
55
x3
x4
-2
-1
-4
SI
SI
es el valor ptimo = 0?
NO
NO
FIN: el problema no tiene solucin factible
xN
AN
cBT
T
N
cyT
56
Las operaciones que se realizan para obtener una fila a partir de la anterior
corresponden a haber multiplicado desde la izquierda con cierta matriz M que se
determinar:
MAB = I
M = IAB1 M = AB1
por lo tanto:
AN = MAN = AB1 AN ,
I= MI = AB1I = AB1
Se
xN
( AN = AB1 AN )
AB1
b= AB1b
cNT = cTN T AN
57
Por otra parte, la restriccin impuesta a la variable dual es c ATu, lo cual implica que cB
ABTu y que cN ANT u.
Por lo tanto, si se cumple la condicin de optimalidad, los multiplicadores simplex constituyen
una solucin factible del problema dual, ya que adems cumplen
cB = ABT
cB
sera adems una solucin ptima del problema dual si arrojase el mismo valor de la funcin
objetivo que la solucin ptima del problema primal.
El valor ptimo de la funcin objetivo del problema primal es z = cBT b = cBT AB1b. El
valor de la funcin objetivo del problema dual evaluada en u = es: bT , que se
puede escribir: bT= bT (ABT )1cB = cBT AB1b = z .
Por lo tanto: los multiplicadores simplex correspondientes a la solucin ptima del problema
primal, constituyen una solucin ptima del problema dual.
Se acaba de demostrar el siguiente:
Teorema:
Sea xB = AB1b, xN = 0 solucin bsica ptima del simplex (o sea c 0) para un problema
de programacin lineal expresado en forma standard:
Min
cT
sujeto a :
(LPS )
Ax = b
x0
Entonces T = cBT AB1 (el vector de multiplicadores simplex) es una solucin ptima del
problema dual; adems, los valores ptimos de ambos problemas coinciden.
58
x2
sujeto a :
x1 x2 1
(PL)
x1 + x2 0
x1,x2 0
Este problema tiene una regin factible vaca, su dual tiene la forma:
Max
u1
sujeto a :
(PD)
u1 u2 0
u1 + u2 1
u1,u2 0
dual (2)
dual (3)
59
primal
(1)
primal
(2)
primal
(3)
3. GRAFOS
3.1 Introduccin
El nacimiento del concepto GRAFOS se puede situar, por el ao 1730, cuando Euler
(matemtico) se convirti en el padre de la Teora de Grafos al modelar un famoso
problema no resuelto, llamado el "problema de los puentes de Knigsberg".
60
Solucin: El grafo debe se conexo, y en cada punto deben incidir un nmero par de lneas.
Esta condicin es suficiente para definir lo que se llama un ciclo euleriano.
A partir de Euler el modelado mediante grafos fue desarrollando esta metodologa
hasta convertirse en la actualidad, en una herrramienta de trabajo para ciencias tan
diferentes como la Fsica, la Qumica, la Sicosociologa, la Economa, la Lingstica,
etc. La teora de grafos est ntimamente relacionada con varias ramas de la
Matemticas como por ejemplo la Teora de Conjuntos, el Anlisis Numrico,
Probabilidad, Topologa, etc. y es la base conceptual en el tratamiento de problemas
combinatorios.
La eficacia de los grafos se basa en su gran podero de abstraccin y la muy clara
representacin de cualquier relacin (de orden, precendencia, etc) lo que facilita
enormemente tanto la fase de modelado como de resolucin del problema. Gracias a
la Teora de Grafos se han desarrollado una gran variedad de algoritmos y mtodos de
resolucin eficaces que nos permiten tomar una mejor decisin .
No se debe confundir el grafo con el sistema real al que est asociado. El grafo es una estructura
que admitimos adecuada en lo concerniente a las propiedades que nos interesan, donde luego
aplicamos las deducciones y reglas matemticas para obtener datos y poder decidir.
Una aplicacin frecuente de la teora de grafos es la del mtodo de camino
hamiltoniano ptimo para decidir el camino a seguir por un cobrador, de tal modo de
economizar sus energas, las suelas de sus zapatos y su bolsillo.
El objetivo es hallar un camino que pase por todos las casas una y solo una vez y que
nos de el costo menor en distancia. Dicho de otro modo, se deben buscar las
permutaciones de las casas de forma tal que la distancia recorrida total sea mnima.
Se conoce la distancia entre cada par de casas, segn si las calles son flechadas o no se
orientarn o no las conexiones entre pares de casas.
Obsrvese que si se hicieran todas las permutaciones, suponiendo
un caso muy reducido de diez casas, se tendran ms de 3 millones
de permutaciones (10!).
Si cada casa es representada por un vrtice y cada camino entre
par de casas por una arista ponderada por la distancia mnima
entre pares de casas, tendremos un grafo completo y simtrico
(cuando no hay calles flechadas).
El problema se reduce entonces, a obtener un camino
hamiltoniano ptimo. Todo algoritmo conocido para encontrar ciclos hamiltonianos
requiere al menos un tiempo exponencial de clculo, o factorial en el peor de los
casos.
Otro ejemplo para el que grafos provee un natural modelo matemtico :
61
x3
62
Cada vez que apliquemos un concepto orientado en un grafo G = (X,U) ese concepto
deber ser considerado como aplicable de hecho, en un grafo orientado G* al que le
corresponde la orientacin en los dos sentidos de cada arista.
Orden es el nmero de vrtices del grafo, el cardinal del conjunto X de vrtices: |X|
Arcos incidentes a un nodo
Si un vrtice x es extremidad inicial de un arco u = (x,y) y x y, diremos que
el arco es incidente a x hacia el exterior. I+(x)={y / (x,y) U}. I-(x)={y / (y,x)
U}
El nmero de los arcos incidentes hacia el exterior se llama semigrado
exterior de x y se nota d+(x) = |I+(x)|
De igual forma se define arco incidente a x hacia el interior y semigrado
interior de x. Este ltimo se nota como d-(x) = |I-(x)|.
Grado de x, es la suma del semigrado exterior e interior de x. O sea, es el nmero de
arcos con una extremidad en x.
d(x) = d+(x) + d-(x)
Si todos los vrtices tienen el mismo grado, el grafo al que pertenecen se llama grafo regular.
63
64
K5
Subgrafo de G = (X,U) engendrado por el conjunto A X, es un grafo cuyos
vrtices pertenecen al conjunto A y cuyas aristas son aquellas de G que tienen las dos
extremidades en A.
Grafo parcial de G = (X,U) engendrado por V U, es el grafo G' = (X,V) cuyos
vrtices son los mismos de G y cuyas aristas son las que conforman el conjunto
V U.
Subgrafo parcial de G, es un subgrafo de un grafo parcial de G.
Grafo bipartito, es un grafo cuyo conjunto de vrtices puede ser particionado en dos
clases X1 y X2 de tal forma que dos vrtices de la misma clase no sean jams
adyacentes. Se nota G = (X1,X2,U)
X1: conjunto personas
X2 : conjunto profesiones
K
2,3.
65
u-
66
Seudociclo, es una cadena donde los extremos coinciden pero que una misma arista
puede figurar ms de una vez (tambin consecutivamente).
Cociclo del conjunto de vrtices A, es el conjunto de aristas incidentes a A, del tipo
I(A) no vaco y particionado en dos clases I+(A) y I-(A).
Ciclo Euleriano es aquel que incluye todas las aristas del grafo una sola vez,
conteniendo cada vrtice por lo menos una vez.
Cadena Euleriana, es aquella que recorre todas las aristas una sola vez ( = simple)
tocando todos los vrtices del grafo.
Todo multigrafo que posee un ciclo Euleriano es conexo y todos sus vrtices tienen grado
par .
a
a.
67
d
j
n
f
h
k
l
o
c
68
69
m=2
m=3
70
Usando BPP (o DFS) , se toma algn vrtice como raiz y se comienza a construir una
cadena desde la raiz. La cadena contina hasta que no se puede continuar mas abajo
sin repetir un vrtice que ya est en la cadena. El vrtice donde esa cadena debe
terminar es una hoja. Entonces se vuelve atrs (backtrack), se retrocede un nivel al
padre de esa hoja, y se trata de construir una cadena desde ese padre en otra direccin
u otro vrtice no includo en la cadena anterior, y asi sucesivamente...
Algoritmo de Bsqueda Primero a lo Ancho
Sea G = (X,U) , x, v, s pertenecen al conjunto X, Q es
una cola o lista FIFO.
BFS(x)
Visite y marque x.
Inserte x en Q
Mientras Q no est vaca realice
Saco el primer elemento s de Q
Para cada vrtice v no marcado
adyacente a s
visite y marque v
inserte v en Q
fin para fin mientras
fin
Usando BPA ( o BFS), se toma cualquier vrtice x como raz, insertando en la cadena
todas las aristas incidentes a ese x. Luego, sucesivamente, se van agregando las aristas
incidentes a los nodos adyacentes a x ,siempre que no estn incluidos en la cadena que
estamos construyendo, hasta que todos los nodos hayan sido visitados .
Es importante notar que si el grafo no es conexo, entonces no existe ningun esqueleto que lo
recorra.
Algoritmo para verificar que un grafo es conexo
1) Use BPP ( o BPA) para tratar de construir un esqueleto del grafo.
2) Si todos los vrtices del rbol son alcanzados en la bsqueda, entonces se ha
encontrado un esqueleto del grafo y por lo tanto el grafo es conexo.
3) Si la bsqueda no recorrio todos los vrtices, entonces el grafo no es conexo.
71
[r ]
ij
1 si no
Podemos afirmar que todo grafo G es orientado, por lo que existe una relacin binaria entre
pares de elementos de G =(X,U), que es la relacin de adyacencia A.
Entonces, dado un grafo G=(X,U), de orden n, se puede representar la relacin de
adyacencia , mediante una matriz A=[a ij] nxn, llamada matriz de adyacencia de G,
definida por
2
A=
si
xi Ax j , (xi ,x j ) U
[a ]
ij
0 si no
Es importante observar que en un grafo no orientado la relacin de adyacencia es
simtrica y por lo tanto tambin lo ser su matriz asociada, ya que en el momento del
almacenamiento solamente es necesario tratar la mitad de la matriz.
Observaciones
1) La matriz de adyacencia es una matriz booleana, sus elementos son 0 o 1.
2) i xij = semigrado exterior de xi
3) j xij = semigrado interior de xj
En aquellas aplicaciones en las que intervienen costos o propiedades propias de la relacin
entre los elementos del sistema, estamos ante un Grafo Ponderado:
G=(X,U,W)
72
[a ]
ij
0 si no
Esta matriz es booleana solamente en aquellos casos en que w(u) = 1, para toda arista u.
El concepto bsico en grafos es el de relacin binaria, ya que una relacin binaria
puede ser una relacin de equivalencia, la que particiona al conjunto X de vrtices en
clases de equivalencias.
Una relacin binaria es una relacin de equivalencia cuando es:
1) Reflexiva. x x
2) Simtrica. x y entonces y x
3) Transitiva. x y, y z entonces x z
Estas tres propiedades asociadas a un grafo G = (X,U), X={x i ; 1in}, significan
que: xi xj si xi = xj o si existe algun camino de xi a xj y de xj a xi.
Definicin:
Un grafo o subgrafo es fuertemente conexo, si (xi ,xj),xi xj, camino de xi a xj.
Toda relacin de equivalencia particiona al conjunto X en clases de equivalencias X i={xi1, ...
xip} que llamaremos componentes fuertemente conexas del grafo G.
Por lo tanto, cada componente fuertemente conexa de un grafo G es un subgrafo fuertemente
conexo, Gi=(Xi,Ui), del grafo G.
Notar que la conexidad est muy relacionada a la existencia de caminos, existencia que se
puede verificar mediante la propiedad transitiva.
Definicin Una relacin R es transitiva, en un conjunto X,
si i, j, k = 1,2,... | X | se cumple
que xi Rx j y x j Rx k entonces
xi Rx k
73
xk xi
xkm = x j
C i, j xj,
x3
x4
x1
x5
x6
74
x1 x2 x6
X
x3 x4
= {x3, x4}
X3 = {x5}
x5 x5
fig.CFC
[a ]=
ij( p)
0 si
no
( producto booleano).
A)(s- ) s n1
1,
es la
matriz de alcance de G.
La experiencia indica que alcanza con calcular T = (I A)(n-1)
Si al calcular T, tij = 1 xi en X, entonces el grafo G es fuertemente conexo, o sea que
xi, xj existe un camino de xi a xj. En caso contrario, si tij = 0 para algn par xi, xj, xj
75
si no
ssi
p= 1, s A
(p)
s = n-1
LQQD
Lema 2
Se cumple : I A . .. A (s-1) = (I
A)
(s-1)
76
Completa en s).
La experiencia indica que para calcular la matriz de alcance, alcanza con calcular
T = (I A)(n-1)
Intuitivamente se justifica dado que I incluye x i = xj , para cualquier i,j , (recordar definicin de
relacin de alcance), adems A (I A)(n-2) (I A)(n-1)
Triangularizacin por bloques
Para una mejor manipulacin de las componentes fuertemente conexas y para una
mejor distincin de las mismas, se triangulariza la matriz de alcance T. Se define una
nueva base mediante un reordenamiento de los nodos, permutando las filas y
columnas de T. Siendo T la matriz del sistema de ecuaciones Tx = b, debo
transformar este sistema a otro equivalente con otra base que llamar Qx. Entonces
construyo una matriz Q, tal que QTQtQx = Qb. La matriz de este nuevo sistema es
t
QTQ que implica un nuevo orden del conjunto X de nodos, a partir de las componenetes
fuertemente conexas del grafo.
Ejemplo: La siguiente matriz de adyacencia corresponde al grafo de la fig. CFC:
x1
I V A = x2
x3
x4
x5
x6
x1 x2 x3 x4 x5 x6
1 1 0 0 0 1
1 1 1 0 0 0
0 0 1 1 1 0
0 0 1 1 0 0
0 0 0 0 1 0
1 0 0 0 1 1
1 1 0 0 0 1 1 1 1 0 1 1 1 1 0 0 0 1
1
0
0
0
1
1
0
0
0
0
1
1
1
0
0
0
1
1
0
0
0
1
0
1
1
0
0
0
0
0
1
0
0
0
1
1
0
0
0
1
1
1
1
0
0
1
1
1
0
0
1
1
1
1
1
1
0
0
0
1
1
0
0
0
1
1
0
0
0
0
1
1
1
0
0
0
1
1
0
0
0
1
0
1
1
0
0
0
0
0
77
1
1
0
0
0
1
1
1
0
0
0
0
0
1
1
1
0
0
0
0
1
1
0
0
0
0
1
0
1
1
1
0
0
0
0
0
X1= {x1,x2,x6},
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0
1
1
0
0
0
1
1 1 0
1 1 1
0 1 1
0 1 1
0 0 0
1 0 0
(I V A)2
1
1
1
1
1
1
1
1
0
0
0
1
X2={x3,x4},
0
0
0
0
0
1
0
0
1
0
0
0
1
1
0
0
0
1
1
1
0
0
0
1
1 1 1
1 1 1
1 1 1
1 1 1
0 0 1
1 1 1
(I V A)4
1
1
0
0
0
1
1
1
0
0
0
1
1
1
0
0
0
1
1
1
1
1
0
1
1 1 1
1 1 1
1 1 0
1 1 0
0 1 0
1 1 1
(I V A )5 = T
X3 ={x5}
= Q T Qt
1 1
1 1
1 1
1
1
1
1
1
1
1
1
1
1
1
1
0 0
0 0
0
0
1
1
1
1
1
1
0 0 0 0 0 1
Las componentes fuertemente conexas de un grafo G, se pueden condensar en un
punto, formando un nuevo grafo Gc sin ciclos, cuyos arcos son aquellos del grafo G
que unen distintas componentes, al que se llama grafo
condensado.
X2
X1
El siguiente es el Gc de la fig CFC. Los grafos condensados se
utilizan en la planificacin del trnsito y de transporte urbano.
Procedimiento para condensar un grafo:
X3
1) Condensar G.
78
si (xi,xj) U, ij o i = j
Retirando la primera letra de los elementos distintos a 0 obtenemos [M](1) = ((mij(1))) latina.
xj si (xi,xj) U, ij
(1)
mij =
0
si (xi,xj) U, ij o i = j
Los caminos elementales de largo 2 se calculan de la siguiente manera
[M](1) L [M](1) = [M](2)
siendo m (2) =
(1) ), donde ij
79
(1)
kj
ik
0 si no.
M(3) = M(2) L M(1),
Para encontrar los caminos hamiltonianos nos detenemos en el paso n-1 (4, en nuestro
caso). Los elementos de la matriz M (n-1) contiene la sucesin de nodos de cada uno de
los caminos hamiltonianos, si existe alguno.
Ejemplo:
A
E
M(1)
0
0
0
0
EA
M(1)
AB
0
0
0
0
AC
BC
0
DC
0
0
0
0
0
A
B
0
0
0
0
ABC
BEA
0
DEA
0
0
EAB
0
0
EAC
EDC
0
BCDEA
0
0
0
0
0
CDEAB
0
0
C
C
0
C
0
0
0
D
0
D
ACD
AED
BCD
BED
0
0
0
ABEDC
0
0
DEABC
0
E
E
0
E
0
ABE
0
CDE
0
M(2) =
0
BEACD
0
0
EABCD
ABCDE M(4)
0
0
0
0
80
Afirmacin:
Cualquier subgrafo compuesto del esqueleto y
una cuerda contiene un ciclo
cuerda
esqueleto
Nmero ciclomtico v(G) de un grafo G, es el nmero de cuerdas de cualquier
esqueleto en G.
Proposicin: Sea un grafo G, m el nmero de aristas , n el nmero de vrtices y c el
nmero de componentes conexas, entonces v(G) = m - n + c.
Teorema: Sea G un grafo de orden n, n > 2. Las propiedades siguientes son
equivalentes en cuanto a caracterizar a G como rbol.
1) G es conexo y sin ciclos.
2) G es sin ciclos y con (n-1) aristas.
3) G es conexo y con (n-1) aristas.
4) G es sin ciclos y maximal. G es maximal si al agregar una arista entre dos vrtices
no adyacentes se crea uno y solo un ciclo.
5) G es conexo y minimal. G es minimal si suprimiendo una arista cualquiera del
grafo, ste deja de ser conexo)
6) Todo par de vrtices est unido por una y solo una cadena.
Teorema: Un rbol de orden n >2 admite por lo menos dos vrtices que son
adyacentes a un solo vrtice.
Teorema: Un grafo admite un grafo parcial que sea rbol ( dicho de otra forma
admite un rbol parcial (esqueleto) s. s. i. es conexo.
81
1) Al comenzar T = (vaco)
2) Agregue a T las aristas de menor valor que no formen un
ciclo con las aristas que ya estn en T.
ALGORITMO DE PRIM
Repita hasta que el rbol T tenga (n-1) aristas:
1)
2)
Se puede demostrar que estos algoritmos construyen esqueletos mnimos. El siguiente teorema,
demuestra la correctitud del algoritmo de Prim.
Teorema P1: El algoritmo de Prim es vlido, es decir al finalizar el algoritmo, el
grafo resultante E es un esqueleto mnimo.
Demostracin:
Podemos afirmar que por construccin, al finalizar el algoritmo, E es un subgrafo parcial de
G (conexo) y sin ciclos ==> es un ESQUELETO.
A continuacin probamos que E es un esqueleto mnimo y lo hacemos por induccin en
la K-sima iteracin del algoritmo.
82
Ek-1
i
L.Q.Q.D.
83
da
parte de la
era
Este algoritmo permite calcular cuan lejos se puede llegar en 1, 2 .... m unidades.
Como est especificado en Pero tiene una ineficiencia muy significante, Si la suma
d(p) + w(u) en 2) tiene valor por lo menos m'>m entonces el contador de distancia
m, debera ser incrementado inmediatamente a m' (m := m').
Ejemplo: Encontrar el camino mnimo (mas corto) entre F y C del siguiente grafo
84
(F,7)
A
3
7
(-,0)
(F,5)
1
(I,6)
(A,9)
6
3
4
(G,9)
(D,9)
(E,7)
(F,6)
85
5. REDES FLUJOS
Red es un grafo ponderado, con un nodo a llamado fuente y otro nodo z llamado
pozo, terminal o resumidero (sink).
N = ( X, U, W)
U = { (x i,
X = { a, z, x i , 1 i n-2}
xj), ........}
Consideramos redes orientadas. Es viable afirmar que una red siempre es orientada.
d
5,5
b
7,4
7,6
4,3
4,1
a
4,0
3,2
8,6
8,8
c
5,5
- maximizar el
Se transportan unidades de flujo de un sitio a otro a traves de una red, con ciertas
restricciones en cuanto a capacidades de envo en las lneas que componen la red. En
el caso del transporte de petrleo, la capacidad de un arco representa la capacidad en
barriles por minuto de una seccin del oleoducto, el flujo es el fludo que se transporta
o enva.
86
Lo que se busca es maximizar un "flujo" desde el nodo a al nodo z, de tal modo que el
flujo ( fludo) que pasa por cada arco no exeda su capacidad permitida.
Es un problema tpico de Investigacin de Operaciones:
max
{Flujo}
segn restricciones
La capacidad y flujo de los arcos pueden tener asignados otros valores, que no sean
enteros positivos, pero se debe tener especial cuidado al aplicar un algoritmo de
solucin que sea adecuado a esa caracterstica.
87
c) x a, x z, uI+(x) (u) =
uI-(x)
(u)
u) =
xP uI-(x)
(u)
Obs: algunos (u) se repiten en ambos miembros de la igualdad, ya que en ambos lados se
sumas el flujo de aquellos arcos que van de un nodo en P a otro en P.
Por ejemplo tomando P = {b,c}en el ejemplo de la fig. 4.1,
uI+(b)
(u) = 5+2 =
I+(c)
uI-(b)
(u) = 5+3 =
(u) = 4+3
uI-(c)
(u) = 8+0
xP
5+2+5+3 == xP 4+3+8+0
Eliminando los flujos (u) que se repiten en ambos miembros se obtiene una nueva
condicin para todo subconjunto P de nodos que no contengan ni a ni z.
c')
u(P,Pc)
(u) =
u(Pc,P,)
(u)
Es decir que P que no contenga ni a ni z, el flujo que ingresa a P es igual al flujo que sale
de P.
Teorema N.1
Para cualquier flujo a-z, en una red N, el flujo que sale de la fuente a es
igual al flujo que ingresa (entra) al pozo z.
Demostracin: Suponga momentaneamente que N = (X, U, W) no contiene ningn arco
(a,z). (nota: el teorema es vlido tambien cuando existe un arco (a,z)).
Sea P = { X - a - z} y Pc = {a, z}
88
P
Flujo saliente de
a=
uI+(a) (u)
(Pc,P)
(u) =
u(P,Pc)
I+(a)
(u)
(u) =
u(Pc,P)
(u)
flujo entrante a z
Flujo saliente de
uI+(a) (u)
flujo entrante a z
LQQD La condicin b) de
uI-(z) (u) =
flujo a-z determina que el nico flujo hacia P desde Pc={a,z} debe ser desde a.
Cuantificacin de un flujo a-z : ||.
|| es el valor del flujo a-z, y se define como la suma del flujo que sale de a,
( equivalente a decir que es la suma del flujo que entra a z). Entonces, una cota
superior de || es la suma de las capacidades de los arcos incidentes hacia el exterior
de a.
|| = uI+(a) (u)
uI+(a)
k(u)
89
Expandimos la red N agregndole un nodo a' con un arco u' = (a', a) de capacidad
infinita (significa muy grande), k(u') = , a' Pc.
a'
Pc
Pc
P
fig. 4.3
|| = (u')
(*)
u(Pc,P)
(u) =
|| k(P,Pc)
u(P,Pc)
L.Q.Q.D.
Corolario N.2
Para cualquier flujo a-z, , y cualquier corte a-z, (P,Pc), en una red N,
|| = k(P,Pc) s.s.i
i) (u) = 0 , u (Pc,P) ii) (u) = k(u), u
(P,Pc).
En este caso decimos que es un flujo mximo y (P,Pc) es un corte a-z de capacidad mnima.
Demostracin:
Considere las inecuaciones en (*) de la demostracin del Teorema N.2 y la red expandida.
c
90
Directo
Si || = k(P,Pc) entonces se cumple la igualdad en la inecuacin (*) es decir, || =
(u)
u(Pc,P)
i) es verdadera,
(si fuese u(Pc,P) (u) > || , habran otros flujos positivos hacia P).
Adems
(P,Pc)
(u)
u(P,Pc), porque si no
u(P,Pc)
u(P,Pc)
3,3
5
5,3
5,3
4
4
6,3
2
6,0
1
1,0
3,3
z
6,3
5
e
91
Supongamos que a la red de la figura no se le asignaron flujos a sus arcos. Encontramos en esa red
el camino L1 = {(a,b), (b,d) (d,z)}= a-b-d-z. La holgura mnima de L1 es 3, min s(u) = 3 u L1.
Esto quiere decir que podriamos sumarle un flujo de 3 unidades a cada uno de los arcos de L1.
Luego identificamos el camino L2 = a-c-e-z, y hacemos lo mismo que con L1, en este caso tambien
sumamos 3 unidades, min s(u) = 3 u L2.. Con el mismo procedimiento se podra ir aumentando
el flujo de los arcos pertenecientes a caminos que van de a a z, con su holgura mnima, hasta
encontrar un flujo que sea mximo.
Afirmacin: Cualquier flujo en una red N, se puede descomponer unidades de flujo a-z en caminos
que van de a a z.
Por ejemplo el flujo de llamadas de telfonos de un pas a otro puede ser descompuesto en llamadas
individuales; el flujo de petrleo en su envo, puede descomponerse en los caminos del envo de
cada tonelada.
Unidad de flujo a-z en L, siendo L un camino que va de a a z, es el flujo
L
y
con L(u) = 1 si u L
L(u) = 0 si u L
L1(u)
L2(u),
u U
El flujo de la red sigue siendo un flujo a-z, siempre que (u) k(u), u caminos en
consideracin.
Si s es la menor holgura en un camino L, es entonces la holgura mnima del camino L por lo que se
puede sumar s
al flujo de la red.
s* L = L+ L+ L +
= + s * L
...... (s veces).
92
Este mecanismo nos sugiere una manera de construir un flujo mximo: aumentando el flujo de la
red mediante la suma de unidades de flujo a-z equivalentes a la holgura mnima de los caminos a-z
que as lo permitan.
Volviendo al ejemplo, al comienzo el flujo de la red es (u) = 0 uU , luego encontramos el
camino L1 = a-b-d-z y le sumamos a flujo 3
L1
L2
L3
y L4 = a-c-d-z- de holgura
Luego de aumentar el flujo con L4, todos los caminos que llevan a Z tienen holgura mnima 0 y en
la bsqueda de caminos con alguna holgura mnima, no se puede seguir mas all que de a hasta c.
Se han saturado todos los arcos de un corte a-z; u (P,Pc), P = { a,c}, (u) = k(u).
9 = ||
maximal (por corolario N.2)
k(P,Pc) =
y el corte es mnimo, es el de capacidad mnima, observar que al estar saturado, no se puede enviar mas
que k(P,Pc) unidades desde a.
En este caso se tuvo la intuicin necesaria para encontrar los caminos que llevaron al flujo mximo.
Pero no siempre es tan fcil.
La siguiente figura muestra otro procedimiento de aumento a la red del ejemplo.
2
b
d
3,0
3
6,
1
5,5
3
6,5
1,1
z
a
5,1
2
4
6,5
6
c
3,1
3
Se empieza con L1 = a-b-e-z saturando el arco (a,b), sumandole 5L1. Luego L2 = ac-d-z, saturando
(c,d) y sumandole al flujo 1 L2. Queda nada mas que un camino sin saturar L 3 = a-c-e-z holgura
mnima 1, se sumando 1L3 al flujo total.
93
= +5
L1
+1
L2
+1
L3
No hay mas caminos de a a z con holgura mnima positiva ( >0 ), no es posible aumentar mas el flujo.
De a puedo llegar nada mas que hasta e pasando por c.
Queda determinado un corte saturado (P, Pc), P = {a,c,e}. Luego observamos que
|| = 7 y k(P, Pc) = 12.
94
b a z , con nodos en c. El nico camino con esas caractersticas es K2 = b-d-z. La mnima holgura
en K1 es 2, y en K2 es 3, el mnimo entre ellos es 2, entonces se disminuye el flujo de (b,e) en dos,
(b,e) : = (b,e) - 2 , y se aumenta el flujo de K 1 y K2 en 2. Con este aumento de correcin se
obtiene el flujo mximo,en el corte a-z saturado con P=
{a,c},Pc={b,d,e,z}.
Observen que el procedimiento ha consistido en realizar una correccin en la cadena K = a-c-e-b-f-z
de 2 unidades de flujo.
Definicin Unidad de flujo a-z en una cadena K que va de a a z, es el flujo
con K(u) = 1
95
Teorema: Dado cualquier flujo a-z , aplicando un nmero finito de veces el algoritmo de Ford y
Fulkerson, se obtiene un flujo mximo. Adems, si P es el conjunto de vrtices marcados en la etapa
final del algoritmo, el corte (P,Pc) es un corte a-z mnimo.
Corolario (Flujo mximo- Corte mnimo)
En cualquier red orientada, el valor de un flujo mximo a-z es igual a la capacidad de un corte
a-z mnimo.
Los problemas de ordenamiento son inherentes a toda organizacin. Estos problemas se resolvieron
en forma emprica, mediante diagramas de Gantt, hasta 1958. En esta fecha aparecen el mtodo
PERT, o americano, y el mtodo de los potenciales de B. Roy que resuelven los problemas de
ordenamiento en el caso particular en que las restricciones son de sucesin y de ubicacin temporal
de tareas. Estos dos mtodos, que llamaremos de camino crtico, surgieron a partir de necesidades
concretas de proyectos de gran envergadura con una organizacin muy compleja debido al gran
nmero de tareas. A pesar de que el mtodo del camino crtico resuelve un caso particular de los
problemas de ordenamiento, y de los ms simples, se ha convertido en elemento indispensable en la
gestin de las organizaciones.
Los problemas de ordenamiento aparecen en diversas reas: informtica (jobs, gestin de recursos:
procesos, memoria), construccin (seguimiento de proyectos), industria (problemas de talleres,
gestin de la produccin), administracin (empleo de tiempo).
En los problemas de ordenamiento distinguimos: las tareas, las restricciones potenciales, los recursos y
la funcin econmica.
Las tareas son el comn denominador de los problemas de ordenamiento, su definicin no es
siempre inmediata ni trivial. Cuando la duracin y las fechas mas tempranas de comienzo de una
tarea son conocidas, estamos ante un problema esttico, por el contrario, cuando el conjunto de
tareas evoluciona con el tiempo de forma no determinista, estamos ante problemas estocsticos y/o
dinmicos.
Las tareas pueden estar ligadas por restricciones de sucesin y de localizacin temporal, que
llamamos restricciones potenciales. Ejemplo de restricciones de sucesin: construir primero los
cimientos de un edificio, luego las paredes, etc. Ejemplo de restricciones de localizacin temporal:
tal tarea no puede comenzar antes de tal fecha o se tiene que terminar antes que tal otra.
Las tareas requieren de recursos para ejecutarse . Los recursos determinan dos tipos de
restricciones: disjuntivas y acumulativas. Una restriccin disjuntiva aparece cuando, por ejemplo,
dos tareas usan la misma mquina y no se pueden ejecutar simultneamente. Hay una restriccin
acumulativa cuando, por ejemplo, tres procesadores estan disponibles para ejecutar cuatro tareas,
con lo cual una se retrasar y deber necesariamente esperar la finalizacin de alguna de las otras.
La funcin objetivo se determina segn cmo se programen las tareas de forma de optimizar segn
un cierto criterio. Por ejemplo, la minimizacin de la duracin total de un trabajo (criterio ms
usado), respetando las fechas de los pedidos, o minimizacin de un costo, etc. En forma genrica
hay tres tipos de funcin objetivo en los problemas de ordenamientos: 1) uso eficaz de recursos, 2)
demora mnima en la de ejecucin de las tareas, 3) cumplimiento de las fechas de finalizacin
fijadas a priori.
97
di =
ti =
6.1.3 Recursos
Se distinguen dos tipos de recursos: renovables y consumibles.
98
Un recurso es renovable si despus de haber sido usado en una tarea, es utilizable totalmente en las
tareas posteriores. Ejemplos: mquinas, procesadores, archivos, personal, etc. Un recurso es
consumible si despus de haber sido utilizado en una tarea, ya no esta ms disponible para las
posteriores. Ejemplos: materias primas, dinero, etc. Los recursos, sean renovables o no, pueden estar
disponibles solamente en ciertos perodos, sujetos a una curva de disponibilidad.
99
100
tj - ti aij, i,j I
donde ti (respectivamente tj) es la fecha de comienzo de la tarea i (resp. j) y aij un real cualquiera.
El objetivo es minimizar (Tmax):
101
Sucesin inmediata: la tarea j empieza exactamente cuando termina la tarea i: (t j ti+ di) y ti tj + di
(tj - ti) di y (ti - tj) -di
Observar que con este modelo no se pueden tener en cuenta restricciones disyuntivas, es decir, sus
intervalos de ejecucin deben ser disjuntos (i antes que j o j antes que I). Esto ocurre por ejemplo, si
dos tareas necesitan un mismo recurso, cuya disponibilidad no es suficiente para la ejecucin de
ambas en simultneo, esta restriccin no puede ser representada por una conjuncin de
desigualdades de potencial.
Ejemplo: Sean 5 tareas I = {1, 2, 3, 4, 5}, y sus resp duraciones d = {1, 3, 1, 2, 1}.
Las tareas estn sujetas a las siguientes restricciones temporales:
la tarea
2 comienza en la fecha 3:
[t2 - t0 3] y [t0-t2 - 3]
las tareas 3 y 4 deben superponerse por al menos una unidad de tiempo:
[t3 t4+d4 -1] y [t4 t3+d3 - 1]
la tarea 4 puede comenzar solamente despus del fin de las tareas 1 y 2:
[t4 - t1 d1] y [t4 - t2 d2]
la tarea 5 no puede empezar antes del comienzo de la tarea 3
[t5 t3]
Este problema lo modelamos mediante un grafo de potencial-tareas(primera figura), la segunda figura
resulta de suprimir las restricciones redundantes:
102
103
Teorema de Existencia: Una condicin necesaria y suficiente para que exista un conjunto de
potenciales sobre un grafo conjuntivo G=(X ,U, W) es que este grafo no contenga circuitos de valor
estrictamente positivo.
Demostracin:
( ) Por absurdo.
Sea [1,2,...r,1] un circuito de valor estrictamente positivo: w 12 +....+ wr1 > 0. Si existiera un
conjunto de potenciales sobre G, tendramos
t2 -t1 w12 ....
tr-tr-1 w(r-1)r
t1-tr wr1
Sumando tendramos w12 + ...+ wr1 0, absurdo.
() Por hiptesis, G conjuntivo (existe al menos un camino de valor positivo que va de 0 a i) y no
existen circuitos de valor positivo.
Por lo tanto, tomando un camino que va de 0 a i y suprimiendo circuitos de valor negativo, se puede
extraer un camino elemental de 0 a i de valor por lo menos la del camino original. El nmero de
caminos elementales es finito, entonces existe un camino elemental de valor maximal de 0 a i.
Notemos ri el valor de este camino y verifiquemos que R={r i} i I es un conjunto de
potenciales: r0 = 0, rj es el valor mximo de los caminos elementales de 0 a j.
ri + w(i,j) es el valor de un camino de 0 a j pasando por i con un valor ri, por lo tanto
ri + w(i,j) rj, w(i,j) = wij o sea: rj ri wij, i, j I
L.Q.Q.D.
104
Demostracin:
Sea [i, h,...,k, j] un camino de i a j de valor V(i,j), Por
definicion de potencial: th-ti wih, ..., tj-tk wkj, sumando todos los trminos
obtenemos: tj - ti wih + ...+ wkj = V(i,j).
L.Q.Q.D.
105
tarea
1
2
3
4
5
6
7
duracin
3
7
4
6
5
3
2
restricciones potenciales
V(0,n+1) = t
*.
Entre los ordenamientos optimales, los ordenamientos ms tempranos, R, y los ms tardos, F, son
particularmente los ms interesantes, ya que ri ti fi.
Resolver los ordenamientos ms tempranos y ms tardos R y F que estn definidos por V(0,i) = r i
y fi = V(0,n+1) - V(i,n+1), equivale a resolver problemas de caminos en grafos. Se usa
algoritmo de Bellman sobre grafos conjuntivos, algoritmo de complejidad O(m), m = nro.
restricciones potenciales. Lo ms comn son grafos con ponderaciones estrictamente positivas
sus arcos, y la existencia de circuitos implica la no existencia de soluciones. En presencia
circuitos de valor negativo se puede por ejemplo utilizar el algoritmo de Ford (O(n3)).
Aplicando el algoritmo de Bellman al ejemplo anterior, encontramos: r0 = r1 = r2= 0,
r3 = 3, r4 = r5 = 7, r6 = 13, r7 = 16, r8 = 18; el clculo de las fechas ms tardas es
anlogo, f0 = 0, f4 = 4, f2 = 0, f3 = 9, f4 = 7, f5 = f6 = 13, f7 = 16, f8 = 18.
106
el
de
en
de
6.3.3 Holguras
Los mrgenes u holguras tienen por funcin evaluar la demora o el retardo permitido en una tarea,
sin modificar "demasiado" los resultados. Definiremos el margen u holgura total M i, la holgura o
margen libre mi, y el margen seguro ui.
Holgura total Mi de una tarea i es el tiempo que se puede retardar una tarea sin afectar la fecha de
fin de proyecto. Mi es entonces, la diferencia entre la fecha ms tarda y la ms temprana:
Mi = fi-ri.
Holgura libre mi de una tarea i es el tiempo que se puede retardar esa tarea de forma que las tareas
sucesoras puedan empezar en la fecha ms temprana: mi = Min [jU+(i)] {rj-(ri+wij)}
Margen seguro ui de una tarea i es el tiempo disponible para comenzar la ejecucin de una tarea,
cuando las predecesoras empiezan en sus fechas ms tardas y las sucesoras en sus fechas ms
tempranas, si existe y si no es nulo: ui= Max {0, min [jU+(i)] (rj-wij) - max [kU-(i)] (fk+wki)}
Camino crtico: los caminos de valor maximal que van de 0 a n+1, juegan un rol central en este
mtodo, ya que toda tarea que compone alguno de estos caminos tienen un holgura total nula. Se
dice que estas tareas son crticas ya que si se retardan unidades de tiempo, el ordenamiento se
retardar tambin unidades.
107
108
[(i,j)U](Ki - ni*ti)
sujeto a: Ii di Si,
[(i,j)]di
Donde representa los caminos que van de la raiz al final, y es un parmetro que representa la
duracin total del proyecto.
7. PROCESOS ESTOCSTICOS
7.1 Introduccin
7.1.1 Experimentos, espacio muestral, evento.
109
110
Si X es una variable aleatoria discreta, y {xj, j=1,2,3,...} es el conjunto de los valores que puede tomar
, entonces
P(X=xj) = p(xj) 0, j=1,2,3,... y j p(xj)=1. es la distribucin
de probabilidades de la v.a. X.
Siempre que p(xj) satisfaga estas condiciones es lcito hablar de una v.a. que asume los valores x1,
x2,...xN con probabilidad p(x1), p(x2),.., sin hacer ms referencias al espacio muestral original; se
forma un nuevo espacio con los puntos muestrales x1, x2,... xN.
Si Y es una v.a. continua (su recorrido es el conjunto de los Reales, R), la probabilidad de que tome
un valor fijo es en general nula, y existe una funcin fY(y) llamada funcin de densidad en R, que
verifica la propiedad siguiente:
BR,
P(Y B) = fY (y)dy,
Para describir las distribuciones de probabilidades se utilizan adems valores tpicos, como ser
mediana, trmino central, etc.
La Esperanza es el valor tpico ms importante de una v.a. por su estabilidad muestral. x j p(x j ) si la
v.a. X es discreta
xX
E(X
(x E(X )) p(x )
j
(( X
Var(X )= E
E(X
(x E(x)) f
2
si X discreta x
)) )=
2
(x)dx
si X continua
111
Indicatriz de un evento
Sea A un evento cualquiera. Definimos la variable aleatoria "Indicatriz del evento A", que notamos
por IND(A), a una v.a. binaria, que toma valor 1 cuando el evento A se produce, y valor 0 en otro
caso. Por lo tanto:
P(IND(A)=1) = P(A) P(IND(A)=(0) = 1-P(A)
Es fcil ver que:
E(A) = 1.P(A)+ 0.(1-P(A))=P(A) y que
Var(IND(A)) = E(IND(A) 2) - E2(IND(A )= (12.P(A)+ 02.(1-P(A))) - P(A) 2
= P(A) -P(A) 2 = P(A)(1-P(A)).
Distribucin de Poisson
k 0,> 0
k!
Se puede demostrar que
1) P(N = k) 0
2)
=1
k=0
k!
ke
3) E(N) = Var(N) =
Con frecuencia se supone que el nmero de llegadas de clientes a un negocio, durante un
intervalo de tiempo, o la demanda de un producto, se comportan segn una distribucin Poisson.
es el parmetro de la distribucin, correspondiendo a la intensidad de llegadas por unidad de
tiempo.
Aclaracin: Modelando siempre es necesario realizar simplificaciones de la realidad, ahora, se
debe simplificar lo suficiente para que el modelo sea tratable matemticamente, pero no demasiado
como para que el modelo ya no sea una representacin del fenmeno real.
112
Distribucin Exponencial
Decimos que una v.a. X continua es exponencial con parmetro , >0, cuando:
ex x 0
f X (x) =
0
x<0
1ex x 0
P(X x) =
f X (t)dt =
x<0
E
Se puede demostrar que si X es una v.a. esponencial, entonces
E(X ) =
Var(X) =
Generalmente se procura trabajar con v.a. que reflejen con la mayor simplicidad posible las
propiedades realmente esenciales de los resultados del experimento.
En muchos casos la observacin de un experimento aleatorio no viene expresada por una sola
cantidad observada, sino simultaneamente por una cierta cantidad de variables aleatorias.
Definiciones
Se llama Distribucin Conjunta de dos v.a. X e Y discretas, definidas en un mismo espacio
muestral (discreto), a la funcin
P(X = xj, Y = yk) = PXY (xj, xk)
xj ,xk
que asigna probabilidades a todos los eventos simultneos que surgen de las combinaciones de los
pares de valores (xj, yk) que toman X e Y respectivamente. (X=xj, Y=yk) es el evento definido por el
par de sucesos que satisfacen simultaneamente las condiciones X = xj, e Y = yk.
Se dice que 2 variables son estocsticamente independientes si para toda combinacin de pares de
valores (xj, yk)
P(X = x j ,Y = yk )= P(X = x j )P(Y = yk )
Estas nociones se extienden a un conjunto finito de v.a. X, Y, ..., Z definidas en un mismo espacio
muestral. Estas variables sern mutuamente independientes si se verifica que su probabilidad
conjunta es igual al producto de las probabilidades individuales de cada una de ellas.
113
si P(B) > 0
P(B)
Para v.a. (caso particular del anterior):
P(Y = yk ,X = xk )
= xk )> 0
P(Y = yk|X = x j ) =
P( X
P( X = xk )
Se deduce, extendindolo a ms de dos variables:
)(
i Bi =
Entonces P(E)=
k ,
(E,Y = y2)
...(E,Y = yk )
.....
P(E) =
k=1
k=1
Existe una propiedad anloga en el caso continuo, pero es necesario que la varianza de Y sea finita: si
Var(Y)<, entonces
P(E) =
P(E
Y = y)fY (y)dy
Ejemplo 7.1.1:
114
Un cliente que entra a una tienda compra un sombrero con probabilidad p. Si el nmero de
clientes que ingresan por da sigue una distribucin Poisson de valor esperado , Cul es la
probabilidad de que no se venda ningn sombrero en un da?
Se define X como el nmero de sombreros vendidos y N como el nmero de clientes que llegan a la
tienda.
Condicionando en N
(1p)
= ep
=e e
n!
n=0
Esperanza Condicional
La esperanza condicional E(X|Y) es una nueva variable aleatoria definida en base a dos variables X e Y,
definida de la siguiente forma:
xP(X = x |Y = y) IND(Y = y).
E(X |Y) =
y
Tenemos que si Y toma el valor y, entonces entonces E(X|Y) tomar el valor: E(X |Y = y) = xP(X = x |
Y = y) = xpX |Y (x | y)
x
E X |Y = y = xP(X = x |Y = y) =
x
xP(X = x) = E(X)
x
Ejemplo 7.1.2:
Sea p(x,y):
P(Y
= + 2 = + = pY
115
Propiedad 1
La propiedad fundamental de la distribucin exponencial es que no tiene memoria.
Se dice que una v.a. X no tiene memoria si:
P( X > s+t|X > t ) = P( X > s) s,t 0
lo que es equivalente a
P(X > s +t, X > t)
= P(X > s) P(X > t)
y entonces
P(X > s+t) = P(X > s)P(X > t).
Esta ecuacin se satisface cuando X es exponencial ya que e(s+t ) = eset .
Tambin se demuestra que la distribucin exponencial es la nica distribucin continua que
verifica esa propiedad (as como la distribucin geomtrica es la nica distribucin discreta que
verifica esta propiedad).
Propiedad 2
Sea T1 y T2 variables aleatorias exponenciales independientes de tasa 1 y 2 respectivamente. Entonces
T=min(T1,T2) es una v.a. exponencial de parmetro
(1+2). Dem:
1 FT (t)= P(T1 > t,T2 > t) = (indep. T1 y T2 ) = P(T1 > t)P(T2 > t) = e1te2t = e(1+2 )t
por lo tanto T tiene la distribucin de una v.a. exponencial de parmetro (1+2).
Ejemplo 7.1.3
Considere el negocio de venta de sombreros.
Si T1 representa el tiempo entre la llegada de un cliente y el siguiente, y T2 el tiempo de atencin al
cliente, suponemos que ambos tiempos son exponenciales (no tienen memoria). Se quiere estudiar el
comportamiento conjunto de ambas distribuciones. Observemos el tiempo T transcurrido hasta que
uno de los eventos T1 y T2 ocurra. Interesa entonces:
T = min(T1, T2)
Consideremos T t
P(T t) =1 P(T > t) =1 P(min(T1,T2 ) > t) =1 P(T1 > t,T2 > t)
=1 P(T1 > t)P(T2 > t) =1e(+)t
Ya que T1 y T2 son independientes y s min(T1, T2) > t
( T1 >t, T2 >t)
116
e2x dx
dx
Ejemplo 7.1.4:
Suponga un sistema de colas (negocio de venta de sombreros) con un solo empleado . El intervalo
de tiempo que transcurre entre la llegada de un cliente y el siguiente se describe con una v.a.
exponencial X1, de esperanza 1/2 hora. El tiempo que le lleva al empleado atender a cada cliente
se comporta segn otra v.a. exponencial, X2, independiente de X1, de valor esperado 15 minutos.
Cul es la probabilidad de que un nuevo cliente llegue antes de que el servidor termine de
atender al cliente que est atendiendo? y viceversa? X1 = tiempo entre llegadas sucesivas
X2 = tiempo de atencin al cliente
E(X1) = 1/1 = 0,5 horas; 1 = 2 E(X2) = 1/2 = 0,25
horas; 2 = 4
1 =
P( X1 < X2 ) =
1 +2
117
Para estos casos se introduce el concepto de proceso estocstico, definindolo como una familia
de v.a. que describen la evolucin, a travs del tiempo, de un proceso fsico o experimento.
Definimos un proceso estocstico X=(Xt, tT) como una familia de variables aleatorias, cuyo
ndice tT es llamado el conjunto de los ndices (o parmetro de tiempo) del proceso X.
Para cada tT, Xt es una variable aleatoria sobre el espacio de estado del proceso X.
Definimos el espacio de estado de un proceso estocstico X como el conjunto mnimo E de todos
los valores posibles que las v.a. Xt puedan asumir; cada uno de estos valores es un estado posible
del sistema.
Notamos (Xt = e) el evento que indica que en el instante t el proceso se encuentra en el estado e.
Si E es un conjunto finito o infinito numerable de estados se dice que el proceso X es de espacio de
estado discreto.
Si en cambio las v.a. Xt toman sus valores en un conjunto E continuo (por ejemplo, los reales
positivos) se dice que el proceso es de espacio de estado continuo.
Cuando T es un conjunto numerable el proceso (Xt , tT) es de tiempo discreto
(tambin llamado sucesin estocstica o proceso en etapas). El caso ms comn es cuando T=N (los
naturales) o T=N* (los enteros positivos).
Cuando T es un intervalo real, finito o no, el proceso es de tiempo continuo.
Ejemplo 7.2.1
Consideremos un sistema de atencin al pblico.
Podemos definir el proceso estocstico X tomando Xt = nmero de clientes esperando en el instante
t. En este caso tenemos que E=N y T=R+, por lo que X es un proceso de espacio de estado discreto y
tiempo continuo.
Si en cambio consideramos el proceso estocstico Y tal que Yn = tiempo de espera del n-simo
cliente, tendremos que E=R+ y T=N, por lo que Y es de espacio de estado continuo y tiempo
discreto.
118
Definimos la evolucin del proceso como la sucesin de estados por los que va pasando el mismo.
Cada evolucin posible del proceso tiene una probabilidad de ocurrencia dada por la distribucin
conjunta de las probabilidades de ocurrencia en cada etapa,
(X
e1, X0 = e0 ).
Para calcular esta probabilidad utilizamos el producto de las probabilidades condicionales dadas para
cada etapa:
P(Xn = en,Xn1 = en1,..., X 2 = e2, X1 = e1,X 0 = e0 )
= P(Xn = en | Xn1 = en1,..., X 2 = e2, X1 = e1,X 0 = e0 )P(Xn1 = en1,..., X1 = e1, X0 = e0 )
= P(Xn = en | Xn1 = en1,..., X 2 = e2, X1 = e1,X 0 = e0 )...P(X1 = e1 | X0 = e0 )P(X0 = e0 )
n
Cada evolucin corresponde a un punto muestral de nuestro espacio de probabilidades de base, por
lo que la probabilidad de la unin de todas las evoluciones posibles debe ser 1.
Ejemplo 7.2.2
Consideremos el siguiente experimento. Sean A y B dos monedas distintas, con A una moneda
normal y B una moneda con una cara de cada lado. Se elige al azar una moneda entre las dos
posibles. A continuacin se lanza la moneda elegida y se observa el resultado. Si es un nmero
lanzamos un dado y observamos el resultado. Si es cara, la moneda se lanza nuevamente.
Este es un experimento que evoluciona en el tiempo, y donde adems cada resultado depende de los
resultados obtenidos anteriormente.
Los estados posibles son:
A = la moneda con cara y nmero fue elegida,
B = la moneda con dos caras fue elegida,
C = el resultado del lanzamiento de una moneda fue una cara,
N = el resultado del lanzamiento de una moneda fue un nmero,
1 = el resultado del lanzamiento del dado fue 1,
...
6 = el resultado del lanzamiento del dado fue 6.
Entonces el espacio de estado es E = {A, B, C, N, 1, 2, 3, 4, 5, 6}, discreto.
Adems el proceso consta de tres etapas, por lo tanto T tambin es discreto.
Esas etapas son:
1 seleccin de una moneda,
2 una moneda es lanzada,
3 se lanza una moneda o un dado.
119
Sabemos que las probabilidades de que se elija A B es de 1/2 para cada una:
P(X1 = A)= P(X1 = B)= 0,5
Tenemos tambin:
P(X 2 = C | X1 = A)= P(X 2 = N | X1 = A)= 0,5
P(X 2 = C | X1 = B)=1
Por ltimo:
P
(X
= C | X 2 = C, X1 = )=1
P(X 3 = C | X 2 = C, X1 = A) =1/2
3
P(X 3 = N | X 2 = C, X1 = A) =1/2
P(X 3 = i | X 2 = N, X1 = A)=16, i =1,2,...6
Entonces podemos calcular la distribucin conjunta de probabilidades para cada evolucin del
proceso. Dado un proceso estocstico de tiempo y espacio de estado discretos, es posible representar
mediante un rbol de profundidad k todas las evoluciones posibles de k etapas.
1/2
A
X1
1/2
1/2
X2
1/2
X3
1/2
1/2
N
1/6
1
1/6
1
C
La raz del rbol corresponde al estado inicial del proceso estocstico. A cada resultado posible de la nsima etapa del proceso estocstico le corresponde un nodo del nivel n+1 del rbol. Los arcos estn
ponderados por las probabilidades condicionales de transicin entre estados del proceso. La utilidad de
esta representacin grfica consiste en:
identificar todas las posibles evoluciones del proceso, como cadenas del rbol,
calcular la probabilidad de ocurrencia de cada posible evolucin del proceso,
calcular las distribuciones de probabilidad de los caminos de las etapas intermedias.
Pero cuando el espacio de estado contiene muchos estados, o el nmero de etapas es grande, no es
posible utilizar este rbol.
120
x x
proceso alcance el estado futuro n+1 dados los estados pasados 0, 1,... n-1 y el estado actual xn es
independiente de los estados pasados y depende solamente del estado presente xn (el pasado no
influye en el futuro ms que a travs del presente).
definidas.
Los nmeros pij, i,jE, se llaman probabilidades de transicin y definen la probabilidad de
que el proceso estando actualmente en el estado i pase al estado j en su prxima transicin,
independientemente de la etapa n en que se encuentre el proceso. De aqu en ms solo
consideraremos cadenas homogneas, salvo indicacin contraria.
A cada estado iE est asociado un conjunto de probabilidades de transicin pij0 que describen
el comportamiento de la cadena en su prxima etapa, indicando cuales son los estados j que
pueden ser alcanzados desde el estado i y con qu probabilidad.
El conjunto de los pij, i,j E forman la matriz de transicin de la cadena, que notaremos P. Los
elementos de P son las pij ordenadas a partir de una numeracin fija de los elementos de E
(eventualmente puede ser una matriz infinita):
121
0 p00
p0 j
p0r
P = i pi0
pij
pir
r pr0
prj
prr
0 i, j r = E
Cada fila i representa un estado presente i y cada columna j representa un posible estado futuro.
La entrada i,j es la probabilidad de que la prxima transicin tenga al estado j por destino.
La matriz P describe entonces para cada estado i E cuales son los estados j E que la cadena
puede alcanzar en su prxima etapa y con que probabilidad, por lo que cada fila i es la distribucin
de probabilidad (condicional) de la v.a. Xn+1 dado que Xn=i. Al ser cada fila una distribucin de
probabilidad, se verifican las siguientes propiedades:
pij 0,i, j E
pij =1,i E
jE
Una matriz cualquiera que verifica estas ecuaciones recibe el nombre de matriz estocstica. Cuando
adems la suma de las probabilidades de cada columna es 1 se dice que P es bi-estocstica.
Ejemplo 7.3.1
Consideremos un sistema de comunicaciones que transmite los dgitos 0 y 1. Cada dgito
transmitido debe pasar por varios nodos (o centrales). Existe una probabilidad p, 0 < p <1, de que
el dgito enviado desde un nodo contine incambiado cuando llega al nodo siguiente y sea
reenviado, pero con probabilidad 1-p surgen perturbaciones en la lnea que modifican el dgito.
Denominemos Xn al dgito enviado desde el nodo n, entonces Xn+1 es el dgito recibido en el nodo
siguiente y retrasmitido. Para cualquier n, Xn solamente puede tomar los valores 0 o 1. Entonces el
espacio de estado es E = {0, 1}
Esta cadena es homognea ya que las probabilidades de transicin no dependen de la etapa en la que
nos encontramos; para cualquier par de etapas n y n+1, la probabilidad de que el proceso contine
en el mismo estado cumple:
P(dgito transmitido por la central n = dgito recibido por la central n+1) = p, n Definimos sus
probabilidades de transicin:
P(Xn+1=0Xn=0) = p00 = p
P(Xn+1=1Xn=0) = p01 = 1p
P(Xn+1=0Xn=1) = p10 = 1p
P(Xn+1=1Xn=1) = p11 = p
Con estos datos se construye la matriz P de transicin, ordenada como el espacio de estado E:
P=
0
1
122
0
1
p
1
p
1
p
p
pij = pij =1 ,
i, j {0,1}
i por lo que la matriz P es no slo estocstica sino tambien biestocstica.
Sea X={Xn,n0} una cadena de Markov finita de espacio de estado E={1,2,...r}, |E|=r, y matriz de
transicin P. Podemos asociar un grafo orientado ponderado G=(E,U,W) a la cadena X de la forma
siguiente:
E (espacio de estado de la cadena) es el conjunto de nodos
U = {uij=(i,j)|i,jE, pij>0} es el conjunto de arcos orientados
W es la funcin de ponderacin que asigna uij + (i) la probabilidad de transicin pij > 0
123
P(X n = en ,
X 1 = e1 , X 0 = e0 ) =
entonces:
Las ecuaciones de ChapmanKolmogorov nos dan una relacin recursiva entre las probabilidades
de transicin en varios pasos. La primer formulacin de estas ecuaciones es la siguiente:
pik(n)pkj(m) , n,m 0,i, j E
m
E
kE
Como justificacin intuitiva de esta ecuacin, vemos que pik.pkj representa la probabilidad de que
partiendo del estado i el proceso llegar al estado j luego de n+m transiciones, siguiendo un
camino que lo hace pasar por el estado k en la nsima transicin.
Por lo tanto, tomando la sumatoria sobre todos los estados intermedios kE, obtenemos la
probabilidad de que el proceso alcance el estado j luego de n+m transiciones (se suman ya que
cada camino es una evolucin del proceso y las evoluciones del proceso son sucesos disjuntos).
Demostraremos a continuacin las ecuaciones de ChapmanKolmogorov:
124
teo. prob.
(n+m
pij
def
= PX
n+m
j | X o = i) =
P(X o = i)
P(X n+m = j | X n = k, X o = i)P(X n = k, X o = i)
Markovprop
=.de
P(X o = i)
=
kE
def
( n+m j, X o = i) total=
P(X n+m = j, X n = k, X o = i) condicionadef .prob= . l
(
=
kE
kE
P(X o = i)
simplif .
por def .
pkj(m) pik(n)
QED.
kE
pik(n)pkj
kE
Esta expresin sugiere el uso de matrices para el calculo de las probabilidades pij(n) .
Recordemos que si A es una matriz nxm de elemento genrico aij y B es una matriz mxq de
elemento genrico bij, entonces AxB se define como la matriz nxq cuyo
m
aikbkj .
k=1
en el caso general,
cuando m =1.
Una propiedad importante que se puede demostrar a partir de esta formulacin es que la matriz de
transicin en n pasos es igual a la n-sima potencia de la matriz de transicin en un paso, P:
P(n) = (P)n
Para demostrar esta afirmacin utilizaremos induccin completa:
125
Paso inductivo: suponemos que para n-1 la frmula es cierta, P(n1) = Pn1
Entonces
hip.de
QED
si
{X
= j | X0 = i} P(X n = j | X0 = i)= 0
n=1
n=1
{X
= j | X0 = i} P(X N = j | X0 = i)> 0
n=1
Decimos que dos estados i y j se comunican (notacin ij) cuando son alcanzables el uno desde
el otro (o de forma equivalente cuando existen n,m0 tales que pij(n) > 0 y p(jim) > 0).
Se define as la relacin de comunicacin que satisface las siguientes propiedades:
1) Reflexiva , ii iE ya que por definicin: pii(0) = P(X0 = i | X0 = i)=1 > 0
2) Simtrica, si ij ji, i,jE se verifica por definicin de la relacin
comunicacin.
3) Transitiva, si ij y jk
ik, i,j,kE
por hiptesis ij y jk, entonces por definicin de la relacin de
comunicacin
n,m
, pkj(t) > 0
Veamos primero que
ChapmanKolmogorov,
es
alcanzable
desde
i.
Aplicando
las
ecuacines
por H.
126
de
Entonces k es alcanzable desde i. Con el mismo procedimiento vemos que i es alcanzable desde k,
entonces por definicin i y k se comunican.
Por lo tanto la relacin de comunicacin es una relacin de equivalencia en el conjunto de estados
del proceso, y por ende particiona al espacio de estado en clases disjuntas de equivalencia. Si
consideramos el grafo asociado a la cadena, podemos ver que la relacin de comunicacin lo
divide en sus componentes fuertemente conexas.
En efecto, la relacin de comunicacin implica la existencia de caminos entre ambos nodos del
grafo, es decir que si i y k se comunican entonces:
n,m| c1Cn(i,j) y c2Cm(j,i). Por lo tanto los dos estados i y k pertenecen a la misma
componente fuertemente conexa del grafo asociado a la cadena.
Cuando una C.M. finita y homognea posee una sola clase, es decir si todos sus estados se
comunican entre si, ij i,jE, se dice que la cadena es irreductible.
Ejemplo 7.3.3
Consideremos la siguiente cadena de Markov de espacio de estado E={0,1,2} con la siguiente
matriz de transicin:
P=
1
1
0
2
2
1
2
1
4
1
4
1
3
2
3
Comprobamos que todos sus estados se comunican, por lo tanto esta cadena es irreductible
(tiene una sola clase en el espacio de estado).
Si observamos el grafo asociado, vemos posee una sola componente fuertemente conexa, por lo
tanto es irreductible (tambin podemos llegar a esta conclusin a partir del hecho que la matriz es
tridiagonal, por lo que no se la puede triangularizar por bloques).
1/4
1/2
1/2
0 1/2
1/3
1
1/2
2/3
2
Ejemplo 7.3.4
Sea la cadena de Markov de espacio de estado E= {0,1,2,3} y matriz de transicin P,
P=
1
1
0 0
2
2
1
1
0 0
2
2
1
4
1
4
1
4
1
4
0 0 0 1
Las clases de esta cadena son: {0,1}, {2}, {3}.
127
Nota: si bien los estado 0,1 y 3 son alcanzables desde el estado 2, la accin inversa no es posible.
En particular, como p33 = 1, desde el estado 3 no es posible acceder a ningn otro estado, por lo
que decimos que 3 es un estado absorbente. El subgrafo asociado tiene 3 componentes
fuertemente conexas.
Estados recurrentes y transitorios
Un estado i es recurrente si partiendo de l existe la seguridad de que el proceso en algn
momento retorne a l. Un estado i es transitorio cuando partiendo de l existe una probabilidad no
nula de abandonarlo definitivamente (el proceso no retornar jams a ese estado).
Definimos i la probabilidad de que el proceso, partiendo del estado i, retorne al mismo:i = P (X
n
= i)(| X o = i).
n
recurrente si i = 1,
transitorio si i < 1.
0 , si X n i
Entonces
esperanza
= i | X0 = i)=
y Ri = E
An | X0 = i
E(An | X0 = i)=
P(Xn
pii(n) .
n=0
n=0
n=0
n=0
Proposicin
El estado i es recurrente si
pii(n) =
(diverge)
n=0
El estado i es transitorio si
pii(n) <
(converge)
n=1
Demostracin:
Supongamos que el proceso comienza su evolucin en el estado i, X0=i. Si i es recurrente, con
probabilidad 1 el proceso eventualmente alcanzar el estado i por segunda vez. Repitiendo el
128
razonamiento, vemos que el proceso pasar por el estado i una infinidad de veces, con
probabilidad 1.
Si en cambio i es transitorio, cada vez que el estado i es alcanzado existe una probabilidad de no
volver jams igual a 1-i, por lo que tenemos que la probabilidad de efectuar exactamente n
pasajes por el estado i (contando como uno la estada inicial) se puede expresar como:
P(X pase exactamente n veces al estado i | X 0 = i)=in1(1i ), probabilidad en la que
reconocemos una distribucin geomtrica de esperanza finita 1/(1i); entonces, el nmero
esperado de retornos al estado i es Ri = 1 / (1i) , que es finito.
Por lo tanto, si logramos calcular la esperanza del nmero de retornos del proceso al estado i,
podemos saber si dicho estado es transitorio (esperanza finita) o recurrente (nmero infinito de
regresos).
Propiedad
En una C.M. finita homognea existe por lo menos un estado recurrente (no pueden ser todos
transitorios).
Para justificar esta propiedad por el absurdo, supongamos que todos los estados {0,1,2,....,n} de
una C.M.F.H. son transitorios. Tomemos una trayectoria cualquiera de la cadena. Al ser el estado
0 transitorio, existir una etapa N0 luego de la cual el estado 0 ser abandonado para siempre. Al
ser el estado 1 transitorio, existir tambin una etapa N 1 luego de la cual el estado 1 tampoco ser
visitado. Y as sucesivamente con todos los n estados. Si tomamos ahora N = mx {N 0,
N1,....Nn}, N es un nmero natural por ser el mximo de un nmero finito de naturales.
Consideremos las etapas siguientes a la N, por ejemplo la etapa N+1: por definicin del espacio de
estado, XN+1= i E={0,1,2,....,n}; pero por ser NNk,kE={0,1,2,....,n}, entonces XN+1 k,
kE={0,1,2,....,n}, es decir XN+1E={0,1,2,....,n}, y hemos llegado a un absurdo.
Por lo tanto no todos los estados de una C.M.F.H. son transitorios, lo que implica que existe al
menos un estado recurrente.
Corolario 1
La recurrencia es una propiedad de clase: si un estado i es recurrente, e ij,
recurrente.
Demostracin
entonces j es
por def.
comunicacin
ij
i recurrente
pii(n) =
n=1
p(jlm)plr(n)prj(k) p(jim)pii(n)pij(k)
lEE
129
ij
ji
ij
>0
p(n) =
n=1
ii
120 0
P = 00
00
14
Esta matriz est triangularizada por bloques. Podemos diferenciar 3 clases de equivalencia en el
espacio de estado: {0,1}, {2,3} y {4}.
Las dos primeras clases son recurrentes. En cambio, la clase {4} es transitoria. Verificando en el
grafo asociado:
E0
1/2
1/4
1/2
1/2
E4
E1
1/2
1/4
1/2
1/2
1/2
E2
E3
1/2
ii
n=1
131
Un estado es recurrente nulo si mii=. En este curso no trataremos este tipo de estados ya que solo
aparecen en cadenas de Markov de espacio de estado infinito.
Periodicidad
(n)
d(i)=1.
Si un estado i es peridico de perodo d(i), el proceso puede retornar a dicho estado solamente en
las etapas multiplos de d(i).
Propiedad (dem. trivial)
Si el estado i tiene un lazo (es decir, si pii>0) entonces su periodicidad ser 1.
Propiedad (sin demostracin)
Se demuestra tambin que la periodicidad es una propiedad de clase: si i tiene perodo d(i), e ij,
entonces j tendr tambin perodo d(i).
Propiedad (sin demostracin; ver p.ejemplo Chretienne-Faure, pag. 27)
Sea i un estado de una componente conexa C cualquiera. Entonces se puede demostrar que para
calcular la periodicidad de i, es suficiente con examinar todos los ciclos de la componente conexa:
d(i)= MCD(n | existe un ciclo simple de largo n en C).
Una cadena es aperidica si todos sus estados lo son, y peridica en caso contrario.
Ejemplo
i
En esta cadena, tenemos que pii(n) > 0 para n = 4,6,8, (2 + 2k). Por lo tanto, d(i)=2, o sea que el
estado i es peridico de perodo 2. Como adems la cadena es irreductible, todos los estados de la
misma tendrn perodo 2. Ejemplo
1
/2
1/2
i
j
Esta cadena es aperidica, ya que el estado i tiene un lazo, por lo tanto d(i)=1, y como existe una
sola clase de estados, todos tendrn periodicidad 1.
132
Ergodicidad
Se define un estado ergdico como aquel que es recurrente positivo y aperidico. Un conjunto
K de estados es ergdico si todos los estados que lo componen son ergdicos. Una cadena de
Markov es ergdica cuando es irreductible y su espacio de estado es un conjunto de estados
ergdicos. Si una cadena de Markov es finita y ergdica, diremos que es una cadena regular.
Vector distribucin de estados
El vector de distribucin de estados de la cadena en la etapa n, Q(n), es un vector fila estocstico
(estocstico=suma de sus elementos igual a 1) que contiene las probabilidades para la n-sima
etapa del estado de la cadena:
,r}, E = r, r j (n)=1
j=1
matricial nos
resultado de la
cadena
iE
que corresponde a la ecuacin Q(n)= Q(n 1)P , la cual aplicada recursivamente nos permite
llegar a Q(n)= Q(0)Pn .
Ejemplo:
Sea una CMTDH con dos estados, A y B, y matriz de transicin
2/4 2/4
3/4 1/4
Si la distribucin inicial
Q(0)=(0,1), entonces Q(1)=(3/4,1/4), Q(2)=(9/16,7/16), Q(3)=(39/64,25/64)
Si Q(0)=(1,0), entonces Q(1)=(2/4,2/4), Q(2)=(10/16, 6/16), Q(3)=(38/64,26/64)
Si Q(0)=(1/2,1/2), entonces Q(1)=(5/8,3/8), Q(2)=(19/32, 13/32), ...
Definicin.
133
Es posible que una cadena de Markov admita ms de una distribucin estacionaria, como vemos
en el ejemplo siguiente. Sea una cadena de Markov de matriz de transicin P,
12 12
0
P = 12
0
12
0
0.
1
n
iE
P
puede estudiarse de forma genrica con tcnicas de transformada z, fuera del alcance de este curso.
134
2) Que para una cadena de Markov finita, irreductible y peridica, siempre existe una nica
distribucin estacionaria.
Para cadenas peridicas puede no existir una distribucin lmite. Veamos el siguiente ejemplo.
Ejemplo 7.3.8
1 1
Sea la cadena de matriz de transicin P, P =
. En esta cadena, si el estado
2 0
inicial X0 del proceso es el estado 1, en todas las etapas pares la cadena pasar por el
1 1
2n+1 estado 1, y en las etapas
impares por el estado 2. Podemos ver que P =
y
2 0
1 0
2n
para todo n0. Por lo tanto, no existe lim P , es decir que no tenemos
0 1
135
El espacio de estado de esta cadena es {1,2,3,4}, donde cada estado corresponde a una esquina en
nuestro problema. La cadena se encuentra en el estado i durante la etapa n, Xn=i, cuando el
vigilante est en la esquina i durante la n-sima unidad de tiempo.
Como el espacio de estado de esta cadena posee una sola clase de equivalencia, entonces la cadena
es irreductible, y como es finita, entonces todos los estados son recurrentes positivos. Para
estudiar la periodicidad, alcanza con ver que como el estado 3 posee un bucle, por lo tanto d(3)=1;
al existir una sola clase, todos los estados tienen la misma periodicidad, 1 en este caso. Tenemos
entonces que esta cadena es finita, irreductible y aperidica, entonces es ergdica. Por lo tanto,
existe p
una distribucin lmite que coincide con la estacionaria, 1 =2 =4 =
, 3p+1
3 =
) (
),
i, j E,x(u) :T E, s,t T
(propiedad de ausencia de memoria).
En esta seccin consideraremos solamente cadenas homogneas, es decir aquellas cuyas
probabilidades de transicin son independientes del instante de tiempo en el que ocurren:
P(X t+s = j | X t = i)= pij (s) , i, j E, t,sT
Para las cadenas de Markov de tiempo continuo homogneas podemos dar otra definicin
equivalente a la anterior, basada en la propiedad de ausencia de memoria. Diremos entonces que
una cadena de Markov de tiempo continuo es un proceso estocstico cuya evolucin respeta las
reglas siguientes:
1. el tiempo de permanencia del proceso en el estado i es una variable aleatoria independiente, de
ley exponencial y parmetro vi (por lo tanto, su media es 1/vi), para todo estado i de E.
Notaremos TPi a la variable exponencial del tiempo de permanencia en el estado i.
136
2. Cuando el proceso abandona el estado i, la eleccin del prximo estado j se realiza de acuerdo a
las probabilidades de transicin pij definidas para todos los estados i,j de E. Estas probabilidades
deben satisfacer pii = 0 , pij =1, i E .
jE
Es posible entonces considerar que una cadena de Markov en tiempo continuo es un proceso
estocstico cuyas transiciones de un estado a otro se realizan de acuerdo a una cadena de Markov
discreta, pero donde el tiempo de permanencia en cada estado es una v.a. exponencial en lugar de
un valor constante.
En una cadena de Markov de tiempo continuo, definimos el generador infinitesimal Q piji i j
como la matriz tal que qij =
. El generador infinitesimal de una cadena
i i = j
de Markov en tiempo continuo cumple un papel similar al de la matriz de transicin en tiempo
discreto. En particular, la distribucin estacionaria de una CMTC X es aquella que se obtiene de
resolver el sistema lineal Q=0, con la restriccion adicional i = 1 ; si la cadena es ergdica, la
distribucin estacionaria coincide con la distribucin lmite, que existe.
Grafo asociado a una C. M. de tiempo continuo homognea
W es la funcin de ponderacin que asigna uij + (i) la probabilidad de transicin pij =qij /(qii )> 0 correspondiente, W(uij) = pij > 0; y a cada nodo i E la esperanza del tiempo de
permanencia 1/vi=1/(-qii).
Como la suma de todas las probabilidades de transicin pij para cada fila i debe ser igual a 1,
entonces el grafo asociado a una C. M. finita homognea no puede ser cualquiera, sino que la
suma de las probabilidades asignadas a los arcos incidentes exteriormente a cada nodo debe ser
igual a 1.
Aunque el grafo retiene nada ms que las probabilidades de transicin entre dos estados, su
estudio es muchas veces suficiente para conocer cualitativamente la evolucin del proceso.
Ejemplo 7.4.1
En un negocio de lustrar zapatos hay 2 sillas (silla 1 y silla 2). Un cliente que llega se dirige
primero a la silla 1, donde le limpian los zapatos y le ponen pomada. Despus va a la silla 2
donde le lustran los zapatos. Estos dos servicios se consideran variables aleatorias exponenciales
independientes con parmetros respectivos 1 y 2.
Supongamos adems que los clientes entran segn una distribucin Poisson de tasa l y que
cualquier cliente entra solamente si las dos sillas estan desocupadas.
137
Para analizarlo como una C.M. en tiempo continuo, establecemos un espacio de estados
apropiado. En este sistema tendremos siempre 0 1 cliente, siendo adems relevante el saber
en que silla se encuentra el cliente por los tiempos del servicio.
Entonces E={0,1,2}, donde
estado 0
- ningn cliente
estado 1
- un cliente, en la silla 1
estado 2
- un cliente, en la silla 2
En cuanto a los tiempos de permanencia en cada estado tenemos:
TP0 - intervalo de tiempo hasta que llega el primer cliente, exponencial de tasa l. E(TP0 ) =1vo
=1 vo =1
TP1 - tiempo de permanencia del cliente en la silla 1, exponencial de tasa 1.
E(TP1) =11 1 =1
TP2 - tiempo de permanencia del cliente en la silla 2, exponencial de tasa 2.
E(TP2 ) =12 2 =2
Las probabilidades de transicin son: p01 = p12 = p20
=1.
El grafo asociado es:
1/
1/
01
p
p
20
12
2
1/2
138
Q(t)
E=
{1,2,
,r}, E = r, j (t) =1
j=1
j (t)=
P(Xt = j | Xo = i)P(Xo = i) =
iE
pij (t)i(0).
iE
Distribucin estacionaria.
Si Q(t)= es una distribucin estacionaria, entonces, Q(s)=, s>t.
Todo vector que verifique las ecuaciones Q = 0 y i =1 ser una distribucin
iE
Es posible que una cadena de Markov admita ms de una distribucin estacionaria, en cuyo caso el
sistema lineal correspondiente para hallar la distribucin estacionaria ser compatible
indeterminado.
Comportamiento asinttico de una cadena de Markov
Estudiaremos ahora el comportamiento de las cadenas de Markov cuando t tiende a infinito.
Para esto, estudiaremos j E,j = lmj (t) = lm i(0)pij (t).
t
tn
iE
139
Se puede demostrar que para una cadena de Markov de tiempo continuo finita y ergdica, siempre
existe la distribucin lmite, y que adems coincide con la distribucin estacionaria que es nica en
este caso. (ver en las pginas anteriores la discusin sobre ergodicidad).
Ecuaciones de balance de flujo:
Si es una distribucin estacionaria, entonces para cualquier subconjunto A del espacio de
estados E, se verifica la siguiente propiedad (que corresponde a las llamadas ecuaciones de
balances de flujo):
qij i =
iA
jE / A
q ji j .
jE / A iA
De manera recproca, un conjunto independiente de n-1 de estas ecuaciones junto con la condicin
de estocsticidad pueden ser empleadas para generar un sistema lineal cuya solucin es son las
distribuciones estacionarias (si existen).
Un caso particular de los procesos de conteo son los procesos de Poisson. Un proceso de conteo
{Nt ,t 0} es de Poisson si verifica las siguientes propiedades adicionales:
140
3
2
1
T
0
t
0
T
1
t
1
P(T2 > t) =
Tenemos que
incrementos
crecimiento
141
(T > t |T = s)=P(N
2
t+s
Ns =0|Ns =
independie
ntes
P T2
e= P T2 > t |T1 = s
e e
ds = e e
ds
Por lo tanto concluimos que la variable aleatoria T2 tambin es exponencial, y su esperanza es 1/.
Ademas T1 y T2 son independientes ya que P(T2 > t|T1 = s) = P(T2> t).
Con el mismo esquema, podemos demostrar que T3, T4, T5, etc., son variables aleatorias
exponenciales independientes, cuyo valor esperado es 1/ .
Recprocamente, una secuencia{Tn, n> 1} de variables aleatorias exponenciales independientes de
esperanza 1/ define un proceso de Poisson de tasa
n
Nt =
i=1
Ejemplo 7.5.1
Supongamos que la inmigracin a un pas se realiza segn un proceso de Poisson, de tasa = 1
inmigrante/da. Calculemos la probabilidad de que el tiempo transcurrido entre el dcimo y el
undcimo inmigrante exceda los dos das:
P{T11 > 2} = e-2 = e-2 0,133
142
Modelamos un sistema de este tipo a travs de un proceso estocstico X={Xt , t0}, con
Xt=nmero de individuos presentes en el sistema en el instante t. Este proceso estocstico, de
tiempo continuo y espacio de estado discreto, es un proceso de nacimiento y muerte. Decimos
que los parmetros
proceso.
Propiedad
Todo proceso de nacimiento y muerte de parmetros
es equivalente a una cadena
de Markov de tiempo continuo con espacio de estado E = {0,1,2,.....} y en la que desde
cualquier estado n solamente hay transiciones hacia los estados n+1 y n-1 (donde n corresponde
al nmero de individuos en el sistema modelado).
El grafo asociado al proceso de nacimiento y muerte tiene la siguiente forma:
3
n+1
n+1
n+1
n+2 1
La relacin entre las tasas de nacimiento y muerte del proceso con las tasas y probabilidades de
transicin de la cadena son las siguientes:
1. 0=0 ; i > 0 i=i+i tasa de transicin - suma de tasas de llegada y
salida
2. probabilidades de transicin:
p01 = 1
pi,i+1 = i /(i+i) i > 0 - probabilidad de que ocurra una llegada antes
pi,i1 = i /(i+i) i > 0 - probabilidad de que ocurra una partida antes.
Algunos casos particulares de procesos de nacimiento y muerte son los siguientes:
1.
procesos de Yule n=n,n, n=0, n (nacimiento puro, tasa lineal).
2.
3.
<
n
n=0 k=o
n
k+1
144
encontrarse en el estado 0 (es decir, p0), representa la proporcin de veces que es posible llegar al
estado 0. Dado que si el proceso se encuentra en el estado 1, la tasa media de entrar al estado 0 es
1. Es decir, la tasa media global a la cual el proceso entra al estado 0 es 1p1. Con el mismo
razonamiento, la tasa media global a la cual el proceso sale del estado 0 es 1p1.
Entonces, la ecuacin de balance para el estado 0 es
1p1 = 0p0
Para el resto de los estados, existen dos transiciones posibles, tanto hacia adentro como hacia fuera
del estado.
Las ecuaciones de balance se resumen a continuacin:
Estados
0
0, 1
0, 1, 2
...
0, 1, ..., n-1
0, 1, ... , n-1, n
...
Ecuacin de balance
1p1 = 0p0
2p2 = 1 p1
3p3 = 2 p2
...
npn = n-1pn-1
n+1pn+1 = npn
...
Dado que el sistema formado por las ecuaciones de balance hasta el n-simo conjunto de estados
contiene siempre n + 1 ecuaciones, podemos resolverlo en funcin de p0. Luego, imponiendo que
los pn sean una distribucin de probabilidades, es decir que sumen 1, puede hallarse p0.
Aplicando el procedimiento, llegamos a
Estad Ecuacin de balance
o
p1 =
0 p0
0
1
1
p2 = 1 p1 = 1 0 p0 2 21
2
...
n
...
p3 = 2 p2 = 2 1 0 p0 3
321
...
pn+1 = n pn = n n1...0 p0
n+1 n+1n...1
...
146
n1
...
n2 0 p0 para n = nn1...1
1,2...
n1n2...0
pn =1, o sea p0 +
n=0
n=1
nn1...1
obtenemos
nn1...1
n=1
Resumiendo, la distribucin de probabilidades en estado estacionario para una fila de espera con
llegadas de Poisson y tiempos de servicio exponenciales es:
= + n11n2...0pn =
nn1nn12......10 p0
1 n=1 nn1...1
n1...0
muerte, si la serie
n...1
converge, y la serie
n=1
diverge, la estabilidad
n...1
n=1
n...1
del sistema est garantizada, pues P0 est bien definido (y por ende, todas las dems
probabilidades en estado estacionario).
Cantidad esperada de clientes en el sistema
Con esta informacin podemos calcular la cantidad media de clientes en el sistema como el valor
esperado del estado del proceso:
n = npn
n=0
147
= (n s)pn
n=s
= nPn + spn
n=1
n=s+1
=t f
t =
Hemos obtenido ecuaciones para diversas medidas de inters (en estado estacionario) sobre filas
de espera con llegadas de Poisson y tiempos de servicio exponenciales sin hacer suposiciones
acerca de las tasas de llegada y de atencin. A continuacin aplicaremos estos resultados
genricos para establecer resultados en modelos especficos.
A continuacin presentamos un estudio de algunos modelos simples de filas de espera con llegadas
de Poisson y tiempos de servicio exponenciales.
149
SISTEMA
c c c c c c
c c c c c
Fuente con unidades fila o cola
idnticas
servidor
p0 =p1
pn =
pn+1 n>0.
Reescribiendo, tenemos
p1 =
p0
pn+1 =
pn , n 1
que puede ser resuelto en trminos de p0:
p1 =
p0
p2
2
p
=
p1 =
0
p3
3
p
=
p1
0
=
n+1
pn+1 =
pn =
150
p0
Por ser pn una distribucin de probabilidad, tenemos que
pn =
p0
n=0
1
p0
si <1
.
n=0
La condicin de que / < 1 es necesaria para que la serie sea convergente. Es tambin la
condicin de estabilidad de este sistema de colas.
Resolviendo ese conjunto de ecuaciones, llegamos a: p0 =1
pn = () (1), n 1
n = npn = n
n
2
1 =
n=0 n=0
(1) ()
151
n= 1
t s=
Tiempo medio de espera en la fila
1
t f = t s E(tiempo de servicio) = t s =
()
Nmero esperado de clientes en la cola
nxn1
n=0
x
2
, x <1.
(1+ x)
2 Utilizando igualdad de
Little: =.t f =
()
Tiempo de espera en el sistema
El tiempo de espera en el sistema es una variable aleatoria W. En el caso de la fila
M/M/1, su distribucin es exponencial de tasa (). Esto nos permite derivar de otra
1
forma el valor de t s = E(W ) =
Ejemplo 7.7.1
a) Supongamos que los clientes llegan segn un Proceso Poisson a razn de 1 cada
12 minutos y que el tiempo de atencin o servicio es exponencial de tasa un servicio
n=2
cada 8 minutos. Calculando, tenemos que
t s = 24
n=4
b) Aumentamos la tasa de arribos en un 20%. Al calcular, llegamos a t s = 40
152
n = n si n < s
n = s si n s
Por tanto, el diagrama de tasas toma la siguiente forma:
s-1
...
3
(s-1)
s+1
...
...
n+1
Condicin de estabilidad
Empleando las condiciones de estabilidad precedentes, podemos deducir que un sistema de este
tipo alcanzar un estado estacionario si se cumple la siguiente condicin: <s
Distribucin estacionaria
En ese caso, la distribucin de probabilidades en estado estacionario de cada estado (que se
obtiene aplicando las ecuaciones genricas de la seccin anterior) estn dadas por:
153
s1
(/)
(/)
P0 = 1+
n!
n=0
s!
1(/ s
(/)
Pn =
P0 si 0 n s n!
(/)
Pn
=
ns
P0 si s n
s!s
Cantidad esperada de clientes en la fila
= (ns)Pn
n=s
jPj+s
cambio de variable j = n s
j=0
(/)j+s = j
P
j
(/)s j1
=
P0 j
(/)
P0
s!
1 j=0
j=0
j1
j =
sabiendo que
1 s
P (/)s (/s)
=
reordenando trminos s! 1
P0 (/)s (/s) 1 t f =
=
2
s! 1 s
154
n =ts = t f +
= t f +
=t f + =+
155
...
n-1
n+1
...
(
1)
(
Es decir,
2)
si n < M si n
M para todo
n>0
n = (M n)
n = 0 n =
(n+2)
(n+1)
( n)
( n 1)
Condicin de estabilidad
Al ser n = 0 a partir de n = M, el sistema siempre alcanzar un estado estacionario (por
propiedades vistas en estabilidad de cadenas de Markov y procesos de nacimiento y muerte).
Distribucin estacionaria
Aplicando las ecuaciones genricas, hallamos la distribucin estacionaria del sistema:
n
P0 = 1
n
M!
Pn =
(M n)!
Pn = 0
P0
para n = 1, 2, ..., M 1
para n M
= (n1)Pn
n=1
M
= nPn Pn n=1
n=1
M
pues P1 + ... + PM = 1 P0
= nPn (1P0)
156
n=1
+
=M
(1 P0)
1 P0 n=0
Donde
n=0
= (M n)Pn
n=0
separando trminos
M M
n=0
= MPn nPn
n=0
M
= M Pn
nPn
n=0
=Mn
=(M n)
n=0
157
( 1) ( 2)
(s+2) (s+1) ( s) ( sn 1)
s-1
...
3
(s-1)
...
s+1
M
s
Es decir,
n = (M n)
n = 0
n = n
n = s
si n < M
si n M
para todo 0 < n < s
ns
Condicin de estabilidad
Al igual que para el caso con un solo servidor con fuente de entrada limitada, el sistema siempre
alcanzar un estado estacionario, pues el nmero de estados alcanzables es finito.
Distribucin estacionaria
Aplicando las ecuaciones genricas, hallamos la distribucin estacionaria del sistema:
n
M!
P0
P n (mn)!n!
P0
M!
=Pn =
(mn)!s!s
Pn = 0
para 0 n s
n
ns
= 1+
para s n
M
ns
n=s
(M n)!s!s
n>M
Los clculos de las cantidades de inters se realizan de manera similar a los casos anteriores.
158
8. SIMULACIN
8.1 Introduccin
La palabra simulacin es un trmino genrico que describe muy diferentes tipos de actividades
incluyendo: roles que se juegan en la vida social o en experimentos sicolgicos, juegos de videos
complejos, modelos a escala creados por ingenieros que describen la conducta de puentes o
aeropuertos, etc.
Para un computlogo, estadstico, cientfico o gerente, se refiere a la construccin de un modelo
abstracto que representa algn sistema de la vida real, con la subsiguiente descripcin a travs del
tiempo de los pertinentes al sistema como una serie de ecuaciones y relaciones, generalmente a
travs de un programa de computadora.
Definimos como simulacin de sistemas a la exploracin de mundos posibles y al estudio del
desarrollo en el tiempo de esos mundos.
Recordemos que:
Sistema: es una porcin del universo respecto de un observador o colaborador definido (interior o
exterior al mismo), compuesta por un conjunto de elementos y relaciones entre los mismos.
Al estudiar un sistema, como observadores, podemos apreciar que hay determinados objetos
distintos, llamados entidades. Tambin observamos interacciones entre ellos (que llamamos
actividades), las cuales producen cambios en el sistema.
Pero para estudiar realmente un sistema se debe poder experimentar con l y ocurre que no se
podr experimentar con el sistema real siempre que:
159
8.2 Modelos
Un modelo es el cuerpo de informacin relativa a un sistema recabado con el fin de estudiarlo, un
modelo no es slo un sustituto del sistema, es tambin su simplificacin.
Adems no existe un modelo nico de un sistema, ya que cada objeto de estudio establecido
determinar la naturaleza de la informacin a reunir.
Existe una gran diversidad en la manera de clasificar los tipos de modelos en el estudio de
sistemas.
A veces la clasificacin se realiza segn la naturaleza del sistema a estudiar, a saber: 1) continuo
vs. discreto
2) determinstico vs. aleatorio.
Consideremos una primera divisin en modelos fsicos y matemticos:
Modelo
fsico
esttico
matemtico
dinmico
esttico
numrico
dinmico
analtico
numrico
Simulacin
de Sistemas
160
Esta primera divisin se realiza para tener en cuenta que un modelo no es necesariamente una
descripcin matemtica del sistema, existen por ejemplo: modelos a escala que se utilizan en los
tneles de viento, tanques de agua para estudiar el diseo de naves acuticas, modelos a escala de
cursos de ros, de puertos (ej: Puerto de la Paloma, estudiado por el IMFIA), diversos tipos de
modelos.
La tercera distincin (nivel) se realiza segn la tcnica empleada para resolver el modelo.
En un modelo matemtico, las entidades de un sistema y sus atributos se representan mediante
variables y las actividades mediante funciones que interrelacionan las variables (ej. restricciones).
Un modelo esttico despliega las relaciones entre los atributos del sistema cuando est en
equilibrio, sin mostrar la manera en que cambian los valores de los atributos (no existen
actividades).
Un modelo matemtico dinmico permite deducir los cambios de los atributos del sistema en
funcin del tiempo y dependiendo de la complejidad del modelo, la deduccin puede hacerse con
una solucin analtica o por clculo numrico (ej: el comportamiento de la llanta de un auto en
movimiento se modela con ecuaciones diferenciales de 2 orden).
Los modelos matemticos dinmicos que se pueden resolver analticamente y que dan resultados
prcticos aplicables no son del todo comunes. Lo ms frecuente es que esos problemas deban
resolverse mediante mtodos numricos y la simulacin es uno de esos mtodos.
Un ejemplo de modelo matemtico dinmico es el que describe las condiciones bajo las cuales
vibra la estructura de una aeronave, modelo que se puede plantear pero no resolver analticamente.
La cuestin de si habr o no vibraciones se puede determinar numricamente calculando las races
de determinadas ecuaciones asociadas. En este caso los clculos numricos no constituyen
simulacin, ya que el clculo no sigue el movimiento de la estructura de la aeronave en el tiempo,
es sencillamente un procedimiento para determinar las races de una ecuacin, es un mtodo
numrico puro.
Se tratar de simulacin si los clculos tienen en cuenta los cambios producidos en el tiempo, es
decir si describimos a travs de algn mecanismo la distintas variaciones producidas en
determinado intervalo de tiempo.
161
Durante el curso se hace hincapi en el planteo y resolucin de los modelos matemticos en forma
analtica, ya que por lo general el enfoque analtico es superior al de la simulacin en cuanto a la
exactitud de la resolucin del problema. Sin embargo muchos problemas son tan complejos que no
se pueden resolver analticamente, lo que nos impedir tomar una decisin. Slo entonces se
deber recurrir a la simulacin, cuando sea el nico enfoque prctico del problema.
Se debe destacar que a medida que aparecieron computadoras ms rpidas se comenz a
experimentar ms y ms en la utilizacin de modelos numricos y en la simulacin hasta que en la
actualidad esta tcnica se usa en reas tan diversas como:
- construccin de prototipos de automviles, aviones, armas
de guerra - medicina
- procesos de produccin modelos economtricos problemas logsticos.
Toma tambin gran importancia para algunas aplicaciones la simulacin grfica o icnica, la cual,
como su nombre indica, no slo est basada en un modelo numrico matemtico que permite
obtener los valores que se desea estudiar, sino que permite visualizar el desarrollo de la
simulacin.
Ventajas de la simulacin en computadoras:
1) Permite estudiar y experimentar en las complejas relaciones e interacciones que existen y ocurren
en el interior de un sistema real.
2) Permite experimentar sobre un sistema que puede no existir en la realidad (de otra manera sera
imposible) y en este caso asiste a la decisin de construirlo o no.
3) Se ahorra mucho tiempo y dinero y se evitan riesgos.
4) Se logra independencia de la duracin real del evento. Por ejemplo se puede simular procesos muy
largos como muy cortos:
- Estudiar el crecimiento de una cierta planta mediante simulacin en poco tiempo, lo que en
la realidad puede llevar mas de 400 aos.
- Estudiar las reacciones nucleares que son eventos que ocurren en millonsimas de segundo.
5) Se puede estudiar como reacciona el sistema al introducir variantes, sin correr riesgos (estudio de
sensibilidad).
6) Se puede aplicar para verificar soluciones analticas (Montecarlo). Ofrece mayor facilidad para
estudiar sistemas dinmicos y no determinsticos
162
Por supuesto que se puede programar simuladores en C++, ADA, PROLOG, MODULA,
FORTRAN , PASCAL, etc.
El quinto paso: validacin del modelo, requiere una gran cuota de juicio y criterio comn, ya que
las hiptesis hechas al establecer el modelo deben comprobarse observando si el modelo se
comporta como se esper.
En realidad se debera validar el modelo matemtico antes de iniciar la programacin, pero
generalmente la razn de la simulacin es que el modelo no es manejable, entonces por regla
general la validacin se desarrolla examinando la versin programada del modelo (a la vez que se
pueden observar errores de programacin).
El sexto paso es el diseo de un conjunto de experimentos de acuerdo a las objetivos del estudio.
Una falla comn es la obtencin de una masa abrumadora de resultados que se recaban sin plan
determinado. Se debe tener en cuenta tambin el significado estadstico de los resultados ante la
presencia de eventos aleatorios en la simulacin.
Por ltimo el sptimo paso es ejecutar las corridas planificadas y estudiar o interpretar los
resultados.
Si el estudio ha sido bien planificado se habr planteado un conjunto bien definido de preguntas y
el anlisis tratar de responderlas. Por supuesto, estas etapas no son del todo secuenciales sino que
muchas veces debe volverse atrs y afinar incluso los objetivos e hiptesis planteadas.
Simulacin Continua: modela sistemas continuos, donde el inters primordial son los cambios
suaves. Por ejemplo el comportamiento de algunos parsitos (las fluctuaciones en el nmero de su
poblacin con respecto a la poblacin de sus anfitriones), la posicin relativa de un conjunto de
astros, etc.
Para ello se utilizan conjunto de ecuaciones diferenciales que se resuelven simultneamente.
Simulacin a eventos discretos: se aplica en sistemas discretos, donde el inters primario est en
los eventos, siendo las ecuaciones que los describen ecuaciones lgicas que expresan las
condiciones para que ocurra un evento.
164
La simulacin consiste en seguir los cambios en el estado del sistema producidos por la sucesin
de eventos.
Un evento describe la ocurrencia de un cambio en un instante de tiempo y por lo tanto puede
provocar un cambio en el valor de algn atributo de una entidad o de la entidad en s (crear o
destruir una entidad, iniciar o detener una actividad), lo cual requiere la construccin de un
programa que permita seguir la secuencia de eventos.
Llamamos entidad a cualquier objeto de inters en el sistema, atributo denota una propiedad de
una entidad, y todo lo que provoque cambios en el sistema se conocer como actividad del mismo.
El trmino estado del sistema indica una descripcin de todas las entidades, atributos y actividades
segn su existencia en algn instante del tiempo. El progreso o desarrollo en el tiempo del sistema
se estudia siguiendo sus cambios de estado.
Por ello es necesario llevar un registro del paso del tiempo, al que llamamos "tiempo de reloj" que
es un nmero, inicializado en 0 al comienzo de la simulacin, y que va indicando cuantas
unidade3s de tiempo simulado han transcurrido desde el comienzo..
Al menos que especficamente se exprese de manera contraria, el trmino "tiempo de simulacin",
significa el tiempo del reloj indicado y no el tiempo que ha necesitado la computadora para
realizar la simulacin (tiempo de cmputo) es ms, por lo general, no existe una relacin directa
entre ambos.
Si simulsemos el sistema operativo de una computadora, en el que los eventos reales ocurren en
intervalos medios en fracciones de microsegundos, aunque la realizsemos en una mquina de alta
velocidad, notaramos que la simulacin tomara fcilmente miles de veces ms tiempo que la
operacin real del sistema.
Por otro lado, para la simulacin de un sistema econmico, en el que se ha estudiado eventos que
ocurren una vez al ao, es fcil realizar una operacin de cien aos en unos cuantos minutos de
clculo.
Existen dos mtodos para actualizar el tiempo del reloj, a los que llamamos mecanismo de control
de flujo de tiempo.
a) el reloj avanza a la hora en que debe ocurrir el siguiente evento, conocido como mecanismo
orientado al evento.
b) el reloj avanza en intervalos pequeos (generalmente uniformes) y en cada intervalo se
determina si debe ocurrir un evento o no, llamado mecanismo orientado a intervalos, usado
normalmente en simulacin continua.
Ejemplo:
Simulamos la llegada de barcos a un muelle, para contabilizar la cantidad de barcos que llegan a l
y su tiempo de espera para atracar.
Comienzo
165
166
167
Los momentos de arranque y parada del oscilador se controlan en forma aleatoria con los pulsos
que provee la descarga de un istopo radioactivo (el primero prende el oscilador y pone el
contador en 0, el segundo apaga el oscilador y devuelve el nmero).
El nmeros de pulsos del oscilador que cuente el contador ser el nmero aleatorio generado.
1er. pulso
ISOTOPO
ON
OSCILADOR
OFF
pulso
2do. pulso
0
+1
CONTADOR
nro. aleatorio
Ejemplo 2. Programa que al ser interrumpido por el operador entrega un nmero aleatorio entre 1
y 100.
While not exit
For i:=1 to 100
Char := inkey
If Char= " " then print i
End For
End While
Como la mquina hace ms de 1 milln de operaciones por segundo existe una gran disparidad
entre el toque de tecla por intermedio del operador el programa y la velocidad con que se ejecuta el
loop, por lo que no se podr gobernar el ritmo, ya que si as fuera el operador podra "manejar" los
resultados.
168
2061 4247721
2477 6135529 1355
...
Zi =
169
(Y nP )
s
Construimos el estimador: V
s=1
nPs
Se puede demostrar que V es una V.A. con distribucin con k-1 grados de libertad para n
170
Se desprende que el n debe ser grande para que el test sea vlido y adems se debe cumplir que
nPs > 5 para todo s.
Para aplicar el mtodo se calcula el valor de V y se analiza el mismo utilizando la tabla de
(ver por ejemplo el Apndice 5 del Hillier-Lieberman).
Dado un nivel de significacin (por ejemplo 0,05 o 95 %) nos fijamos en la tabla el valor
correspondiente a ese nivel y a los k-1 grados de libertad. Si V es mayor que el valor crtico fijado
en la tabla se rechaza la hiptesis de que la V.A. tenga la distribucin en cuestin y sino se acepta.
Para probar que los nmeros estn uniformemente distribuidos planteamos la hiptesis de que
tienen distribucin uniforme, por lo tanto dividimos el intervalo en K categoras con la
probabilidad de caer en cada una igual a 1/K.
Ejemplo: tomo 10 categoras, 95 % de significacin, me fijo en la tabla de y el valor crtico es
16,9.
Calculo V, con los Yi obtenidos contando los 1000 Xi generados con el programa ( n = 1000 ) y
con Ps = 1/10 para todo s.
Si para un caso concreto V result ser 3,76 ( o sea menor que 16,9 ) se dice que "se pasa" la prueba
y se puede concluir que el programa genera nmeros aleatorios uniformemente distribuidos.
Test Serial
Este test sirve para probar la correlacin seria de la secuencia de nmeros observados. Se agrupa la
muestra en pares de valores los cuales deben estar distribuidos uniformemente y en forma
independiente. La muestra es de 2n valores.
Considero las n
parejas X , X
X0, X1
1
X2, X3
n1
con 0j n:
(X2n2, X2n1)
Cada pareja tiene probabilidad P(X 2j, X2j+1 ) = 1/K, y tendremos K categoras (que son la
cantidad de combinaciones posibles de las parejas de valores ).
Se aplica el test de con K-1 grados de libertad con el mismo criterio que definimos
anteriormente.
Aplicando el mtodo al mismo ejemplo que tomamos en la seccin anterior se calcula el V pero
ahora tendremos 10 = 100 categoras y cada una con Ps = 1/100.
171
llamada esta ltima: semilla del sorteo, generadas con algunos de los mtodos de la seccin
anterior.
pi =1).
0
p1
p1+ p2
p1+ p2 +p3
...
1-pn
1
y
de tal modo que al intervalo i le corresponden aquellos valores xi que cumplen:
i1
p j xi
j=1
p ji
j=1
entonces cada vez que realicemos un experimento para sortear X, tomamos un valor u de
distribucin U(0,1) y construimos el punto y=u. Si este punto aparece en el intervalo
correspondiente al nmero i aceptamos que X=xi en este sorteo.
La validez de este mtodo se debe a que al estar u uniformemente distribuida en [0,1] la
probabilidad de que u pertenezca a uno de los intervalos es igual a la longitud del mismo.
P(0 u p1)= p1
P(p1 u p1 + p2 )= p2
0
P(1 pn1 u 1)= pn
Ejemplo: Una V.A. X puede tomar los valores : rojo con prob. 1/6, azul con prob. 1/3 y blanco
con prob. 1/2. Armo el esquema:
rojo
azul
blanco
Sorteo u =
0
0,1212
0,9432
0,6111
0,4343
1/6
1/2
X = rojo
blanco
blanco
azul
172
En resumen el mtodo consiste en igualar la funcin de distribucin a una V.A. U uniforme (0,1) y
poder despejar X en funcin de U, como ya sabemos como generar las V.A. U(0,1), teniendo las
mismas generamos las X deseadas.
U = FX (x) X = FX1(U)
El problema se reduce a encontrar una expresin analtica de la funcin inversa a la de
distribucin. Esto no necesariamente es una tarea sencilla, aunque siempre existe solucin dado
que la derivada de FX es fX , que es siempre 0 y montona creciente. Otro problema con el
173
1
FX(x)
u
a
Ejemplo: Distribucin Uniforme U(a,b)
x
1
FX (x) =
dt ; entonces se toma u =
dt ; integrando llegamos a a b a a b a x a
u=
x = a +u(b a), donde x ser una v.a. U(a,b) si tomamos u una v.a. b a
U(0,1) (que puede ser obtenida a partir de un nmero seudoaleatorio, generado con los mtodos
vistos en la seccin 2).
ex / 2 .
2
Describiremos el mtodo Polar para la generacin de v.a. N(0,1), ya que la funcin de distribucin
de una v.a. normal no tiene inversa de resolucin analtica.
1) Sean u1 y u2 v.a. de distribucin U(0,1); definimos
174
v1 = 2u1 1 v2 = 2u2 1
s = v12 + v22
2) Si s 1 vuelvo a 1
x1 = v1
2ln(s
)/ 2
(
2ln(s
)/ 2
El mtodo genera 2 v.a. por vez y se llama Polar porque es equivalente a hacer:
Generar R U(0,1) , U(0,2) y tomar
( )
x1 = 2R ln R2 cos
( )
x2 = 2R ln R2 sen
Teniendo una v.a. X que sea N(0,1) se pasa directamente a una Y que es N(a,)
Y
(ya)2 / 22
2
Resumiendo, en una simulacin se toman muestras de distribuciones para proveer a las actividades
de tiempos reales, y establecer criterios realistas de decisin.
Puede usarse muchas distribuciones diferentes; muchas veces es necesario hacer hiptesis sobre a
qu distribucin corresponden los eventos que se estudian, esto debe ser realizado con especial
cuidado, basando la eleccin de las distribuciones y los valores de sus parmetros en informacin
recogida o brindada por las personas que trabajan con el sistema real a simular.
175
Entonces podemos definir el mtodo MonteCarlo como el mtodo numrico de simulacin que
permite resolver problemas matemticos mediante la simulacin de variables aleatorias.
El nombre proviene del principado de Mnaco, ya que el aparato ms sencillo para obtener valores
aleatorios es la ruleta.
Propiedades y caractersticas importantes del M.M.C.
1) algoritmo de estructura muy sencilla.
Como regla se elabora primero un programa para la realizacin de una prueba
aleatoria (una
muestra, por ejemplo: escoger un punto aleatorio en una superficie, y comprobar si ese punto
pertenece o no a una figura de la superficie). Esta prueba se repite N veces de modo que cada
experimento sea independiente de los restantes, y se toma la media de todos los resultados de los
experimentos.
2) El error del valor obtenido es como regla proporcional a la magnitud 2 / N siendo 2 la varianza
(constante) y N el nmero de pruebas. De esta forma, para disminuir el error 10 veces deberemos
aumentar N (volumen de trabajo) 100 veces.
Es de notar que es imposible alcanzar una elevada exactitud, por eso el Mtodo Monte Carlo
resulta especialmente eficaz en la solucin de problemas en los que se necesita conocer los
resultados con una exactitud del 5 al 10% (intervalo de confianza 95%, 97,5%). La exactitud de
los resultados se puede mejorar con tcnicas de reduccin de varianza, sin tener que aumentar el
volumen de trabajo (N).
Un mismo problema puede ser resuelto utilizando distintas variantes del mtodo, es decir mediante
la simulacin de distintas variables aleatorias.
El mtodo es aplicable en situaciones de diversa ndole:
a) Problemas aleatorios diversos, orientados a eventos o no.
Se resuelven creando un modelo probabilstico artificial, que cumpla con las leyes de probabilidad
que se dan en el sistema real.
Ejemplos:
- estudio de la demanda de energa elctrica en un cierto perodo: depende de factores
puramente aleatorios, como el clima
- juegos de azar
- estudio de la cantidad de barcos llegados a un puerto por da
b) Problemas matemticos determinsticos.
Cuando los problemas determinsticos son imposibles de resolver analticamente o muy
complicados se puede llegar a una solucin aproximada mediante el uso de un modelo artificial
cuyas funciones de distribucin y densidad satisfagan las relaciones funcionales del problema
determinstico.
Ejemplos:
- clculo de integrales mltiples
176
1
y hacemos que alguien con los ojos vendados tire dardos a la tabla.
Los dardos van a perforar la tabla en N puntos aleatorios. Cmo podemos estimar el rea del
cuadrado S a partir de esos puntos?
Nos fijamos cuntos puntos estn dentro de S (sean N'); supongamos que N'=5, siendo N=40.
Entonces la estimacin del rea de S est dada por N'/N=5/40=1/8=0,125, siendo el valor exacto
en este dibujo 0,3*0,3=0,09.
Ntese que el rea buscada cumple la relacin N'/N (independiente de la forma del rea incgnita)
y que cuanto mayor sea N ms nos vamos a acercar a la relacin S/1.
Para que este mtodo de calcular el rea tenga validez, los puntos aleatorios deben estar
distribuidos en forma uniforme en la superficie total, y deben ser obtenidos en forma
independiente.
Clculo de
Veremos, a modo de ejemplo, como calcular una aproximacin del valor , mediante el mtodo
MonteCarlo (este problema tiene soluciones eficientes en forma analtica o numrica).
1) Tomamos un crculo de radio 1 centrado en el origen, sabemos que el rea del cuarto de crculo
inscrito en el ortante positivo es /4.
2) Sorteamos puntos en el ortante positivo de lado 1 y lo hacemos obteniendo dos valores, uno
para x (abscisa) y otro para y (ordenada) cada vez, obteniendo un punto (x,y).
3) Contamos cuantos puntos de los sorteados caen dentro del rea del cuarto de crculo (In) y
cuntos fuera (Out), sabiendo que si x2+y2>1 el punto est fuera, y si no dentro.
177
4) El valor estimado del rea que queremos hallar es In/(In+Out), y ese valor ser
aproximadamente el de /4, por lo que ser aproximadamente igual a 4* In/(In+Out) (en este
caso, N=In+Out).
Esta forma de calcular es relativamente lenta y poco precisa, pero muestra la forma de utilizar
MonteCarlo, que en el caso de otras constantes es el nico mtodo disponible.
Justificacin terica
Sea X una v.a. con esperanza E(X) = m y varianza Var(X) = . Tomo una sucesin de n v.a. Xi
independientes y con igual distribucin , siendo E(Xi) = m y Var(Xi) = .
Por el teorema Central del Lmite la v.a. Z = X1 + X2 + X3 + .... + Xn se aproxima (y es
asintticamente igual) a una v.a. con distribucin normal N(nm, n).
Aplicando la "regla de las 3", tenemos que para una v.a. Y de distribucin N(a, ): a3 fY (t)dt
= 0,997 a3
siendo fY(t) la funcin de densidad de la v.a. Y, por lo que P(a 3 Y a +3) 0,997.
Aplicando esto a la V.A. Z tenemos :
(
)
P(m 3/ N Z / N m + 3/ N ) 0,997
P(3/ N Z / N m 3/ N ) 0,997
P(Z / N m 3/N ) 0,997
P Nm 3 N Z Nm + 3 N 0,997
PXi / N m 3/
N 0,997
Lo que significa que podemos estimar m , es decir la esperanza o valor medio de la v.a. X,
calculando el promedio de las distintas muestras obtenidas: ( Xi )/ N , sabiendo que con
probabilidad muy cercana a 1, el error de este promedio est acotado por la cifra 3/N. Esto
sugiere que para que el mtodo tenga un buen resultado N debe ser grande y pequea, por lo
que es importante saber cual es el valor de la varianza obtenida, con ello sabemos cul es la
dispersin de las muestras obtenidas.
La varianza 2 se estima con el siguiente clculo:
( )
j
178
Var(X )
X
N 1
j=1
X
N
j=1
Se debe tener especial cuidado en que todas las N corridas sean independientes entre s, para
asegurar que los valores Xi son muestras de v.a. independientes y que por lo tanto estamos dentro
de las hiptesis del teorema central del lmite.
Esta independencia se asegura utilizando distintas semillas en el sorteo de las v.a. Xi , de acuerdo a
lo visto en las secciones anteriores.
179