You are on page 1of 9

PROBLEMAS CON RESTRICCIONES

En esta seccin se examina la optimizacin de funciones continuas con restricciones. En


la seccin 20.2.1 se presenta el caso de restricciones de igualdad, y en la seccin 20.2.2
se manejan restricciones de desigualdad. La presentacin de la seccin 30.2.1 est en su
mayor par- te en Beightler y asociados (1979, pgs. 45 a 55).
Restricciones de igualdad
En esta seccin se presentan dos mtodos: el jacobiano o de Jacobi y el lagrangiano o de
La- grange. El mtodo lagrangiano se puede deducir en forma lgica a partir del mtodo
jacobiano. Esta relacin proporciona una interesante interpretacin econmica del
mtodo lagrangiano
Mtodo de derivadas restringidas (jacobiano)
Se tiene el problema:
Minimizar z = f (X)
Sujeta a:
g(X) = 0
En donde:
X = (1x1, x2,, xn)
g = (g1, g2,, gm)T
Las funciones f (X) y gi(X), i = 1, 2,..., m son doble y continuamente diferenciables.
La idea de usar derivadas restringidas es desarrollar una ecuacin de forma cerrada para
las primeras derivadas parciales de f(X) en todos los puntos que satisfacen las
restricciones g(X) = 0. Los puntos estacionarios correspondientes se identifican como
aquellos en los que se anulan esas derivadas parciales. A continuacin se pueden usar las
condiciones de suficiencia para comprobar la identidad de los puntos estacionarios.
Para aclarar el concepto propuesto, considrese a f (x1, x2), que se ve en la figura 20.5.
Esta funcin se va a minimizar, sujeta a la restriccin:

g1(x1, x2) = x2 - b = 0

En donde b es una constante. De acuerdo con la figura 20.5, la curva definida por los
tres puntos A, B y C representa los valores de f(x 1, x2) para los cuales siempre se
satisface la restriccin. El mtodo de derivadas restringidas define al gradiente de f(x 1,
x2) en cualquier punto de la curva ABC. El punto B en el que se anula la derivada
restringida es un punto estacionario del problema con restriccin.
A continuacin se desarrollar matemticamente este mtodo. De acuerdo con el teorema de
Taylor, se tiene que para X +X en la proximidad factible de X,
f ( X + X) - f ( X ) = f ( X ) X + O( xj2 ) y
g ( X + X) - g( X ) = g ( X ) X + O( xj2 )
Cuando xj 0, las ecuaciones se reducen a:
f (X ) = f (X ) X y
g (X ) = g (X ) X
Para satisfacer la factibilidad debe cumplirse que g ( X ) = 0, g( X ) = 0, y en consecuencia
f (X ) - f (X ) X = 0
g (X ) X = 0

stas son (m+1) ecuaciones con (n+1) incgnitas, f (X) y X. Obsrvese que f (X) es una
variable dependiente y en consecuencia est determinada una vez conocida X. Eso quiere decir
que hay m ecuaciones con n incgnitas.
Si m>n, al menos (m n) ecuaciones son redundantes. Al eliminar la redundancia el
sistema se reduce a m n. Si m=n, la solucin es X =0 y X no tiene proximidad factible,
lo que quiere decir que el espacio de soluciones est formado slo por un punto. El caso
restante, cuando m<n, requiere ms desarrollo.
Se definir
X = (Y, Z)
Tal que
Y = ( y1, y2,, ym) , Z = ( z1, z2,, zn m)
Los vectores Y y Z se llaman variable dependiente e independiente, respectivamente. Al re
expresar los vectores gradiente de f y g en trminos de Y y Z se obtiene
f ( Y , Z ) =
( Y f, Z f )
g ( Y , Z ) = ( Y g, Z g)
Se definirn

J=Yg =

C=zg =

y g1
.
.
.
y gm

()
()
z g1
.
.
.
z gm

Jm x m es la llamada matriz jacobiana, y Cm x nm es la matriz de control. Se supone que la


jacobiana J es no singular. Eso siempre es posible, porque las m ecuaciones dadas son
independientes, por definicin. Entonces, se deben seleccionar los componentes del vector Y
tales que la matriz J sea no singular.
El conjunto original de ecuaciones en f(X) y en X se pueden escribir como sigue:
f ( Y , Z ) = Y f Y + z f Z
Y
J Y = -C Z

Ya que J es no singular, existe su inversa, J1. En consecuencia,


Y = - J C Z
-1

Al sustituir Y en la ecuacin de f (X) se obtiene f en funcin de Z, esto es,


f (Y, Z) = (z f - Yf J C)Z
-1

A partir de esta ecuacin, la derivada restringida con respecto al vector independiente Z es


c f

c f (Y, Z)
cZ

= z f - Yf J C
-1

Donde c f es el vector gradiente restringido de f con respecto a Z. As, c f(Y, Z) debe


ser nulo en los puntos estacionarios.
La matriz hessiana corresponder al vector independiente Z, y los elementos de ella
deben ser las segundas derivadas restringidas. Para mostrar cmo se obtiene, sea :
c f = z f WC

Se ve entonces que el i-simo rengln de la matriz hessiana (restringida) es c f/zi.


Obsrvese que Wes una funcin de Y, y Y es una funcin de Z. As, la derivada parcial
de c f con respecto a zi se basa en la siguiente regla de la cadena:

wj
zi

wj
yj

yj
zi

Ejemplo1:
f (X) = x12 + 3x2 2 + 5x1x32
g1(X) = x1x3 + 2x2 + x2 - 11 = 0
g2(X) = x12 + 2x1x2 + x32 - 14 = 0
Para el punto factible X0 = (1, 2, 3), se desea estudiar la variacin de f (=cf ) en la
proximidad factible de X0.
Sean:

Y = (x , x ) y Z = x2
1

Entonces:

Y f =

( xf , xf )=(2 x +5 x ,10 x x )
2
3

z f = x
1

=6 x 2

g 1 g1
x1 x 3 =
x3
x1
J=
g 2 g2
2 x 1+2 x 1 2 x 3
x1 x 3
g1
x2 = 2 x 2 +2
C=
g2
2 x1
Supongamos que se debe estimar c fen
x2la proximidad factible del punto factible X0 =

( )(
( )( )

(1, 2, 3) dado un pequeo cambio x2 = 0.01 en la variable independiente x2. Entonces,

J-1C =

( )( ) (

6
3 1
12
=
6 6
6
12

( )

1
12 6
2.83
3 2
2.50
12

Por consiguiente, el valor incremental de la f restringida es :

( z f Y f J 1 C ) Z = 6 ( 2 ) ( 47,30 )

2.83 x =46.01 x
(2.50
))
2

Al especificar el valor de x para la variable independiente x , se determinan valores factibles de


x y x para las variables dependientes x y x , con la frmula:
2

Y = -J CZ
-1

Entonces, para x = 0.01


2

( x )=J
1

C x = 0.0283

2
Ahora se comparar el valor de c f que sexcalcul
arriba con
la diferencia
0.0250 f (X0 +X)
3
0
f (X ), para x2 = 0.01.

X0 + X = (1 - 0.0283, 2 + 0.01, 3 + 0.025) = (0.9717, 2.01, 3.025)


Esto da como resultado
f (X0) = 58, f (X0 + X) = 57.523
O sea:
f (X0 + X) - f (X02) = -.477
La cantidad 0.477 se compara en forma favorable con c = 46.01, x2 = 0.4601. La
diferencia de los dos valores se debe a la aproximacin lineal al calcular c f en X0.
Ejemplo N2:
Minimizar

f ( X )=x 21+ x22 + x 23

g1(X) = x1 + x2 + 3x2 - 2 = 0
g2(X) = 5x1 + 2x2 + x3 - 5 = 0
Entonces, para determinar los puntos extremos restringidos, sean:
Y = (x1, x2) y Z = x3
Entonces:

Y f =

f f
f
,
=( 2 x1 , 2 x 2 ) , Z f =
=2 x 3
2
x 1 1x2
x3
3 ,C= 3
J = 1 1 , J 1= 3
5 2
5 1
1
3
3

( )

( )

()

Por consiguiente,

( )( )

2
c f
3
c f = x =2 x 3 ( 2 x 1 ,2 x 2) 5
c 1
3

1
28
3 3 10
= x 1 x 2+2 x 3
1 1
3
3
3

Las ecuaciones para determinar los puntos estacionarios son, entonces:

c f = 0
g1(X) = 0
g2(X) = 0

Es decir:

10 28 6 x 1
0
=
1
1
3 x2
2
5
2
1 x3
3

)( ) ( )

La solucin es:

X0 (0.81, 0.35, 0.28)

La puta de tu vieja a qui va la 16


De modo que

c f

( )(
1

La
solucin
del
4 w 4 w 2 w3 0
( 0,0 )(formado
4 w1 ,6 wpor
=(5del
w3 ,problema
w 4)
conjunto de ecuaciones
)2 c 1f = 0 1y las restricciones
es el punto
1 4). La
1matriz0hessiana
2 w 4 es:
estacionario (w1 = 2, w2 = 1, w3 = 0, w4 =

4 w2

2c f

c w23
H c=
2c f
c w 3c w4

2c f
c w 3 c w 4
2
c

f
c w24

4 w2

= 5 0
0 1

Como H es indefinida, el punto estacionario no determina un mximo.


La razn por la que la solucin anterior no determina un mximo es que las elecciones especficas
de Y y Z no son ptimas. De hecho, para determinar el ptimo se debe seguir alterando las
c

elecciones de Y y Z hasta que se satisfaga la condicin de suficiencia. Esto equivaldr a ubicar el


punto extremo ptimo del espacio de soluciones de programacin lineal.
Por ejemplo, si Y = (w , w4) y Z = (w1, w3), el vector gradiente restringido correspondiente es:
2

c f

( )(

1
0
2 w2
2 w1 2 w 3 = 2w , 6 w
( 4 w 1 , 0 ) ( 6 w 2 , 0 )
(
1
3)
1 2aww1
0 2, w1 = 5 , w3=0, w 4= 8.
El punto estacionario correspondiente1 corresponde
1 =
2 w4 2 w4
Ya que:

H c = 2 0
0 6

Es negativa definida, la solucin es un punto mximo.


Este resultado se comprueba en forma grfica en la figura 20.6. La primera solucin (x 1 = 4, x2 =1)
no es ptima, y la segunda (x 1 = 0, x2 = 5) s lo es. Se puede comprobar que los dos puntos
extremos restantes del espacio de soluciones no son ptimos. De hecho, con la condicin de
suficiencia se puede demostrar que el punto extremo (x1= 0, x2 = 0) es un punto mnimo.
Cuando los coeficientes de sensibilidad

Y f J 1 se aplican a la programacin lineal,


0

producen los valores duales. Para ilustrar este punto con el ejemplo numrico que nos ocupa, sean:

FIGURA 20.6

You might also like