You are on page 1of 18

Captulo 10

Procesos y Procesadores en
Sistemas Distribuidos

10.1 Introduccin a los Hilos (Threads)


Muchos S. O. distribuidos soportan mltiples hilos de control dentro de un proceso que
[25, Tanenbaum]:

Comparten un nico espacio de direcciones.

Se ejecutan quasi - paralelamente como si fueran procesos independientes.

Ej.: servidor de archivos que debe bloquearse ocasionalmente en espera de acceso al


disco:

Si tiene varios hilos de control podra ejecutar un segundo hilo mientras el primero
espera:

El resultado sera mejor rendimiento y desempeo.


No se logra esto con procesos servidores independientes puesto que deben com-
partir un buer cach comn y deben estar en el mismo espacio de direcciones.

En muchos sentidos los hilos son como miniprocesos:

Cada hilo:

Se ejecuta en forma estrictamente secuencial.


Tiene su propio contador de programa y una pila para llevar un registro de su
posicin.

Los hilos comparten la cpu de la misma forma que lo hacen los procesos:

Secuencialmente, en tiempo compartido.

Solo en un multiprocesador se pueden ejecutar realmente en paralelo.

315
316CAPTULO 10. PROCESOS Y PROCESADORES EN SISTEMAS DISTRIBUIDOS

Los hilos pueden crear hilos hijos.

Mientras un hilo est bloqueado se puede ejecutar otro hilo del mismo proceso.

Los distintos hilos de un proceso comparten un espacio de direcciones, el conjunto de


archivos abiertos, los procesos hijos, cronmetros, seales, etc.
Los hilos pueden tener distintos estados: en ejecucin, bloqueado, listo, terminado.

10.2 Uso de Hilos


Los hilos permiten la combinacin del paralelismo con la ejecucin secuencial y el bloqueo
de las llamadas al sistema [25, Tanenbaum].
Consideramos el ejemplo del servidor de archivos con sus posibles organizaciones para
muchos hilos de ejecucin.
Iniciamos con el modelo servidor / trabajador:

Un hilo, el servidor, lee las solicitudes de trabajo en el buzn del sistema.

Elige a un hilo trabajador inactivo (bloqueado) y le enva la solicitud, despertndolo.

El hilo trabajador verica si puede satisfacer la solicitud por medio del bloque cach
compartido, al que tienen acceso todos los hilos.

Si no enva un mensaje al disco para obtener el bloque necesario y se duerme espe-


rando el n de la operacin.

Se llama:

Al planicador y se inicializa otro hilo, que tal vez sea el servidor, para pedir
ms trabajo; o.
A otro trabajador listo para realizar un trabajo.

Los hilos ganan un desempeo considerable pero cada uno de ellos se programa en
forma secuencial.
Otro modelo es el de equipo:

Todos los hilos son iguales y cada uno obtiene y procesa sus propias solicitudes.

No hay servidor.

Se utiliza una cola de trabajo que contiene todos los trabajos pendientes, que son
trabajos que los hilos no han podido manejar.

Un hilo debe vericar primero la cola de trabajo antes de buscar en el buzn del
sistema.

Un tercer modelo es el de entubamiento:

El primer hilo genera ciertos datos y los transere al siguiente para su procesamiento.
10.3. ASPECTOS DEL DISEO DE UN PAQUETE DE HILOS 317

Los datos pasan de hilo en hilo y en cada etapa se lleva a cabo cierto procesamiento.

Un programa diseado adecuadamente y que utilice hilos debe funcionar bien:

En una nica cpu con hilos compartidos.


En un verdadero multiprocesador.

10.3 Aspectos del Diseo de un Paquete de Hilos


Un conjunto de primitivas relacionadas con los hilos (ej.: llamadas a biblioteca) disponibles
para los usuarios se llama un paquete de hilos [25, Tanenbaum].
Respecto del manejo de los hilos se tienen hilos estticos e hilos dinmicos.
En un diseo esttico:

Se elige el nmero de hilos al escribir el programa o durante su compilacin.


Cada uno de ellos tiene asociada una pila ja.
Se logra simplicidad pero tambin inexibilidad.

En un diseo dinmico:

Se permite la creacin y destruccin de los hilos durante la ejecucin.


La llamada para la creacin de hilos determina:

El programa principal del hilo.


Un tamao de pila.
Una prioridad de planicacin, etc.

La llamada generalmente regresa un identicador de hilo:

Se usar en las posteriores llamadas relacionadas al hilo.

Un proceso:

Se inicia con un solo hilo.


Puede crear el nmero necesario de hilos.

Los hilos pueden concluir:

Por su cuenta, al terminar su trabajo.


Por su eliminacin desde el exterior.

Los hilos comparten una memoria comn:

Contiene datos que los distintos hilos comparten.


El acceso generalmente se controla mediante regiones crticas.
318CAPTULO 10. PROCESOS Y PROCESADORES EN SISTEMAS DISTRIBUIDOS

10.4 Implantacin de un Paquete de Hilos


Un paquete de hilos se puede implantar en el espacio [25, Tanenbaum]:

Del usuario.

Del ncleo.

Implantacin del paquete de hilos en el espacio del usuario:

El ncleo no sabe de su existencia.

El ncleo maneja procesos con un nico hilo.

No requiere soporte de hilos por parte del S. O.

Los hilos se ejecutan en un sistema de tiempo de ejecucin:

Es un grupo de procedimientos que manejan los hilos.

Cuando un hilo ejecuta una llamada al sistema o cualquier accin que pueda provocar
su suspensin:

Llama a un procedimiento del sistema de tiempo de ejecucin.


El procedimiento verica si hay que suspender al hilo, en cuyo caso:
Almacena los registros del hilo en una tabla.
Busca un hilo no bloqueado para ejecutarlo.
Vuelve a cargar los registros de la mquina con los valores resguardados
del nuevo hilo.

Las principales ventajas son:

El intercambio de hilos es ms rpido que si se utilizaran los sealamientos al


ncleo.
Cada proceso puede tener su propio algoritmo adaptado de planicacin de
hilos.
Tienen una mejor escalabilidad para un nmero muy grande de hilos, ya que
no afectan al ncleo con tablas y bloques de control (pila).

Implantacin del paquete de hilos en el espacio del ncleo:

No se necesita un sistema de tiempo de ejecucin.

Para cada proceso el ncleo tiene una tabla con una entrada por cada hilo que
contiene:

Los registros, estados, prioridades y dems informacin relativa al hilo.


10.5. HILOS Y RPC 319

Todas las llamadas que pueden bloquear un hilo se implantan como llamadas al
sistema:

Signica un costo mayor (en recursos y tiempo).

Cuando un hilo se bloquea, el ncleo puede ejecutar:

Otro hilo listo del mismo proceso.


Un hilo de otro proceso:
Con los hilos a nivel usuario el sistema de tiempo de ejecucin mantiene en
ejecucin los hilos de su propio proceso hasta que:
El ncleo les retira la cpu, o.
No hay hilos listos.

Un problema fundamental de los paquetes de hilos a nivel usuario es el de las llamadas


al sistema con bloqueo:

No se puede permitir que el hilo realmente realice la llamada al sistema:

Detendra a todos los hilos del proceso.


Un hilo bloqueado no debe afectar a los dems.

Una solucin es agregar cdigo junto a la llamada al sistema para vericar si la


misma no generara bloqueo:

Se efectuara la llamada al sistema solo si la vericacin da o.k.


El cdigo adicional suele llamarse jacket.

Otro problema de los paquetes de hilos a nivel usuario es que si un hilo comienza su
ejecucin no puede ejecutarse ningn otro hilo de ese proceso, salvo que el hilo entregue
voluntariamente la cpu.
Un problema adicional para los hilos a nivel usuario es que generalmente los progra-
madores desean los hilos en aplicaciones donde los hilos se bloquean a menudo:

Ej.: servidor de archivos con varios hilos.

10.5 Hilos y RPC


Es comn que los sistemas distribuidos utilicen RPC e hilos [25, Tanenbaum].
Al iniciar un hilo servidor, S, ste exporta su interfaz al informarle de sta al ncleo;
la interfaz dene los procedimientos que puede llamar, sus parmetros, etc.
Al iniciar un hilo cliente, C, ste importa la interfaz del ncleo:

Se le proporciona un identicador especial para utilizarlo en la llamada.

El ncleo sabe que C llamar posteriormente a S:


320CAPTULO 10. PROCESOS Y PROCESADORES EN SISTEMAS DISTRIBUIDOS

Crea estructuras de datos especiales para prepararse para la llamada.

Una de las estructuras es una pila de argumentos compartida por C y S, que se


asocia de manera lectura / escritura en ambos espacios de direcciones.
Para llamar al servidor, C:

Coloca sus argumentos en la pila compartida mediante el procedimiento normal de


transferencia.

Hace un sealamiento al ncleo colocando un identicador especial en un registro.

El ncleo:

Detecta esto y deduce que es una llamada local.

Modica el mapa de memoria del cliente para colocar ste en el espacio de direcciones
del servidor.

Inicia el hilo cliente, al ejecutar el procedimiento del servidor.

La llamada se efecta de tal forma que:

Los argumentos se encuentran ya en su lugar:

No es necesario su copiado u ordenamiento.


La RPC local se puede realizar ms rpido de esta manera.

10.6 Modelos de Sistemas


En un sistema distribuido, con varios procesadores, un aspecto fundamental del diseo
es cmo se los utiliza [25, Tanenbaum].
Los procesadores distribuidos se pueden organizar de varias formas:

Modelo de estacin de trabajo.

Modelo de la pila de procesadores.

Modelo hbrido.

10.7 El Modelo de Estacin de Trabajo


El sistema consta de estaciones de trabajo (PC) dispersas conectadas entre s mediante
una red de rea local (LAN) [25, Tanenbaum].
Pueden contar o no con disco rgido en cada una de ellas.
Los usuarios tienen:

Una cantidad ja de poder de cmputo exclusiva.

Un alto grado de autonoma para asignar los recursos de su estacin de trabajo.


10.8. USO DE ESTACIONES DE TRABAJO INACTIVAS 321

Uso de los discos en las estaciones de trabajo:

Sin disco:

Bajo costo, fcil mantenimiento del hardware y del software, simetra y exibi-
lidad.
Gran uso de la red, los servidores de archivos se pueden convertir en cuellos de
botella.

Disco para paginacin y archivos de tipo borrador:

Reduce la carga de la red respecto del caso anterior.


Alto costo debido al gran nmero de discos necesarios.

Disco para paginacin, archivos de tipo borrador y archivos binarios (ejecutables):

Reduce an ms la carga sobre la red.


Alto costo y complejidad adicional para actualizar los binarios.

Disco para paginacin, borrador, binarios y ocultamiento de archivos:

Reduce an ms la carga de red y de los servidores de archivos.


Alto costo.
Problemas de consistencia del cach.

Sistema local de archivos completo:

Escasa carga en la red.


Elimina la necesidad de los servidores de archivos.
Prdida de transparencia.

10.8 Uso de Estaciones de Trabajo Inactivas


La idea consiste en ordenar remotamente la ejecucin de procesos en estaciones de trabajo
inactivas [25, Tanenbaum].
Los aspectos clave son:

Cmo encontrar una estacin de trabajo inactiva?.

Cmo lograr que un proceso remoto se ejecute de forma transparente?.

Qu ocurre si regresa el poseedor de la mquina?.

Generalmente se considera que una estacin de trabajo est inactiva cuando se dan
ambas condiciones:
322CAPTULO 10. PROCESOS Y PROCESADORES EN SISTEMAS DISTRIBUIDOS

Nadie toca el ratn o el teclado durante varios minutos.

No se ejecuta algn proceso iniciado por el usuario.

Los algoritmos para localizar las estaciones de trabajo inactivas se pueden dividir en
dos categoras:

Controlados por el servidor.

Controlados por el cliente.

Algoritmos controlados por el servidor:

Cuando una estacin de trabajo est inactiva:

Se convierte en un servidor potencial.


Anuncia su disponibilidad:
Proporciona su nombre, direccin en la red y propiedades:
Grabndolos en un archivo, o.
Transmitindolos a las otras estaciones.

Se pueden dar situaciones de competencia entre distintos usuarios para acceder a la


misma estacin inactiva al mismo tiempo:

Se deben detectar al ingresar el requerimiento.


Solo progresa el primer requerimiento arribado.
Se elimina a la estacin de la lista de inactivas.
Quien hizo el llamado puede enviar su ambiente e iniciar el proceso remoto.

Algoritmos controlados por el cliente:

El cliente transmite una solicitud indicando el programa que desea ejecutar, la can-
tidad de memoria necesaria, si requiere un chip coprocesador, etc.

Al regresar la respuesta se elige una estacin y se la congura.

Para ejecutar el proceso en la estacin remota seleccionada se debe lograr:

El desplazamiento del cdigo.

La conguracin del proceso remoto de modo que:

Vea el mismo ambiente que tendra en el caso local, en la estacin de trabajo


de origen.
Ejecute de la misma forma que en el caso local.
10.9. EL MODELO DE LA PILA DE PROCESADORES 323

Se necesita la misma visin del sistema de archivos, el mismo directorio de trabajo,


etc.
Si se trabaja sobre el servidor de archivos se envan las solicitudes de disco al servidor.
Si se trabaja con discos locales se envan las solicitudes a la mquina de origen para
su ejecucin.
Ciertas operaciones como la lectura del teclado y la escritura en la pantalla:

Nunca se pueden ejecutar en la mquina remota.

Deben regresar a la mquina de origen.

Todas las llamadas al sistema que soliciten el estado de la mquina deben realizarse
en la mquina donde se ejecuta el proceso.
Las llamadas al sistema relacionadas con el tiempo son un serio problema debido a las
dicultades de sincronizacin.
En caso de que regrese el poseedor de la mquina:

Se podra no hacer nada, contra la idea de estaciones de trabajo personales.

Se podra eliminar el proceso intruso:

Abruptamente, perdindose el trabajo hecho y generando caos en el sistema de


archivos.
Ordenadamente, salvando el procesamiento ya hecho y preservando la integri-
dad del sistema de archivos.

Se podra emigrar el proceso a otra estacin.

10.9 El Modelo de la Pila de Procesadores


Se dispone de un conjunto de cpu que se pueden asignar dinmicamente a los usuarios
segn la demanda [25, Tanenbaum].
Los usuarios no disponen de estaciones de trabajo sino de terminales grcas de alto
rendimiento.
No existe el concepto de propiedad de los procesadores, los que pertenecen a todos y
se utilizan compartidamente.
El principal argumento para la centralizacin del poder de cmputo como una pila de
procesadores proviene de la teora de colas:

Llamamos a la tasa de entradas totales de solicitudes por segundo de todos los


usuarios combinados.

Llamamos a la tasa de procesamiento de solicitudes por parte del servidor.

Para una operacin estable debe darse que > :

Se pueden permitir pequeos lapsos de tiempo en los que la tasa de entrada


exceda a la de servicio.
324CAPTULO 10. PROCESOS Y PROCESADORES EN SISTEMAS DISTRIBUIDOS

Llamamos T al promedio de tiempo entre la emisin de una solicitud y la obtencin


de una respuesta completa:

T = 1 / ( - ).
Cuando tiende a 0, T no tiende a 0.

Supongamos que tenemos n multiprocesadores personales, cada uno con cierto


nmero de cpu y con su propio sistema de colas con tasas y y tiempo T:

Si reunimos todas las cpu y formamos una sola pila de procesadores tendremos
un solo sistema de colas en vez de n colas ejecutndose en paralelo.
La tasa de entrada ser n , la tasa de servicio ser n y el tiempo
promedio de respuesta ser:
T 1 = 1 / (n - n ) = 1 / n ( - ) = T / n.
Conclusin: si reemplazamos n pequeos recursos por uno grande que sea
n veces ms poderoso:
Podemos reducir el tiempo promedio de respuesta n veces.

El modelo de pila es ms eciente que el modelo de bsqueda de estaciones inactivas.


Tambin existe el modelo hbrido que consta de estaciones de trabajo y una pila de
procesadores.

10.10 Asignacin de Procesadores


Son necesarios algoritmos para decidir cul proceso hay que ejecutar y en qu mquina
[25, Tanenbaum].
Para el modelo de estaciones de trabajo:

Decidir cundo ejecutar el proceso de manera local y cundo buscar una estacin
inactiva.

Para el modelo de la pila de procesadores:

Decidir dnde ejecutar cada nuevo proceso.

10.11 Modelos de Asignacin


Generalmente se utilizan las siguientes hiptesis [25, Tanenbaum]:

Todas las mquinas son idnticas (o al menos compatibles en el cdigo); dieren a


lo sumo en la velocidad.

Cada procesador se puede comunicar con los dems.

Las estrategias de asignacin de procesadores se dividen en:


10.12. DISEO DE ALGORITMOS DE ASIGNACIN DE PROCESADORES 325

No migratorias:

Una vez colocado un proceso en una mquina permanece ah hasta que termina.

Migratorias:

Un proceso se puede trasladar aunque haya iniciado su ejecucin.


Permiten un mejor balance de la carga pero son ms complejas.

Los algoritmos de asignacin intentan optimizar algo:

Uso de las cpu:

Maximizar el nmero de ciclos de cpu que se ejecutan para trabajos de los


usuarios.
Minimizar el tiempo de inactividad de las cpu.

Tiempo promedio de respuesta:

Minimizar no los tiempos individuales de respuesta sino los tiempos promedio


de respuesta.

Tasa de respuesta:

Minimizar la tasa de respuesta, que es el tiempo necesario para ejecutar un pro-


ceso en cierta mquina dividido por el tiempo que tardara en cierto procesador
de referencia.

10.12 Aspectos del Diseo de Algoritmos de Asignacin de


Procesadores
Los principales aspectos son los siguientes [25, Tanenbaum]:

Algoritmos deterministas vs. heursticos.

Algoritmos centralizados vs. distribuidos.

Algoritmos ptimos vs. subptimos.

Algoritmos locales vs. globales.

Algoritmos iniciados por el emisor vs. iniciados por el receptor.

Los algoritmos deterministas son adecuados cuando se sabe anticipadamente todo acer-
ca del comportamiento de los procesos, pero esto generalmente no se da, aunque puede
haber en ciertos casos aproximaciones estadsticas.
Los algoritmos heursticos son adecuados cuando la carga es impredecible.
326CAPTULO 10. PROCESOS Y PROCESADORES EN SISTEMAS DISTRIBUIDOS

Los diseos centralizados permiten reunir toda la informacin en un lugar y tomar una
mejor decisin; la desventaja es que la mquina central se puede sobrecargar y se pierde
robustez ante su posible falla.
Generalmente los algoritmos ptimos consumen ms recursos que los subptimos, ade-
ms, en la mayora de los sistemas reales se buscan soluciones subptimas, heursticas y
distribuidas.
Cuando se va a crear un proceso se debe decidir si se ejecutar en la mquina que lo
genera o en otra (poltica de transferencia):

La decisin se puede tomar solo con informacin local o con informacin global.

Los algoritmos locales son sencillos pero no ptimos.

Los algoritmos globales son mejores pero consumen muchos recursos.

Cuando una mquina se deshace de un proceso la poltica de localizacin debe decidir


dnde enviarlo:

Necesita informacin de la carga en todas partes, obtenindola de:

Un emisor sobrecargado que busca una mquina inactiva.


Un receptor desocupado que busca trabajo.

10.13 Aspectos de la Implantacin de Algoritmos de Asig-


nacin de Procesadores
Casi todos los algoritmos suponen que las mquinas conocen su propia carga y que pueden
informar su estado [25, Tanenbaum]:

La medicin de la carga no es tan sencilla.

Un mtodo consiste en contar el nmero de procesos (hay que considerar los procesos
latentes no activos).

Otro mtodo consiste en contar solo los procesos en ejecucin o listos.

Tambin se puede medir la fraccin de tiempo que la cpu est ocupada.

Otro aspecto importante es el costo excesivo en consumo de recursos para recolectar


medidas y desplazar procesos, ya que se debera considerar el tiempo de cpu, el uso de
memoria y el ancho de banda de la red utilizada por el algoritmo para asignacin de
procesadores.
Se debe considerar la complejidad del software en cuestin y sus implicancias para el
desempeo, la correctez y la robustez del sistema.
Si el uso de un algoritmo sencillo proporciona casi la misma ganancia que uno ms
caro y ms complejo, generalmente ser mejor utilizar el ms sencillo.
Se debe otorgar gran importancia a la estabilidad del sistema:
10.14. EJEMPLOS DE ALGORITMOS DE ASIGNACIN DE PROCESADORES 327

Las mquinas ejecutan sus algoritmos en forma asncrona por lo que el sistema nunca
se equilibra.

La mayora de los algoritmos que intercambian informacin:

Son correctos luego de intercambiar la informacin y de que todo se ha regis-


trado.
Son poco conables mientras las tablas continan su actualizacin, es decir que
se presentan situaciones de no equilibrio.

10.14 Ejemplos de Algoritmos de Asignacin de Procesado-


res
10.14.1 Un Algoritmo Determinista Segn la Teora de Grcas
Es aplicable a sistemas donde se conoce [25, Tanenbaum]:

Requerimientos de cpu y de memoria de los procesos.

Trco promedio entre cada par de procesos.

Si el nmero de procesos supera al nmero de cpu:

Habr que asignar varios procesos a la misma cpu.

La asignacin deber minimizar el trco en la red.

El sistema se puede representar en una grca con pesos:

Cada nodo es un proceso.

Cada arco es el ujo de mensajes entre dos procesos.

El problema es encontrar la forma de partir la grca en subgrcas sujetas a restric-


ciones (ej.: de cpu y de memoria):1

Los arcos que van de una subgrca a la otra representan el trco en la red.

Cada subgrca es una unidad de asignacin.

El algoritmo debe buscar unidades de asignacin fuertemente acopladas:

Trco intenso dentro de la unidad de asignacin.


Trco escaso entre unidades de asignacin.

1
Ver Figura 10.1 de la pgina 328 y Figura 10.2 de la pgina 328 [25, Tanenbaum].
328CAPTULO 10. PROCESOS Y PROCESADORES EN SISTEMAS DISTRIBUIDOS

CPU 1 CPU 2 CPU 3


A 3 B 2 C 3 D EL TRAFICO TOTAL EN LA RED ES LA
SUMA DE LAS UNIDADES DE TRAFICO
2 1
2 8 5 DE LOS ARCOS INTERSECTADOS POR
4
LAS LINEAS PUNTEADAS:
6
E F 3 + 2 + 4 + 4 + 2 + 8 + 5 + 2 = 30 UNIDADES
4 5
3 1

G 4 H 2 I

Figura~10.1: Una forma de asignar 9 procesos a 3 procesadores.

CPU 1 CPU 2 CPU 3


A 3 B 2 C 3 D EL TRAFICO TOTAL EN LA RED ES LA
SUMA DE LAS UNIDADES DE TRAFICO
2 1
2 8 5 DE LOS ARCOS INTERSECTADOS POR
4
LAS LINEAS PUNTEADAS:
6
E F 3 + 2 + 4 + 4 + 3 + 5 + 5 + 2 = 28 UNIDADES
4 5
3 1

G 4 H 2 I

Figura~10.2: Otra forma de asignar 9 procesos a 3 procesadores.


10.14. EJEMPLOS DE ALGORITMOS DE ASIGNACIN DE PROCESADORES 329

10.14.2 Un Algoritmo Centralizado


Es un algoritmo heurstico que a diferencia del anterior no precisa informacin anticipa-
damente [25, Tanenbaum].
Es un algoritmo arriba-abajo (Mutka y Livny) centralizado porque un coordinador
mantiene una tabla de usos:
Contiene una entrada por estacin de trabajo inicializada en 0.
Cuando ocurren eventos signicativos se envan al coordinador mensajes para actua-
lizar la tabla.
Las decisiones de asignacin se basan en la tabla:

Se toman cuando ocurren eventos de planicacin, tales como: se realiza una


solicitud, se libera un procesador, el reloj produce una marca de tiempo.

No se intenta maximizar el uso de la cpu.


Se procura otorgar a cada usuario una parte justa del poder de cmputo.
Cuando la mquina donde se crea un proceso decide que se debe ejecutar en otra
parte:

Le pide al coordinador de la tabla de usos que le asigne un procesador:


Si existe uno disponible y nadie ms lo desea, se otorga el permiso.
Si no, la solicitud se niega y se registra.

Si un usuario ejecuta procesos en mquinas de otros usuarios acumula puntos de


penalizacin por segundo, lo que se registra en la tabla de usos.
Si un usuario tiene solicitudes pendientes insatisfechas, se restan puntos de penali-
zacin.
Si no existen solicitudes pendientes y ningn procesador est en uso, la entrada de la
tabla de usos se desplaza un cierto nmero de puntos hacia el 0, hasta alcanzarlo.
El movimiento de puntos hacia arriba y abajo da nombre al algoritmo.
Un puntaje positivo en una entrada de la tabla de usos indica que la estacin de trabajo
relacionada es un usuario de los recursos del sistema.
Un puntaje negativo signica que precisa recursos.
Una puntuacin 0 es neutra.
La heurstica utilizada para la asignacin de procesadores es la siguiente:
Cuando un procesador se libera gana la solicitud pendiente cuyo poseedor tiene la
puntuacin menor.
Un usuario que no ocupe procesadores y que tenga pendiente una solicitud durante
mucho tiempo:

Siempre vencer a alguien que utilice muchos procesadores.


Se cumple con el principio de asignar la capacidad de manera justa.
330CAPTULO 10. PROCESOS Y PROCESADORES EN SISTEMAS DISTRIBUIDOS

10.14.3 Un Algoritmo Jerrquico


El algoritmo anterior no se adapta bien a los sistemas de gran tamao [25, Tanenbaum],
pues el nodo central se convierte en un cuello de botella y en un nico punto de fallo.
Una solucin son los algoritmos jerrquicos que:

Mantienen la sencillez de los centralizados.

Se escalan mejor que los centralizados.

Un mtodo consiste en organizar a los procesadores en jerarquas lgicas independientes


de la estructura fsica:

Se establece un rbol jerrquico con distintos niveles.

Para cada grupo de mquinas hay una mquina administradora:

Mantiene un registro de las mquinas ocupadas y las inactivas.

Cada procesador se comunica con un superior y un nmero reducido de subordinados:

El ujo de informacin es controlable.

En caso de falla de un equipo con funciones jerrquicas:

Lo puede reemplazar un subordinado:

La eleccin la pueden hacer los subordinados, los pares jerrquicos del equipo
fallado o el superior jerrquico del mismo.

Para disminuir la vulnerabilidad se puede tener en la cima del rbol jerrquico no uno
sino un grupo de equipos; si alguno del grupo falla los restantes eligen a un subordinado
para integrar el grupo superior.
Las tareas se pueden crear en cualquier parte de la jerarqua y pueden requerir varios
procesos, es decir varios procesadores.
Cada administrador debe mantener un registro de sus equipos dependientes que estn
disponibles.
Si el administrador que recibe una solicitud determina que no tiene sucientes proce-
sadores disponibles, transere la solicitud hacia arriba a su superior, quien tambin podra
trasladarla hacia arriba nuevamente.
Si el administrador determina que s puede satisfacer la solicitud:

Divide la solicitud en partes y la distribuye a los administradores subordinados a l.

Los subordinados repiten esta operacin hasta llegar al nivel inferior.

Los procesadores se sealan como ocupados y el nmero de procesadores asignados


se informa hacia arriba.
10.14. EJEMPLOS DE ALGORITMOS DE ASIGNACIN DE PROCESADORES 331

Un importante problema consiste en que podra haber varias solicitudes en distintas


etapas del algoritmo de asignacin:
Puede conducir a estimaciones no actualizadas del nmero de procesadores disponi-
bles (tambin pudieron salir de servicio algunos de los considerados disponibles).
Podran presentarse situaciones de competencia, bloqueo, etc. en el intento de asig-
nacin de procesadores.

10.14.4 Un Algoritmo Distribuido Heurstico (Eager)


Al crearse un proceso [25, Tanenbaum]:
La mquina donde se origina enva mensajes de prueba a una mquina elegida al
azar; pregunta si su carga est por debajo de cierto valor de referencia.
Si la respuesta es positiva el proceso se enva a ese lugar.
Si no, se elige otra mquina para la prueba.
Luego de n pruebas negativas el algoritmo termina y el proceso se ejecuta en la
mquina de origen.

10.14.5 Un Algoritmo de Remates


Utiliza un modelo econmico con [25, Tanenbaum]:
Compradores y vendedores de servicios.
Precios establecidos por la oferta y la demanda.
Los procesos deben comprar tiempo de cpu.
Cada procesador anuncia su precio mediante un archivo que todos pueden leer (es el
precio pagado por el ltimo cliente).
Los distintos procesadores pueden tener distintos precios segn sus caractersticas y
servicios.
Cuando un proceso desea iniciar un proceso hijo:
Verica si alguien ofrece el servicio que necesita.
Determina el conjunto de procesadores que pueden prestar sus servicios.
Selecciona el mejor candidato segn precio, rapidez, relacin precio / desempeo,
tipo de aplicacin, etc.
Genera una oferta y la enva a su primer opcin.
Los procesadores:
Renen las ofertas recibidas y eligen una.
Informan a los ganadores y perdedores.
Ejecutan los procesos.
Actualizan los precios.
332CAPTULO 10. PROCESOS Y PROCESADORES EN SISTEMAS DISTRIBUIDOS

10.15 Planicacin en Sistemas Distribuidos


Generalmente cada procesador hace su planicacin local (si tiene varios procesos en eje-
cucin) independientemente de lo que hacen los otros procesadores [25, Tanenbaum].
La planicacin independiente no es eciente cuando se ejecutan en distintos proce-
sadores un grupo de procesos:

Relacionados entre s.

Con una gran interaccin entre los procesos.

Se necesita una forma de garantizar que los procesos con comunicacin frecuente se
ejecuten de manera simultnea.
En muchos casos un grupo de procesos relacionados entre s iniciarn juntos.
La comunicacin dentro de los grupos debe prevalecer sobre la comunicacin entre los
grupos.
Se debe disponer de un nmero de procesadores suciente para soportar al grupo de
mayor tamao.
Cada procesador se multiprograma con n espacios para los procesos (multiprograma-
cin de nivel n).
El algoritmo de Ousterhout utiliza el concepto de coplanicacin:

Toma en cuenta los patrones de comunicacin entre los procesos durante la plani-
cacin.

Debe garantizar que todos los miembros del grupo se ejecuten al mismo tiempo.

Se emplea una matriz conceptual donde:

Las las son espacios de tiempo.


Las columnas son las tablas de procesos de los procesadores.

Cada procesador debe utilizar un algoritmo de planicacin Round Robin:

Todos los procesadores ejecutan el proceso en el espacio 0 durante un cierto


perodo jo.
Todos los procesadores ejecutan el proceso en el espacio 1 durante un cierto
perodo jo, etc.

Se deben mantener sincronizados los intervalos de tiempo.

Todos los miembros de un grupo se deben colocar en el mismo nmero de espacio


de tiempo pero en procesadores distintos.

You might also like