Professional Documents
Culture Documents
Javad Barabady
Agradezco al gobierno de Irán que me brinde apoyo financiero para llevar a cabo este
trabajo de investigación.
También me gustaría dar las gracias a mis colegas Behzad Ghodrati, Aditya Parida,
Arne Nissen, juntos con todos los otros colegas en mi departamento. Me alentaron a
través de discusiones y valioso consejo.
Javad Barabady
Diciembre de 2005
Luleå, Suecia.
ABSTRACTO
La fiabilidad, la facilidad de mantenimiento y la disponibilidad del sistema han adquirido
gran importancia en los últimos años debido a un entorno competitivo y los costos totales
de operación y producción. Actuación de los equipos depende de la fiabilidad y la
disponibilidad del equipo utilizado, el entorno operativo, eficiencia de mantenimiento,
proceso de operación y experiencia técnica de los operadores, etc. Cuando la
confiabilidad y disponibilidad del sistema son bajas, se necesitan esfuerzos para
mejorarlas mediante reduciendo la tasa de fallas o aumentando la tasa de reparación
para cada componente o subsistema.
El estudio muestra que el análisis de fiabilidad y mantenimiento es muy útil para decidir
intervalos de mantenimiento, planificación y organización del mantenimiento. Los
resultados muestran que la disponibilidad y las medidas de importancia de la fiabilidad
se pueden utilizar como una guía para gestionar los esfuerzos para la fiabilidad y la
mejora de la disponibilidad de un sistema.
Documento II: Barabady, J., Kumar, U. (2005), "Análisis de confiabilidad del equipo de
minería: Un caso estudio de una planta de trituración en la mina de bauxita Jajarm de
Irán ", presentado para publicación en Revista de Ingeniería de Confiabilidad y
Seguridad del Sistema.
Referencias ........................................................................................................ 47
Leith (1995)
Mantenibilidad
IEV191-13-01
Disponibilidad
IEV 191-02-05
Mantenimiento
IEV 191-07-07
IEV 191-12-08
IEV 191-13-08
Sistema reparable
Sistema no reparable
Una breve introducción se da en este capítulo para presentar al lector el problema. Eso
cubre el fondo subyacente y el área problemática del proyecto de investigación. También
discute la pregunta de investigación con limitaciones y finalmente se especifica la
estructura de la tesis.
1.1 Antecedentes
Los sistemas tecnológicos actuales, como los aviones, las centrales nucleares, las
instalaciones militares y equipos médicos avanzados, se caracterizan por un alto nivel
de complejidad. Los requisitos para la disponibilidad y la confiabilidad de tales sistemas
son muy altos. La noción de un El análisis de confiabilidad es relativamente reciente,
data de alrededor de la década de 1940, en ese momento las técnicas matemáticas,
algunas de las cuales eran bastante nuevas, se aplicaron a muchas y problemas
estratégicos en la Segunda Guerra Mundial. Antes de este período, el concepto de
confiabilidad era principalmente cuantitativa y subjetiva, basada en nociones intuitivas.
Los métodos actuariales habían sido utilizado para estimar la supervivencia de los
equipos de ferrocarril y en otras aplicaciones a principios del siglo XX siglo, y la teoría
del valor extremo se utilizó para modelar la vida de la fatiga de los materiales que
comienzan en el 1930s (Blischke y Murthy, 2003). Un enfoque más cuantitativo o
matemático y formal a la confiabilidad surgió de las demandas de la tecnología moderna,
y particularmente de las experiencias en la Segunda Guerra Mundial con complejos
sistemas militares (Barlow y Proschan 1965). Barlow (1984) proporciona una
perspectiva histórica de la teoría de la fiabilidad matemática hasta ese momento.
Perspectivas similares sobre ingeniería de confiabilidad en equipos electrónicos y en
software la fiabilidad se puede encontrar en Coppola (1984), Shanthikumar (1983) y
Shooman (1984). Rackwitz (2001) también proporciona una revisión y algunas
perspectivas de análisis de confiabilidad hasta ese hora. Para más información sobre la
historia de la confiabilidad, ver Knight (1991), Denson (1998), Martin (1998), Foucher et
al (2002), y Rueda y Pawlak (2004).
A medida que aumenta la complejidad de los arreglos de los equipos, la evaluación del
riesgo se vuelve más Complicado. El riesgo debe medirse en relación con la capacidad
de la planta para cumplir de manera confiable su misión operativa específica. En
consecuencia, el rendimiento esperado de la inversión se considera como directamente
relacionado con la capacidad del equipo de planta, definido en términos de; durabilidad2,
rendimiento, disponibilidad y confiabilidad Está claro que la disponibilidad y confiabilidad
del equipo continúa siendo un problema significativo para la industria. La confiabilidad y
la disponibilidad son medidas válidas de la calidad del producto, rendimiento del
producto, servicio del producto y rentabilidad (Goets & Villa, 1998). Confiabilidad la
ingeniería abarca todos los aspectos de la vida de un producto, desde su concepción,
diseño posterior y procesos de producción, así como a través de su uso práctico de por
vida, con mantenimiento soporte y disponibilidad. La ingeniería de confiabilidad cubre:
confiabilidad, facilidad de mantenimiento y disponibilidad. Las tres áreas se pueden
cuantificar numéricamente con el uso de la ingeniería de confiabilidad principios y
análisis de datos de vida (Kececioglu, 1991). Una parte importante de cualquier sistema
los costos operativos se deben a paros no planificados del sistema para la reparación
no programada de la totalidad sistema de componentes. Un método para mitigar el
impacto de la falla es mejorar la confiabilidad y disponibilidad de un sistema. Mejoras en
la confiabilidad hechas por el proveedor al principio del el ciclo de vida del equipo puede
dar lugar a mayores costos de desarrollo que se transmiten al cliente en los costos de
adquisición de equipos. Sin embargo, esto puede ser más que compensado ya que el
cliente beneficios al tener costos operacionales más bajos con mayor confiabilidad y
tiempo de actividad resultando en mayor productividad.
La Figura 1.1 ilustra cómo un programa de confiabilidad afecta los costos de adquisición
y operación. Como esta cifra indica, los costos de adquisición pueden aumentar debido
a los esfuerzos para mejorar la confiabilidad. Sin embargo, los costos operacionales, y
aún más importante, los costos totales del ciclo de vida disminuyen. Es importante para
que el cliente tome decisiones de compra de equipo basadas en los costos totales del
ciclo de vida y no solo en el precio de compra inicial. Aumento de los costos de
adquisición para mejorar la fiabilidad del equipo y los menores costos operacionales y
del ciclo de vida total es claramente una práctica recomendada. Sin embargo, hay es un
punto en el que ya no es necesario aumentar los costos de adquisición para obtener
niveles más altos de confiabilidad beneficioso. La figura 1.2 muestra un punto óptimo
más allá del cual los costos totales del ciclo de vida comienzan a aumentar con más
mejoras en la confiabilidad. Cuando esto ocurre, una tecnología más confiable se
requiere para una mejora adicional (Dhudsia, 1992).
La fiabilidad, disponibilidad y mantenimiento (RAM) del sistema han asumido una gran
importancia en los últimos años debido al entorno competitivo y al costo / producción
operativo general costo. Uno de los propósitos del análisis de fiabilidad y disponibilidad
del sistema es identificar debilidad en un sistema y para cuantificar el impacto de las
fallas de los componentes (Wang et al 2004). Actuación de los equipos depende de la
confiabilidad y la disponibilidad del equipo utilizado, medio ambiente, eficiencia de
mantenimiento, proceso de operación y experiencia técnica del operador.
Claramente, la Fiabilidad y la Disponibilidad están relacionadas, pero no
necesariamente de manera directa. Es posible tener un equipo que se descompone con
frecuencia, pero por períodos cortos, que como resultado tiene un nivel razonable de
disponibilidad. Del mismo modo, es posible tener un equipo que es altamente confiable,
pero tiene un bajo nivel de disponibilidad porque está fuera de servicio para el
mantenimiento por largos períodos a la vez.
1.2 Problema de investigación
El primer capítulo (Introducción) comienza con una descripción del fondo y el problema
de investigación.
2.1 Introducción
Las preguntas de investigación se centran en "cómo" y "qué", según Yin (1994), el autor
ha elegido un estudio de investigación de acuerdo con la encuesta y el estudio de caso.
Cooper y Schindler (2003) definen los datos como los hechos presentados al
investigador desde el entorno del estudio. Existen diferentes métodos para la
recopilación de datos y cada investigador recopila datos usando una o más técnicas.
Según Neuman (2003) las técnicas pueden ser agrupados en dos categorías:
cuantitativos, recopilación de datos en forma de números y cualitativos, recolectando
datos en forma de palabras o imágenes. Algunas técnicas son más efectivas al abordar
tipos específicos de preguntas o temas. Se requiere habilidad, práctica y creatividad
para hacer una pregunta de investigación a una técnica apropiada de recopilación de
datos.
Los datos se dividen en tres categorías: i) los datos primarios los genera un investigador
responsable para el diseño del estudio y la recopilación, análisis e informe de los datos.
Los datos nuevos se utilizan para responder preguntas de investigación específicas. El
investigador puede describir por qué y cómo fueron recolectados; ii) los datos
secundarios son los datos brutos que ya han sido recopilados por alguien más, por algún
propósito de información general; iii) los datos terciarios han sido analizados por ya sea
el investigador que los generó o un analista de datos secundarios. En este caso, la cruda
los datos pueden no estar disponibles, solo los resultados de este análisis (Blaikie,
2003).
Hay muchas fuentes de datos en sistemas reparables que son relevantes para la
confiabilidad modelado de equipos. Además de la información generada por el
mantenimiento y la producción funciones en forma de informes, gran parte de los datos
sin procesar en los que se basan estos informes también debe ser accesible para lograr
un modelo de confiabilidad exitoso. De ahí la fiabilidad y el modelado de disponibilidad
se puede ver como una parte integral de una función unificada de "análisis", tratar con
una gran cantidad de flujos de información, incluidos (Hall y Daneshmend, 2003):
Los primeros dos están relacionados con el análisis descriptivo. Para decirlo de otra
manera, un descriptivo univariado análisis analiza una variable a la vez, mientras que
un análisis descriptivo bivariado trata con la asociación entre dos variables. El análisis
explicativo puede ser un tipo especial del análisis bivariado, en el que la preocupación
es con la influencia de una variable sobre otra, o análisis multivariante, que examina la
conexión o las influencias entre tres o más variables.
En este estudio de investigación, los datos de Tiempo entre falla (TBF) y Tiempo de
reparación (TTR) de dos plantas de trituración en las minas de bauxita de Jajarm en Irán
y sus subsistemas se organizan en orden cronológico para usar el análisis estadístico
para determinar la tendencia de falla. El siguiente paso después de la recolección,
clasificación y clasificación de los datos fue la validación de la independiente y la
naturaleza (iid) distribuida de forma idéntica de los datos de cada subsistema o
componente, porque El análisis de los datos de confiabilidad y disponibilidad
generalmente se basa en la suposición de que los tiempos entre fallas son
independientes e idénticamente distribuidas (iid) en el dominio del tiempo. Por lo tanto,
antes de comenzar, es fundamental llevar a cabo un análisis formal de verificación de la
suposición que las fallas / reparaciones son independientes e idénticamente distribuidas
(iid). De lo contrario completamente se pueden sacar conclusiones erróneas (Kumar y
Klefsjö, 1992). Si la suposición de que los datos son independiente no es válido, de lo
que las técnicas estadísticas clásicas para el análisis de confiabilidad pueden no ser
apropiado. Dos métodos gráficos o analíticos comunes utilizados para validar la
suposición de iid son la prueba de tendencia y la prueba correlativa en serie.
donde los datos se truncan por falla en la enésima falla en el momento Tn. Bajo la
hipótesis nula de un proceso homogéneo de Poisson, el estadístico de prueba U es chi
cuadrado distribuido con un grado 2 (n-1) de libertad.
Los datos de tendencia libre se analizan para determinar la característica precisa del
tiempo de falla distribuciones de subsistemas de plantas de trituración para estimar la
confiabilidad. La probabilidad idealizada las distribuciones se utilizan comúnmente para
describir el tiempo entre los conjuntos de datos de falla para plantas de trituración. Se
examinaron diferentes tipos de distribuciones estadísticas y sus parámetros se estiman
utilizando el software Weibull ++ 6 de ReliaSoft. El software se ajusta a varias
distribuciones modelos basados en los datos, por una serie de métodos diferentes. El
usuario puede elegir un preferido modelo, o acepte el modelo recomendado por el
software. Los datos con tendencias no pueden ser analizado por modelos de distribución
estándar y tales datos deben ser analizados por un no estacionario modelo como el
proceso de Poisson no homogéneo (NHPP). En este estudio, el proceso de ley de
potencia El modelo NHPP se utiliza para modelar la confiabilidad de este tipo de datos.
Conforme a Ascher y Feingold (1984), y Kumar y Klefsjö, (1992) para el caso, la función
de intensidad viene dada por la ecuación 2-2.
Es muy importante verificar si la suposición del proceso de ley de poder es realista antes
de usar ese modelo para el análisis de datos (Kumar y Klefsjö, 1992). La prueba de
bondad de ajuste se puede usar por TTT-plot basado en el proceso de ley de potencia.
En general, se acepta que las medidas "buenas" deben ser confiables y válidas. La
confiabilidad es usualmente preocupado con la estabilidad en el tiempo. La validez se
refiere a si el artículo realmente provoca la información deseada. Comprender estos dos
términos es importante para la comprensión mediciones en configuraciones de
recopilación de datos tanto teóricas como aplicadas. De acuerdo con Neuman (2003)
Confiabilidad significa confiabilidad o consistencia. Sugiere que las mismas cosas se
repiten o recurrir en condiciones idénticas o muy similares (Neumann, 2003). Fiabilidad
significa que la implementación de un estudio, como los procedimientos de recopilación
de datos, puede realizarse mediante alguien más con el mismo resultado. Con alta
confiabilidad, es posible para otro investigador para lograr los mismos resultados a
condición de que se use la misma metodología. Una condición para la alta fiabilidad es
que la metodología utilizada para la recopilación de datos está claramente descrita (Yin,
1994)
Según Neuman (2003) la fiabilidad es necesaria para la validez y es más fácil de lograr
que validez. Aunque la fiabilidad es necesaria para tener una medida válida de un
concepto, sí lo hace no garantiza que una medida sea válida. No es una condición
suficiente para la validez. Figura 2.2 ilustra la relación entre los conceptos al usar la
analogía de un objetivo. Los Ojo de buey representa un ajuste entre una medida y la
definición del contrato.
Según Yin (1994), los hallazgos de un estudio de caso podrían generalizarse a teóricos
proposiciones. Por lo tanto, los estudios de casos de alta calidad correctamente
realizados pueden producir generalizable resultados, donde las inferencias no se
dibujan a una población más grande basada en la muestra evidencia, sino más bien
para generalizar de nuevo a la teoría. Sin embargo, Yin (1994) cree que el
generalización no es automática, una teoría debe ser probada a través de replicaciones
de los hallazgos en un segundo o incluso tercer vecindario. Podría decirse que el estudio
tiene una alta validez interna, porque los hallazgos del estudio son relevantes y están
lógicamente conectados a la teoría existente. Desde el punto de vista del investigador,
se encontró que el hallazgo de este estudio puede ser generalizó tanto como
proposiciones teóricas como para otras poblaciones o universos similares. De otra
manera podría repetirse para otros casos industriales y con los mismos resultados
puede generalizarse.
3.8 Diseño de investigación
El modelo RAM proporciona una base cuantitativa para juzgar la aceptabilidad del
diseño, y las herramientas necesarias para facilitar las actividades de justificación y
priorización para todas las confiabilidades futuras y toma de decisiones de
disponibilidad. La llegada de técnicas analíticas mejoradas y escritorio Las capacidades
informáticas de los últimos diez años han llevado al uso rutinario de RAM y evaluación
de riesgos para guiar las decisiones de la planta y su importancia para lograr niveles
mejorados de seguridad y economía Los modelos de RAM representan las relaciones
lógicas entre cada componente de la planta, sistema y la acción humana con respecto
a sus efectos sobre la generación y se puede utilizar para cuantitativamente predecir la
magnitud de cada contribuyente individual a las pérdidas descritas por la planta curva
de duración de carga (Agencia Internacional de Energía Atómica, 2001). Algunos
motivos de fiabilidad y los programas de disponibilidad son:
3.2.1 Fiabilidad
Para un valor dado de t, R (t) es la probabilidad de que el tiempo de falla sea mayor o
igual que t. Si definimos:
Entonces F (t) es la probabilidad de que ocurra una falla antes del tiempo t. Nos referiremos a R (t)
como la confiabilidad función y F (t) como la función de distribución acumulativa (CDF) de la
distribución de fallas. Una tercera función se llama función de densidad de probabilidad (PDF) y está
definida por:
Esta función describe la forma de la distribución de fallas. El PDF, f (t), tiene estas dos
propiedades:
En otras palabras, tanto la función de confiabilidad como la CDF representan áreas bajo
la curva definida por f (t). Por lo tanto, dado que el área debajo de toda la curva es igual
a uno, tanto la confiabilidad y la probabilidad de falla se definirá de manera que:
3.2.2 Mantenibilidad
Esta ecuación es la probabilidad de que se realice una reparación dentro del tiempo t.
El significado el tiempo de reparación se puede encontrar en la ecuación 3-10 (Ebeling,
1997).
3.2.3 Disponibilidad
3.2.4 Mantenimiento
Diseño de mantenimiento tiene como objetivo cambiar el diseño del producto o sistema
con el fin de eliminar o reducir la necesidad de mantenimiento durante el ciclo de vida.
Sin embargo, El Diseño de mantenimiento no es una estrategia adecuada para el equipo
de minería con su gran infraestructura bienes.
i) mayor confiabilidad del sistema; ii) costo reducido de reemplazo; iii) sistema
disminuido tiempo de inactividad, y iv) mejor gestión de inventario de repuestos.
El mantenimiento preventivo es una opción lógica si, y solo si, se cumplen las siguientes
condiciones: i) el componente en cuestión tiene una tasa de falla creciente que indica
desgaste; ii) el general el costo de la acción de mantenimiento preventivo debe ser
menor que el costo general de una acción correctiva. Si se cumplen estas dos
condiciones, entonces el mantenimiento preventivo tiene sentido. Adicionalmente, con
base en los ratios de costos, un tiempo óptimo para tal acción se puede calcular
fácilmente para un componente único. El mantenimiento preventivo se puede dividir en
mantenimiento preventivo basado en el tiempo y mantenimiento basado en la condición.
El mantenimiento preventivo basado en la condición, también llamado mantenimiento
de predicción, se aplica a los elementos donde la falla ocurre accidentalmente. Es
necesario presentar el período de inspección óptimo como una política de
mantenimiento preventivo para mejorar la confiabilidad de las instalaciones que utilizan
el tiempo medio de fallas basado en estadísticas de confiabilidad información. El
monitoreo de la condición tiene el potencial de identificar problemas antes de la falla.
Temprano la detección de la degradación del equipo permitirá la programación de las
reparaciones, reduciendo así los costos e interrupciones de producción.
El mantenimiento correctivo se define como el mantenimiento realizado después del
reconocimiento de fallas y destinado a poner un artículo en un estado en el que puede
realizar una función requerida (IEV 191-07-08, 2005).
La figura 3.7 es un diagrama de flujo simplificado de las tareas de RAM principal (en
rectángulos) y las decisiones (en diamantes) que forman el proceso de RAM para
cualquier fase del proyecto. Si bien los objetivos específicos de las tres tareas de RAM
cambiarán a medida que el proyecto se vea modificado, el proceso de RAM en la figura
3.8 se aplica a todas las fases del proyecto.
La Tabla 3.1 enumera varias herramientas efectivas relacionadas con RAM para cada
actividad de RAM. Estas herramientas tienen históricamente han sido y se espera que
sean los más útiles para llevar a cabo las actividades de RAM necesario para las tres
tareas principales de RAM. Para ayudar a garantizar que el programa RAM esté
correctamente centrado y que los resultados de las tareas de RAM son precisos, dos
tareas de gestión deben ser realizado en todas las fases del proyecto:
Las revisiones de RAM deben ser realizadas por expertos de RAM que son
independientes del proyecto equipo. La primera responsabilidad de los expertos es
revisar el plan de RAM. Responsabilidades adicionales incluye verificar la validez de los
resultados de cada tarea de RAM