You are on page 1of 316

UNIVERSIDAD NACIONAL FEDERICO

VILLARREAL
ESCUELA UNIVERSITARIA DE POSTGRADO
Doctorado en Ingeniera

TTULO:
Redes Neuronales Artificiales aplicadas a la mejora de la calidad

Tesis presentada por el Magster Juan Manuel Cevallos Ampuero para optar el
Grado de Doctor en Ingeniera.

Asesor: Dr. Justo Pastor Solis Fonseca

Lima, 2 de Julio 2008

DEDICADO A:

Mis padres

AGRADECIMIENTO

A la Universidad y mis profesores que me brindaron conocimientos para


poder aprender cada vez ms.

ii

NDICE TEMTICO
Resumen

ix

Abstract

Sintesi

xi

Introduccin.

xii

CAPTULO I.
MARCO DE REFERENCIA

1.1.

Antecedentes bibliogrficos del problema.

1.2.

Marco Terico

15

1.3.

Marco Conceptual.

82

1.4.

Marco Filosfico

85

1.5.

Marco Epistemolgico

100

CAPTULO II.
PLANTEAMIENTO METODOLGICO
2.1. Enunciado del problema

113

2.2. Objetivos

113

2.3. Hiptesis, variables e indicadores

113

2.4. Diseo metodolgico

114

CAPTULO III.
APLICACIN DE LA RED NEURONAL ARTIFICIAL DESARROLLADA Y
RESULTADOS
3.1. Anlisis de las caractersticas de las Arquitecturas de Redes

118

Neuronales y sus posibilidades de aplicar para la Mejora de


la Calidad de procesos.
3.2. Desarrollo de una Arquitectura de Red Neuronal para
Mejora de la Calidad de procesos.

125

3.3. Prueba de comparacin de la Red Neuronal desarrollada


con otras Arquitecturas de Redes Neuronales de Funcin
de Base Radial y con tcnicas tradicionales de mejora de
la calidad de procesos

193

3.4. Aplicacin de la Red Neuronal seleccionada a un caso de


iii

Mejora de la calidad de diseo de procesos

225

3.5. Aplicacin de la Red Neuronal seleccionada a un caso de


mejora de la calidad de un proceso

234

CAPTULO IV
ANLISIS DE RESULTADOS

244

CAPTULO V
DISCUSIN DE RESULTADOS

255

CONCLUSIONES Y RECOMENDACIONES

269

REFERENCIAS BIBLIOGRFICAS

272

ANEXOS
Anexo 1. Informe de Experto consultado sobre el Programa
Cmputo de la Red Desarrollada.

278

Anexo 2. Programa y Listado completo del Programa Desarrollado


de Creacin de Red Neuronal Artificial y de Simulacin para Aplicar
en Mejora de la calidad.

279

Anexo 3. Detalle de clculos en Perceptrn Multicapa con


aprendizaje Backpropagation

286

Anexo 4. Detalle de clculos con Redes Neuronales con


Funciones de Base Radial

293

iv

NDICE DE TABLAS

Tabla 1. Aportes de Ishikawa

16

Tabla 2. Etapas de la Calidad

17

Tabla 3. Diseo de Experimentos

19

Tabla 4. ANVA Anlisis de Variancia

20

Tabla 5. Diseo Factorial

21

Tabla 6. Arreglo Ortogonal

23

Tabla 7. Matriz L4 (23-1)

24

Tabla 7a Tabla de Promedios

24

Tabla 8. Sistemas Expertos

33

Tabla 9. Algoritmos de aprendizaje para Perceptrn Multicapa

51

Tabla 10. Anlisis de las caractersticas de las Redes Neuronales


Perceptrn, Adaline y Pereptrn Multicapa

119

Tabla 11. Anlisis de las caractersticas de las Redes Neuronales de


Funcin de Base Radial, Recurrentes y De Aprendizaje no Supervisado 121
Tabla 12. Seleccin de Shell a utilizar

126

Tabla 13. Tabla de arquitectura

128

Tabla 14. Datos del caso de Diseo de Experimentos, Del Castillo, et al. 148
Tabla 15. Comparacin Red Desarrollada Perceptrn Multicapa con
Backpropagation y Anlisis Estadstico Tradicional, para valores
Deseados

149

Tabla 16. Valores deseados y obtenidos con las nuevas entradas.

155

Tabla 17. Valores deseados y obtenidos con las nuevas entradas


PMC-BK
Tabla 18. Parmetros de proceso del Caso de Vasconcellos, et al.

161
161

Tabla 19. Comparacin Red Desarrollada Perceptrn Multicapa con


Backpropagation Algoritmo de Levenmberg_Marquardt y Anlisis
Estadstico Tradicional, para valores deseados

162

Tabla 20. Diseo Experimental del Caso de Vasconcellos, et al.

164

Tabla 21. Respuestas promedio y efecto de cada factor del proceso

164

Tabla 22. Anlisis de Variancia ANVA del caso de Vasconcellos et al.

165

Tabla 23. Residuos/errores del caso de Vasconcellos, et al.

166

Tabla 24. Valores de factores para obtener un valor deseado

173
v

Tabla 25. Valores de factores para obtener un valor deseado GRNN

186

Tabla 26. Diseo de Experimento y salida del caso de Montgomery

194

Tabla 27. Niveles de los Factores del Caso de Schmidt

195

Tabla 28. Resultados del Experimento del Caso de Schmidt

195

Tabla 29. Niveles de los Factores del Caso de Ross

196

Tabla 30. Resultados de Experimento del Caso de Ross

196

Tabla 31. Comparacin de la Red Desarrollada con Redes Neuronales de


Funcin de Base Radial

197

Tabla 32. Anlisis de variancia del caso velocidad de filtracin

203

Tabla 33. Comparacin de Red Desarrollada con Redes


Neuronales de Funcin de Base Radial

204

Tabla 34. Tabla de resultados, de mejor desempeo para largo y ancho 212
Tabla 35. Comparacin de Red Desarrollada con Redes Neuronales de
Funcin de Base Radial

213

Tabla 36. Tabla de resultados, de mejor desempeo lado izquierdo


y derecho del caso de soldadura

224

Tabla 37. Valores de los Factores y Respuestas del Caso de


Montgomery y Bowles
Tabla 38. Valores Transformados de los Factores

225
226

Tabla 39. Comparacin de Red Desarrollada con Red Newrbe y Anlisis


Estadsticos Tradicionales.

227

Tabla 40. Valores de los Factores y Niveles del Caso de Anand

235

Tabla 41. Resultados del Caso de Anand

235

Tabla 42. Comparacin de Red Desarrollada con Red Newrbe y Anlisis


Estadsticos Tradicionales.

236

Tabla 43. Errores obtenidos en los casos analizados

258

vi

NDICE DE FIGURAS

Figura 1. Ciclo de Deming

16

Figura 2. Funcin Prdida

23

Figura 3. Representacin de datos en Lgica Difusa

30

Figura 4. Red neuronal artificial perceptrn con n neuronas


de entrada, m neuronas en su capa oculta y una neurona de salida.

31

Figura 5. Red Neuronal Biolgica

36

Figura 6. Neurona artificial con varios inputs

37

Figura 7. Proceso de entrenamiento de una Red Neuronal

39

Figura 8. Esquema de una Neurona Artificial (McCulloch-Pitts).

39

Figura 9. Red Neuronal Artificial con una capa oculta.

40

Figura 10. Perceptrn: Red con dos capas (entrada y salida)

41

Figura 11. Perceptrn con R entradas

42

Figura 12. Perceptrn con R inputs y S outputs

42

Figura 13. Red ADALINE

44

Figura 14. Regla de decisin de una Red ADALINE con 2 inputs

45

Figura 15. Perceptrn de dos neuronas con una capa oculta

46

Figura 16. Perceptrn Multicapa, con capa de entrada ms tres capas

46

Figura 17. Perceptrn Multicapa, con capa oculta tansig y capa de


salida purelin con aprendizaje Backpropagation

47

Figura 18. Neurona de Base Radial

52

Figura 19. Red Neuronal de Funcin de Base Radial

53

Figura 20. Red Neuronal de Funcin de Base Radial. Arquitectura

54

Figura 21. Ejemplos de neuronas con conexiones recurrentes


Figura 22. Red de Hopfield para n= 4
Figura 23. Arquitectura de una red de aprendizaje competitivo

61
63
69

Figura 24. Arquitectura de red con capa de aprendizaje competitivo

70

Figura 24a. Arquitectura de red con capa de mapa auto organizativo

72

Figura 25. Logotipo Neuroshell

78

Figura 26. Logotipo Neurosolutions

79

Figura 27. Logotipo Matlab

80

Figura 28. Logotipo SprinN

81
vii

Figura 29. Alan Turing

89

Figura 30. Roger Penrose

91

Figura 31. Hubert Greyfus

93

Figura 32. John Searle

96

Figura 33. Thomas Kuhn

100

Figura 34. Ren Descartes

102

Figura 35. Karl Popper

103

Figura 36. Imre Lakatos

105

Figura 37. Charles Darwin

111

Figura 38. Modelo de la Red Neuronal Desarrollada

128

Figura 39. Flujograma de seleccin de programa de red desarrollada

128

Figura 40. Entrenamiento de La Red. Programa 14r. Fase I.

130

Figura 41. Simulacin de La Red. Programa 14r. Fase II.

133

Figura 42. Entrenamiento de La Red. Programa 15r. Fase I.

139

Figura 43. Simulacin de La Red. Programa 15rr. Fase II.

142

Figura 44. Red Neuronal de Funcin de Base Radial

245

Figura 45. Arquitectura de la Red Perceptrn Multicapa

287

Figura 46. Red Neuronal de Funcin de Base Radial

294

viii

RESUMEN
Con el objeto de superar las limitaciones que tiene el Anlisis Estadstico
Tradicional que se aplica al diseo de experimentos, por trabajar con
relaciones fundamentalmente lineales, se desarroll una metodologa que
aplica Redes Neuronales Artificiales RNA en los diseos de experimentos;
se analizaron diversas arquitecturas y se encontr que las RNA de Funcin
de Base Radial fueron las que dieron mejor resultado; dentro de ellas las
que tuvieron mejor desempeo fueron las de Diseo Exacto. Por ello se
construy la RNA Red Desarrollada que utiliza la distancia de
Mahalanobis, con la cual se obtuvo los mejores resultados. Con la
metodologa desarrollada, que elabora las Redes RNA Directa e Inversa,
adems de poder realizar los clculos que hace el Anlisis Estadstico
Tradicional para el diseo de experimentos, tambin se puede determinar
los valores de los parmetros de entrada con base a las caractersticas de
calidad deseadas. Asimismo, se lleg de determinar que se mejora la
exactitud mediante la optimizacin del clculo de las distancias de los
vectores de entrada a los centros y que la capacidad de interpolacin de los
resultados aumenta en la medida que se incrementa la amplitud hasta cierto
lmite, dependiendo del tipo de datos.
Palabras Clave: Inteligencia artificial, Calidad, Redes neuronales artificiales,
Mejora de calidad, Diseo de Experimentos, Perceptrn multicapa,
Backpropagation, Redes Neuronales Artificiales de Funcin de Base Radial.

ix

ABSTRACT
In order to overcome the limitations that has the Traditional Statistical
Analysis that applies to the design of experiments, by working with
essentially linear relations, it was developed a methodology that applies
Artificial Neural Network ANN in the designs of experiments; it was
discussed various architectures and found that ANN with Radial Basis
Function were giving the best result; within that had the best performance
were the ANN with Exact Design. Thus was built ANN

"Network

Development" which uses the distance of Mahalanobis, which won the best
results. With the methodology developed, that build Networks RNA direct
and reverse, as well as be able to perform calculations made by the
Traditional Statistical Analysis for design of experiments, you can also
determine the input parameters based on the quality characteristics desired.
Also, there was determined which improves accuracy through optimization
of calculating the distance of input vectors to the centres and that the ability
of interpolation of the results increases in the way that increases the
amplitude up to certain limit, depending the type of data.
Key Words: Artificial inteligence, Quality, Artificial neural networks, Quality
improve, Design of Experiments, Multilayer perceptron, Backpropagation,
Artificial Neural Networks of Function of Radial Basis

SINTESI
Al fine di superare i limiti che ha l'analisi statistica tradizionali che vale per il
disegno di esperimenti, di lavorare con le relazioni essenzialmente lineare,
messo a punto una metodologia che si applica Reti Neurali Artificiali RNA in
Disegni di Esperimenti; discusso varie architetture e rilevato che la RNA di
funzione di Base radiale sono state dando il risultato migliore, nel cui ha
dato loro le migliori prestazioni sono stati i Disegno Preciso. Cos stato
costruito RNA "Rete Sviluppati che utilizza la distanza di Mahalanobis, che
ha ottenuto i migliori risultati. Con la metodologia sviluppata, la compilazione
di reti di RNA diretta e inversa, cos come essere in grado di eseguire calcoli
delle analisi statistiche per il disegno tradizionale di esperimenti, anche
possibile

determinare

parametri

di

entrata

basata

sulla

qualit

caratteristiche desiderato. Inoltre, vi stato quello di determinare che


migliora la precisione mediante l'ottimizzazione del calcolo della distanza di
vettori di entrata

i centri e che la capacit di interpolazione dei risultati

aumenta nella misura in cui aumenta le larghezza in una certa misura, a


seconda il tipo di dati.
Parola chiave: Intelligenza Artificiale, Qualit, Reti Neurali Artificiali, a
migliorare la qualit, il disegno di esperimenti, Perceptron multi layer,
backpropagation, Rete Neurale Funzione Base Radiale.

xi

Introduccin
La mejora de la calidad de procesos en los sectores ms competitivos, en la
actualidad, se da en la calidad de diseo de los procesos (ello incluye el diseo
tanto de productos como de servicios), ello se ha identificado como el
Problema que se quiere trabajar. Problema que implica la determinacin de
los principales parmetros que permitan optimizar los diseos de procesos.
Para ello se requiere trabajar con varias variables dependientes e
independientes, las cules no siempre tienen una relacin lineal. Las
herramientas que en la actualidad se utilizan para determinar dichos
parmetros asumen relaciones lineales, obtenindose niveles de error que no
permiten obtener los resultados esperados.
La Delimitacin del Problema, est en que la determinacin de los
parmetros para la mejora de la calidad de los diseos de procesos se utilizan,
principalmente, los diseos de experimentos, diseos factoriales fraccionales,
los Mtodos Taguchi y las metodologas de superficie de respuesta; que tienen
la limitacin de asumir relaciones lineales entre las variables. Frente a esta
situacin algunos investigadores han empezado a utilizar Redes Neuronales
Artificiales, debido a que tienen la ventaja de no asumir relaciones lineales
entre las variables; pero utilizan Redes que han sido creadas para otros
propsitos distintos al de la mejora de la calidad de diseo de procesos. Esta
situacin lleva a considerar el uso de las RNA en la mejora de la calidad de
diseos de procesos muy escasamente debido a que no se obtendrn todas las
potencialidades propias de las RNA. (Lo antes mencionado se aplica tanto para
productos como para servicios).
La Caracterizacin del Problema, se basa en que se requiere disear un
nuevo tipo de Red Neuronal Artificial que permita su aplicacin ms adecuada
para la determinacin de los parmetros de calidad de diseo de procesos,
superando as las limitaciones que las RNA tienen en la actualidad para la
mejora de la calidad de diseo de procesos (tanto de productos como de
servicios).
Con base a lo antes expuesto se tiene que el Problema General es: Una Red
Neuronal Artificial especfica para la mejora de la calidad de diseo de
procesos, dar mejores resultados que los obtenidos con los anlisis
xii

estadsticos tradicionales para los diseos experimentales y las RNA ya


existentes, para los casos que se trabaje con varias variables dependientes e
independientes y en los que sus relaciones no sean lineales?.
El Objetivo General que se busca es desarrollar una Red Neuronal Artificial
especfica para la mejora de la calidad de diseo de procesos, que d mejores
resultados que los obtenidos con los diseos experimentales y las RNA ya
existentes, para los casos que se trabaje con varias variables dependientes e
independientes y en los que sus relaciones no sean lineales.
La Justificacin e Importancia del trabajo de Investigacin, radica en que la
mejora de la calidad en la actualidad se da tanto dentro como fuera de la lnea
de produccin, pero es fuera de la lnea de produccin donde se obtienen los
resultados ms significativos, en la medida que permite innovaciones y nuevos
desarrollos de productos o procesos. Las diversas tcnicas que se utilizan para
la mejora de la calidad por lo general trabajan con relaciones lineales entre
variables independientes y dependientes, lo cual es una limitacin para la
formulacin y/o diseo de nuevos procesos, productos o servicios. La Redes
Neuronales Artificiales permiten establecer relaciones no lineales entre
variables, lo cual es una ventaja con relacin a otras herramientas que se
utilizan para la mejora de la calidad.
Las Redes Neuronales Artificiales RNA han demostrado ser tcnicas que se
pueden utilizar para determinar relaciones entre variables de entrada y salida,
las mismas que despus permiten predecir salidas con base a valores de las
variables de entrada. Estas caractersticas propias de las RNA se vienen
aplicando en diversas reas del conocimiento, especialmente para trabajos de
comparacin de patrones y clasificacin, pero an es muy poco usual que se
apliquen de manera prctica para resolver problemas de mejora de la calidad.
Esta limitacin se debe a que las RNA se han desarrollado para resolver
problemas distintos a los de mejora de la calidad; por tanto para resolver
problemas de mejora de la calidad se requieren desarrollar RNA adecuadas a
dicho objetivo.
No existen textos sobre mejora de la calidad que consideren el uso de las RNA,
debido a que no existe una metodologa para ello. Prcticamente es mnimo lo
avanzado en esta direccin, ello es la justificacin de la presente investigacin;

xiii

es decir, hay un vaco que requiere ser llenado; lo cual es la razn de ser de la
presente Tesis.
Por otro lado la Importancia del Trabajo de Investigacin, radica en que las
RNA permiten determinar relaciones no lineales entre variables dependientes e
independientes. Con base a lo obtenido en las aplicaciones de RNA en otros
sectores, se considera que la aplicacin de las RNA en los trabajos de mejora
de la calidad de los procesos deben permitir llegar niveles muy superiores de
optimizacin y calidad, que los actuales. Como consecuencia de lo anterior,
este logro tambin debe permitir mejoras importantes en la competitividad y
productividad. La mejora de la competitividad y productividad de las empresas,
en especial en los pases en desarrollo, permitir su supervivencia, ya que en
el mundo globalizado que vivimos la mejora permanente es una condicin para
el xito.
Las limitaciones del Trabajo de Investigacin, radica en que las tcnicas de
mejora de la calidad de diseo de los procesos consideradas en el presente
plan son las ms importantes; sin embargo, pueden ser ms dependiendo del
tipo de producto o servicio de que se trate. Constantemente se vienen
desarrollando aportes sobre nuevas tcnicas para la mejora de la calidad,
mejoras de aplicacin de las existentes, combinacin de las mismas; sin
embargo, las seleccionadas para la realizacin del presente trabajo se
consideran que son las ms importantes.
La Hiptesis General, que se propone es que se puede desarrollar una Red
Neuronal Artificial especfica para la mejora de la calidad de diseo de
procesos, que aplicada a los diseos de experimentos d mejores resultados
que los obtenidos con los anlisis estadsticos tradicionales y las RNA ya
existentes, para los casos que se trabaje con varias variables dependientes e
independientes y en los que sus relaciones no sean lineales.
En el Captulo I se presenta el Marco de Referencia, donde los antecedentes
bibliogrficos sobre la materia, tratan tanto de temas de calidad como de redes
neuronales artificiales. Asimismo, se presenta el Marco Terico, donde se
consideran catorce grandes temas sobre el asunto de la investigacin,
destacando el tema referido a los principales tipos de Redes Neuronales
Artificiales; es as que se presentan las Redes tipo Perceptrn, Adaline,
Perceptrn Multicapa, Redes de Base Radial, Redes Recurrentes y Redes de
xiv

Aprendizaje no Supervisado. Tambin se presenta el Marco Conceptual en


este Captulo, donde se establecen diez conceptos fundamentales. En el Marco
Filosfico, se presentan los pensamientos de los filsofos ms reconocidos de
la antigedad y actuales relacionados con la inteligencia artificial; por otro lado
en el Marco Epistemolgico, se presentan las propuestas de los epistemlogos
ms reconocidos de la actualidad como son Toms Kuhn, Karl Popper e Imre
Lakatos, los cuales nos han orientado en el desarrollo del presente trabajo.
En el Captulo II se presenta el Planteamiento Metodolgico que contienen el
Enunciado del Problema; los Objetivos; la Hiptesis, variables e indicadores
donde se puede apreciar nuestra hiptesis que apuesta a que se puede
obtener mejores resultados en la tarea de mejora de la calidad con diseo de
experimentos utilizando las RNA que con los mtodos de anlisis estadsticos
tradicionales. Asimismo, se presenta la metodologa empleada, la cual se
caracteriz por haber desarrollado una nueva Red Neuronal de Funcin de
Base Radial que se aplic a siete casos tipo de diseo de experimentos de
destacados autores que aparecen en la bibliografa sobre mejora de la calidad
con diseo de experimentos. Se compar los resultados obtenidos con los
mtodos tradicionales y los obtenidos con la nueva Red desarrollada y as
fuimos aproximndonos a nuestro objetivo de manera progresiva.
En el Captulo III, se presentan los trabajos relacionados con la obtencin de
una Red Neuronal Artificial para la mejora de la calidad y su aplicacin, en
primer trmino se seleccionaron dos tipos de redes del total, luego de las dos
se seleccion un tipo de red; y con base a ello se construyo una Red
especfica, la misma que se aplic a los siete casos seleccionados, llegndose
a conclusiones sobre los mejores resultados que se obtuvieron.
En el Captulo IV, se presentan los resultados obtenidos con base a lo
desarrollado en el captulo III; y en el Captulo V se presenta la discusin
realizada con base a los resultados del captulo IV y lo desarrollado en el
captulo III, siguiendo el criterio de tratar cada uno de los elementos de las
redes y discutiendo como lograr el mejor desempeo.

xv

CAPTULO I
MARCO DE REFERENCIA
1.1. Antecedentes Bibliogrficos del Problema
CEVALLOS, Juan (2004), en su artculo Aplicacin de Redes Neuronales
para Optimizar Problemas Multirespuesta en Mejora de la Calidad, publicado
en Industrial Data, Volumen 7 N 2; desarrolla una aplicacin de redes
neuronales en problemas multirespuesta para el mejoramiento de la calidad, a
partir de un anlisis conceptual se establece una aplicacin que demuestra la
eficacia de las redes neuronales utilizando el perceptrn multicapa con el
algoritmo backpropagation.
En este trabajo no se utiliza una red neuronal artificial que sea especfica para
mejora de la calidad.
LAWSON, John; MADRIGAL, Jos y ERJAVEC, John, (1992) en su texto
Estrategias experimentales para el mejoramiento de la calidad en la
industria, sostiene que La competencia en el mundo de los negocios est
obligando a las corporaciones industriales a encontrar nuevas formas de
incrementar su eficiencia, especialmente en el proceso de fabricacin y en el
desarrollo de nuevos procesos y productos. Estos ltimos incluyen: pruebas
de prototipo, desarrollo de nuevos componentes y diseo de sistemas,
eleccin de materia prima y determinacin de lmites de tolerancia. Debido a
que generalmente, no se tienen relaciones determinsticas para resolver estos
problemas, las investigaciones industriales o tcnicas, se llevan a cabo
usando mtodos de ensayo y error y/o experimentacin. Es as que se
presentan estrategias sobre los siguientes temas: estrategias experimentales y
diseos factoriales, diseos de diagnstico y factoriales fraccionados,
superficie de respuesta, experimentos con mezclas y anlisis de variancia.
BESTERFIELD, D. (1995) en su texto Control de Calidad, trata de manera
especial sobre las tcnicas de Grficas de control de variables y por atributos;
y Muestreo de aceptacin. Lo cual es fundamental para el control estadstico
de la calidad tradicional.
MONTGOMERY, Douglas (2004), en su texto Diseo y anlisis de
experimentos, en el prefacio indica El presente libro es un texto de
introduccin que aborda el diseo y anlisis de experimentos.

... Refleja

asimismo, los mtodos que he encontrado tiles en mi propia prctica


profesional como consultor en ingeniera y estadstica en las reas generales
de diseo de productos y procesos, mejoramiento de procesos e ingeniera de
control de calidad. En dicho libro se presentan los temas : Experimentos
comparativos simples; Experimentos con un solo factor: el anlisis de
varianza; Bloques aleatorizados, cuadrado latinos y diseos relacionados;
Diseos factoriales; Diseos factoriales fraccionados; Mtodos de superficies
de respuesta y otros enfoques para la optimizacin de procesos (incluye
operacin evolutiva y diseo robusto); Experimentos con factores aleatorios;
Diseos anidados y en parcelas subdivididas; Otros tpicos de diseo y
anlisis.
BARBA, Enric; BOIX, Francese y CUATRECASAS, Llus (2001), en su texto
Seis Sigma. Una iniciativa de Calidad Total; sostiene entre otros lo siguiente:
A principios de los ochenta, las empresas an medan su calidad en
porcentajes, por lo general el nmero de defectos detectados en cien piezas.
Sin embargo, en muchas industrias el nivel de defectos haba mejorado tanto
como para permitir compatibilizarlo ya no en porcentajes, sino en defectos por
milln de piezas. Las empresas que persiguen la mejora continua basada en
la filosofa Seis Sigma logran no slo reducir el nivel de defectos, sino
tambin:
-

Reducir costes a travs de la eliminacin de errores internos.

Reducir el tiempo de proceso.

Incrementar su productividad.

Mejorar la calidad en el proceso de desarrollo y lanzamiento de nuevos

productos.
-

Mejorar el nivel de resultados de los procesos de soporte.

Asimismo, en la Introduccin sostiene: ... y en los sucesivos captulos se


describen las herramientas bsicas de mejora de Seis Sigma, dedicndose un
estudio ms profundo a aquellos que consideramos ms importantes: el AMFE
(Anlisis del Modo de Fallos y Efectos), que se presenta en el captulo 3, el
CEP (Control Estadstico de Procesos) o SPC ( Statistical Process Control) al
que se dedica el captulo 4, y el DDE (Diseo de Experimentos), que se trata
en el captulo 5, ... Luego en el captulo 5 se sostiene: La herramienta menos

conocida por lo general pero la ms efectiva de la iniciativa Seis Sigma es el


Diseo de Experimentos (DDE) o usando sus siglas en ingls el DOE (Design
of Experiments).
TAGUCHI, Genichi (1990), en su texto Introduction to Quality Engineering.
Designing Quality into Products and Proceses, sostiene cuando la etapa
de produccin es alcanzada, ni las medidas de dentro de la lnea ni las de
fuera de la lnea son efectivas para combatir los ruidos internos y externos.
Este es el porqu los problemas de calidad involucrados como ruidos internos
y externos son llamados problemas de calidad de diseo. Esto es
extremadamente importante para recordar que un buen diseo de producto
puede resolver no slo problemas de calidad de diseo sino que tambin
problemas de calidad de produccin. ... Investigacin y desarrollo es la clave
para ambos la calidad de diseo y la calidad de produccin,...
ROSS, Philip (1988), en su texto Taguchi Techniques for Quality
Engineering, sostiene que Taguchi considera la calidad en dos reas
principales: control de calidad fuera de la lnea y en la lnea. .. El control de
calidad fuera de la lnea se refiere a la mejora de la calidad en las etapas de
desarrollo del producto y proceso.; ... La parte del control de calidad fuera de
la lnea es tratada en este texto por la escasez de materiales sobre esta fase
de los Mtodos Taguchi y el impacto positivo que tienen sobre el costo, que es
obtenido mediante la mejora de calidad en estas etapas tempranas del ciclo
de vida de un producto.
KUEHL, Robert, (2001) en su texto

Diseo de Experimentos, en un

subcaptulo sobre Genichi Taguchi y la mejora de la calidad sostiene Los


diseo factoriales fraccionados se usan en forma amplia en experimentos
fuera de la lnea para mejorar la calidad del producto. Las investigaciones
fuera de la lnea integran los principios de diseo de ingeniera y de diseo
estadstico para mejorar la calidad de productos e incrementar la
productividad. En particular, la metodologa de Taguchi (Taguchi, 1986) ha
tenido un impacto importante sobre el mejoramiento del diseo de productos y
procesos en la manufactura.
PRAT, Albert, TORT MARTORELL, Xavier, GRIMA, Pere y POZUETA,
Lourdes (2000), en su texto Mtodos Estadsticos. Control y mejora de la

calidad, destaca que la evolucin del control de la calidad ha ido desde la


inspeccin, luego el control estadstico de procesos CEP y por ltimo a la
calidad en la etapa de diseo. Al respecto menciona la importancia del diseo
de experimentos para la mejora de la etapa de diseo. Asimismo, trata sobre
comparacin de dos tratamientos,

ANVA Anlisis de Variancia, Diseos

Factoriales, Metodologa de superficie de respuesta, Diseo de productos


robustos y Control estadstico de procesos.
SCHEEL, Carlos (2001), en su texto Modelacin de la Dinmica de
Ecosistemas presenta el mejoramiento de la calidad, mediante el uso de los
arquetipos desarrollados por Peter Senge, en donde se puede ver la
aplicacin del enfoque de sistemas a la mejora de la calidad.
CEVALLOS, Juan (2000) en su Tesis de Maestra Aplicacin de los Mtodos
Taguchi a la mejora de la calidad en la pequea y microempresa, desarrolla
una metodologa de aplicacin de los mtodos Taguchi fuera de la lnea a las
PYME.
NILSSON, N.(2001), en su texto Inteligencia Artificial trata sobre los
principales campos de la Inteligencia Artificial y dentro de ellos considera a las
redes neuronales. Asimismo, considera sistemas reactivos, bsqueda en
espacios de estado, representacin del conocimiento y razonamiento,
mtodos de planificacin basados en lgica y comunicacin e integracin.
RUSSELL, S y NORVIG, P. (1996), en su texto Inteligencia Artificial trata
sobre las reas de la inteligencia artificial, considera redes neuronales, y
adems,

procedimientos para la solucin de problemas; conocimiento y

razonamiento; como actuar en forma lgica; conocimiento incierto y


razonamiento; aprendizaje; y comunicacin, percepcin y actuacin.
KENETT, R. Y ZACKS, S. (2000), en su texto Estadstica Industrial
Moderna. Diseo y control de la calidad y confiabilidad, destacan la
importancia de la estadstica en los temas de calidad y tratan los temas de
variabilidad, probabilidad, muestreo, inferencia, regresin lineal mltiple,
muestreo para inspeccin, control estadstico del proceso, diseo y anlisis
de experimentos, calidad por diseo y anlisis de confiabilidad. Resaltan la
importancia de la calidad por diseo.

MARTIN DEL BRIO, Bonifacio, SANZ MOLINA Alfredo (2002), en su texto


Redes Neuronales y Sistemas Difusos en el captulo sobre aplicaciones de
las redes neuronales artificiales presenta un listado donde se considera las
siguientes reas:
Redes neuronales lineales: telecomunicaciones y anulacin de ruido y
vibraciones.
Clasificacin de patrones: fraudes con tarjetas de crdito, reconocimiento de
caracteres impresos OCR, reconocimiento del habla, control de calidad
(deteccin de niveles de contaminantes, clasificacin de anomalas en
altavoces, evaluacin del grado de pureza de zumo de naranja y evaluacin
de ruido de radiocassetes de automvil), deteccin de sucesos en
aceleradores de partculas, prospecciones petrolferas, lucha contra el trfico
las drogas y aplicaciones mdicas.
Prediccin y anlisis financiero: Concesin de prstamos, anlisis de mercado,
reservas de vuelos.
Control y optimizacin: Control industrial, Fabricacin de celulosa y papel,
hornos de fundiciones, industria de semiconductores, control de procesos
qumicos, refinera de petrleo.
Aplicaciones militares: guiado automtico de misiles, combate areo.
Otras aplicaciones. Prediccin, mquinas fotocopiadoras, fallos de motores
elctricos, conducir camiones, automocin, aplicaciones biomdicas, sntesis
de nuevos medicamentos.
Asimismo, plantean la existencia de los siguientes tipos de Redes Neuronales:
Redes Neuronales Supervisadas: perceptrn simple, Adalina, perceptrn
multicapa, el aprendizaje hebbiano y backpropagation.
Redes Autoorganizadas: Modelos neuronales no supervisados, modelos de
mapas autoorganizados de Kohonen,
Otros Modelos de Redes Neuronales: Redes neuronales realimentadas,
modelo de Hopfield, neuronas estocsticas mquina de Boltzman, funciones
de base radial y LVQ Learning Vector Quantization.
En este texto no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.

HILERA Jos y MARTINEZ Vctor. (2000), en su texto Redes Neuronales


Artificiales., sobre aplicaciones de las redes neuronales plantean las
siguientes

reas:

reconocimiento

de

patrones,

bases

de

datos

de

conocimiento para informacin estocstica, control de robots, filtrado de


seales; segmentacin, compresin y fusin de datos; interfaces adaptativas
para sistemas hombre/ mquina. Con relacin a los tipos de neuronas se
plantean:
Redes Neuronales con conexiones hacia adelante: perceptrn, perceptrn
multibnivel, Adaline y Madaline, Backpropagation, Modelo de Hopfield,
Modelos de resonancia adaptativa ART, Modelo de Kohonen.
En este texto no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
HAGAN, Martn T., DEMUTH, Howard B., BEALE, Mark. (1996), en su texto
Neural Network Design, plantean las siguientes aplicaciones de Redes
Neuronales: Aeroespacial (pilotos automticos de aviones), automotriz
(sistemas de gua automtica de automviles), banca (lectura de cheques y
otros documentos y evaluaciones de solicitudes de crditos), defensa
(conduccin de armas), electrnica (prediccin de secuencia de cdigos),
entretenimiento (animacin), finanzas (anlisis de uso de lneas de crditos),
seguros (evaluacin de solicitudes), manufactura ( control de procesos de
manufactura, anlisis y diseo de productos), medicina (anlisis de clulas
cancergenas del seno, mejora de la calidad hospitalaria), petrleo y gas
(exploracin), robtica (control de trayectoria), reconocimiento del habla,
seguridad (anlisis de mercados), telecomunicaciones (compresin de datos e
imgenes, traduccin en tiempo real de lenguaje hablado), transporte
(sistemas de diagnstico de frenos de camiones), entre otros.
Entre los tipos de Redes Neuronales trata: Perceptrn, Hamming, Hopfield,
Aprendizaje

Hebbiano

supervisado,

Adaline,

backpropagation

sus

variaciones, redes de aprendizaje asociativo, redes competitivas, Mapas


autoorganizados, Redes de Grossberg, Redes ART de resonancia adaptativa,
entre otras.
En este texto no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.

ISASI, Pedro y GALVAN, Ins (2004) en su texto Redes de Neuronas


Artificiales,

presentan

los

siguientes modelos

de

redes neuronales:

perceptrn, adaline, perceptrn multicapa, redes de base radial, redes


recurrentes (Red de Hopfield), redes de aprendizaje supervisado ( Mapas
auotoorganizados de Kohonen), y de resonancia adaptativa ART, redes de
series temporales, redes de control de procesos dinmicos, redes de
clasificacin (redes de cuantizacin vectorial).
Con relacin al diseo de la arquitectura del perceptrn multicapa sostiene:
En lo que respecta al nmero de neuronas y capas, algunos de estos
parmetros vienen dados por el problema y otros deben ser elegidos por el
diseador. As, por ejemplo, tanto el nmero de neuronas en la capa de
entrada, como el nmero de neuronas en la capa de salida, vienen dados por
las variables que definen el problema. En algunas aplicaciones prcticas, no
hay lugar a duda sobre el nmero de entradas y salidas. Sin embargo existen
problemas en los que el nmero de variables de entrada relevantes para el
problema no se conoce con exactitud. En estos casos, se dispone de un gran
nmero de variables, algunas de la cuales podran no aportar informacin
relevante a la red, y su utilizacin podra complicar el aprendizaje, pues
implicara arquitecturas de gran tamao y con alta conectividad. En estas
situaciones es conveniente realizar un anlisis previo de las variables de
entrada ms relevantes al problema y descartar aquellas que no aportan
informacin a la red. Este puede llegar a ser una tarea complicada y requerir
tcnicas avanzadas, como tcnicas basadas en anlisis de correlacin,
anlisis de componentes principales, anlisis de sensibilidad de redes de
neuronas y tcnicas basadas en algoritmos genticos, entre otras.
De manera similar cuando trata sobre el diseo de la arquitectura de redes de
base radial sostiene: El nmero de entradas y salidas en una red de base
radial viene dado por el nmero de variables que definen el problema. Como
ocurra cuando se utilizaba el perceptrn multicapa, en algunas aplicaciones
no hay lugar a duda sobre dichas variables. Sin embargo, existen aplicaciones
en las que pudiera ser necesario llevar a cabo un anlisis de las variables ms
relevantes y significativas que definen el problema.

En este texto no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
MONTAO, Juan. (2002), es su Tesis Doctoral Redes Neuronales Artificiales
aplicadas al Anlisis de Datos, se presenta al siguiente clasificacin de Redes
Neuronales Artificiales ms conocidas:
1. Supervisado
1. Con conexiones feedforward
-

Lineales:

Perceptrn (Rosenblatt, 1958)

Adaline (Widrow y Hoff,1960)

Perceptrn multicapa (Multilayer perceptron) (MLP)

Backpropagation (Rumelhart, Hinton y Williamns, 1986)

Correlacin en cascada (Fahlman y Lebiere, 1990)

Quickpropagation (Fahlman, 1988)

Delta bar delta (Jacobs, 1988)

Resilient Propagation (Riedmiller y Braun, 1993)

Gradiente conjugado (Battiti, 1992)

Radial Basis Function RBF (Bromead y Lowe, 1988)

Orthogonal Least Squares (Chen, Cowan y Grant, 1991)

Cerebellar Artculation Controller (CMAC) (Albus, 1975)

Slo clasificacin :

General Regression Neural Network (GRNN) (Specht, 1991)

Red Neuronal Probabilstica (PNN) (Specht,1990)

Slo regresin:

General Regresin Neural Network (GRNN) (Specht, 1991)

2. Con conexiones feedback


-

Bidirectional Associative Memory (BAM) (Kosko, 1992)

Mquina de Boltzman (Ackley, Hinton y Sejnowski, 1985)

Series temporales recurrentes


-

Backpropagation through time (Werbos, 1990)

Elman (Elman, 1990)

Finite Impulse Response (FIR) (Wan, 1990)

Jordan (Jordan, 1986)

Real-time recurrent network (Williams y Zipser, 1989)

Recurrent backpropagation (Pineda, 1989)

Time Delay NN (TDNN) (Lang, Waibel y Hinton, 1990)

3. Competitivo
-

ARTMAP (Carpeter, Grossberg y Reynold, 1991)

Fuzzy ARTMAP (Carpenter, Grossberg, Markuzon, Reynolds y


Rosen, 1992)

Gaussian ARTMAP (Williamson, 1995)

Counterpropagation (Hecht-Nielsen 1987, 1988, 1990)

Neocognitrn (Fukushima, Miyake e Ito, 1983; Fukushima, 1988)

2 No supervisado
1. Competitivo
-

Vector Quantization.

Grossberg (Grossberg, 1976)

Comen (Kohonen, 1984)

Consciente (Disieno, 1988)

Mapa Auto-Organizado (Self-Organizing Map) (Kohonen, 1982, 1995)

Teora de la Resonancia Adaptativa (Adaptive Resonante Theory, ART)

ART 1 (Carpenter y Grossberg, 1987)

ART 2 (Carpenter y Grossberg, 1987b)

ART 2-A (Carpenter, Grossberg y Rosen, 1991a)

ART 3 (Carpenter y Grossberg, 1990)

Fuzzy ART (Carpenter, Grossberg y Rosen, 1991b)

Differential Competitive Learning (DCL) (Kosko, 1992)

2. Reduccin de dimensionalidad
-

Regla de Oja (Oja, 1989)

Sanger (Sanger, 1989)

Differential hebbian (Kosko, 1992)

3. Autoasociacin
-

Autoasociador lineal (Anderson, Silverstein, Ritz y Jones, 1977)

Brain-State-in-a-Box (BSB) (Anderson, Silverstein, Ritz y Jone,


1977)

Red de Hopfield (1982)

ARAGON, Alberto. (2002) Tesis Doctoral Mtodos Evolutivos para el


aprendizaje de Redes Neuronales, plantea como principales modelos de
redes neuronales relacionados con los mtodos evolutivos los siguientes:
-

Perceptrn

Redes de Propagacin hacia atrs.

Memoria asociativa BAM

Mquina de Boltzmann

Mapas autoorganizativos

Redes de Expansin.

Con respecto a las reas de aplicacin se plantea que las RN tratan de


resolver de forma eficiente problemas que pueden encuadrarse dentro de tres
amplios grupos: optimizacin, reconocimiento y generalizacin. Estos tres
tipos engloban un elevado nmero de situaciones, lo que hace que el campo
de aplicacin de las redes neuronales en la gestin empresarial sea muy
amplio.
En esta Tesis no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
HAYKIN, Simon, (1994), en su texto Neural Networks, sostiene que una
red neuronal es una tcnica poderosa de computacin, primero por que es una
estructura distribuida de forma paralela y masiva; y segundo, por su habilidad
para aprender y por lo tanto generalizar; la generalizacin se refiere a que la
red neuronal produce razonables salidas para entradas no encontradas
durante

el

entrenamiento

(aprendizaje).

Estas

dos

capacidades

de

procesamiento de informacin hacen posible que las redes neuronales


resuelvan

problemas

complejos

que

son

corrientemente

insolubles.

Asimismo, sostiene que el uso de las redes neuronales ofrece las siguientes
propiedades y capacidades tiles: No linealidad; Mapeos Input Output;
Adaptabilidad; Respuesta a evidencias; Informacin contextual; Tolerancia a
las fallas; implementabilidad de tecnologa VLSI (very large scale integrated)
integrada a escala muy grande, uniformidad de anlisis y diseo, Analoga
neurobiolgica. Como parte de la introduccin afirma que se pueden identificar
cuatro diferentes clases de arquitecturas de redes: redes monocapa hacia

10

adelante; redes multicapa hacia adelante; redes recurrentes; y estructuras


latices (lattice).
En este texto no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
KAUFMANN, Arnold y GIL ALUJA, Jaime, (1995) en su texto Grafos
Neuronales para la Economa y la Gestin de Empresas , plantean que la ley
de Hebb formulada a partir de observaciones y medidas en neurobiologa, ha
sido adoptada por casi la totalidad de investigadores en neuromimtica

utilizada en casi todos los modelos de neuronas artificiales. No solamente no


la hemos relegado al silencio sino que le hemos prestado la importancia que
creemos merece. El ajuste de los principales parmetros, necesario para
conseguir un resultado especificado a la salida o en ciertas neuronas de la red
artificial, constituye un elemento fundamental. En general, se acta sobre los
pesos de las conexiones (arcos del grafo).

Al incidir en estos pesos, se

modifican los potenciales para que a la salida de las neuronas se disponga de


un potencial previamente elegido o adaptado. Se puede actuar, tambin, en
los umbrales, lo que ya no se realiza tan frecuentemente. En el fondo, los
ajustes de los pesos hacen pensar en los ajustes que tienen lugar en las
resistencias, en las redes de Kirchoff, pero el peso se parecera ms una
conductancia (inversa a una resistencia) aunque en una red de neuronas
artificiales esta conductancia carezca de la dimensin que posee, en las
ecuaciones de dimensiones de la fsica.
En este texto no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
FREEMAN, James A., SKAPURA, David M., (1993) en su texto Redes
Neuronales. Algoritmos, Aplicaciones y Tcnicas de Programacin presentan
las siguientes redes neuronales:

Adaline y Madaline

Propagacin hacia atrs

El Bam y la memoria de Hopfield

Temple (annealing) simulado. Entre las redes tratadas se cuentan la


terminacin de Boltzmann y las redes de entrada-salida.

La red de contrapropagacin

11

Mapas autoorganizativos. Contiene el mapa de topologa mantenida de


Kohonen y el clasificador de mapa de caractersticas.

Teora de la resonancia adaptativa.

Entre las redes descritas se

cuentan ART1 y ART2,

Clasificacin espacio-temporal de tramas.

Describe la red espacio-

temporal de Hecht-Nielsen.

El neocognitrn.

En este texto no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
COX, M. (2005), en su Artculo A Neural Netwok Method for Modelling the
Parameters of a CUSUM Chart. Quality Engineering 17; 197-205. 2005;
sostiene que la Grfica de Sumas Acumuladas CUSUM (Cumulative Sum
Charts) es ampliamente empleada en control de calidad para monitorear un
proceso o para evaluar datos histricos. Las grficas CUSUM estn diseadas
para exhibir promedios aceptables de longitud de corrida tanto cuando el
control es dentro o fuera del proceso. En su investigacin introduce una
tcnica funcional para generar los parmetros h y k para una grfica que
tendr un promedio de longitud de corrida especificado. Se emplea el mtodo
de redes neuronales artificiales para derivar los coeficientes apropiados. Se
utiliza la hoja de clculo EXCEL para los clculos de los parmetros.
En este Artculo no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
ZORRIASSATINE, f.y TANNOCK, D. (1998) en su Artculo A review of neural
networks for statistical process control, desarrolla este trabajo para evaluar la
literatura existente sobre la aplicacin de las redes neuronales para el anlisis
de las grficas tradicionales de Shewart de control estadstico de procesos.
Luego de su estudio da recomendaciones sobre la aplicacin, sin embargo,
sostiene que todava no se ha podido desarrollar una metodologa de redes
neuronales equivalente a las tradicionales grficas de Shewart, aunque afirma
que el conocimiento en esta rea est aumentando.
En este Artculo no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.

12

LEGER, R., GARLAND, W. y POEHLMAN, W. (1998), en su Artculo Fault


detection and diagnosis using statistical control charts and artificial neural
networks, examina la factibilidad de usar grficas de control CUSUM de
sumas acumuladas y redes neuronales artificiales juntas para detectar y
diagnosticar fallas. La estrategia propuesta fue evaluada en un modelo de
sistema de transferencia de calor de un reactor nuclear CANDU ( "CANad
Deuterio Uranio). Los resultados de la investigacin indican que un sistema

FDD (fault detection and diagnosis ) usando grficas de control CUSUM y una
red neuronal de funcin bsica radial RBF (radial basis function) no slo es
factible sino que tiene un promisorio potencial frente a los mtodos
tradicionales.
En este Artculo no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
LAM, S., PETRI, L. y SMITH, A. (2000) en su Artculo Prediction and
optimization of a ceramic casting process using a hierarchical hybrid system of
neural networks anf fuzzy logic, es una investigacin que describe un sistema
hbrido que integra lgica difusa, redes neuronales y optimizacin algortmica
para usarlo en la industria cermica. Un mdulo de prediccin estima dos
mtricas de piezas de fundicin deslizante (slip-cast) a travs de la ejecucin
de dos redes neuronales. Un algoritmo de mejora de procesos optimiza los
valores de un proceso controlable usando el mdulo de prediccin de la red
neuronal en la funcin objetivo. Un mdulo de sistema experto contiene una
jerarqua de dos reglas bsicas de lgica difusa. Las reglas bsicas prescriben
el tiempo de proceso adecuado a lneas de produccin individual dados
condiciones ambientales, caractersticas de molde y la prediccin de la red
neuronal. Este trabajo demuestra la aplicabilidad de nuevas tcnicas
computacionales para un proceso de manufactura tradicional y el sistema ha
sido implementado en una planta importante en EEUU.
En este Artculo no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
NASEREDDIN, M. y

MOLLAGHASEMI, M. (1999.), en su Artculo The

development of a methodology for the use of neural networks and simulation


modeling in systems design, en este trabajo es explorado el uso

de

13

metamodelos para aproximar la reversa de modelos de simulacin. El objetivo


del enfoque es obtener el opuesto de lo que un modelo de simulacin puede
hacer. Esto es, que dado un conjunto de medidas de desempeo deseadas, el
meta modelo saca un diseo para cumplir con las metas de la gestin. El
desempeo de varios meta modelos simulados con redes neuronales fueron
comparadas al desempeo de un meta modelo de regresin escalonado, en
trminos de exactitud. Se encontr que en la mayora de los casos, que los
metamodelos de redes neuronales superan a los metamodelos de regresin.
Tambin se encontr que un mdulo de red neuronal tiene el mejor
desempeo en trminos de minimizar el error de prediccin.
En este Artculo no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
HSIEH, K. Y Tong, L., (2000) en su Artculo Parameter Optimization for
Quality Response with Linguistic Ordered Category by employing Artificial
Neural Networks: A Case Study, demuestran la efectividad de utilizar redes
neuronales para optimizar parmetros de calidad cualitativos. Al respecto
sostienen que la solucin de estos problemas con redes neuronales es ms
fcil que con enfoques estadsticos como los diseos experimentales.
En este Artculo no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.
KONAK, A, KULTUREL KONAK, S, SMITH, A y NETTLESHIP, I (2003) en
su Artculo Estimation of shrinkage for near net-shape using a neural network
approach demuestran las ventajas del uso de redes neuronales frente a los
modelos de regresin no lineal para predecir la reduccin de tamao en los
procesos HIP de calentamiento con presin isosttica para superaleaciones
basadas en nquel para manufactura de piezas cuyas dimensiones deben ser
conseguidas con exactitud. El resultado permite establecer los parmetros de
temperatura y presin para un mejor desempeo.
En este Artculo no se menciona que exista una red neuronal artificial que sea
especfica para mejora de la calidad.

14

1.2. Marco Terico


Sobre el concepto de calidad:
La calidad es el conjunto de caractersticas que tienen un producto o servicios
que permiten satisfacer a los clientes. En trminos prcticos ello implica
cumplir con las especificaciones establecidas en el diseo para satisfacer las
necesidades de los clientes. Se dice que un producto o servicio de buena
calidad cuando satisface las necesidades de los clientes, cuanto ms satisface
a los clientes se entiende que es de mejor calidad.
Con relacin al concepto de calidad se cuenta con varios autores reconocidos
a nivel internacional que han desarrollado aportes muy importantes, al
respecto se presentan los aportes de

Ishikawa, Deming, Crosby, Juran y

Feigenbaum.
ISHIKAWA, 1986, sostiene que calidad es satisfacer los requerimientos del
cliente, que cumplir las normas es insuficiente. Indica que en el sentido
estrecho calidad significa la calidad del producto, pero en el sentido amplio,
significa calidad del trabajo, del servicio, de informacin, del proceso, de la
divisin, del personal, del sistema, de la empresa, de los objetivos, etc. calidad
total. Introduce el concepto de control total de calidad CTC, estilo japons, que
plantea que todas las divisiones y todos los empelados deben participar en el
estudio y la promocin del control de calidad. Con relacin a los mtodos
estadsticos plantea el uso de los mtodos estadsticos elementales,
intermedios y avanzados. En el nivel intermedio considera a los mtodos de
disear experimentos; y en el nivel avanzado incluye los mtodos avanzados
de disear experimentos, anlisis de multivariables y diversos mtodos de
investigacin de operaciones.

Con relacin a los mtodos estadsticos

avanzados sostiene que slo muy pocos ingenieros y tcnicos se adiestrarn


en los mtodos estadsticos avanzados, a fin de emplearse en anlisis de
procesos y de calidad muy complejos. Estos mtodos avanzados, sostiene,
han venido a ser la base de una alta tecnologa y tambin de la exportacin de
tecnologa. Afirma, que en el Japn, el empleo de los mtodos estadsticos
intermedios y avanzados ha llegado a ser muy alto, y que esto tambin ha
ayudado a levantar el nivel de la industria japonesa.

15

El concepto de calidad, considerando su dimensin e importancia tanto en la


cultura occidental y oriental, es tratado de manera especial por el Dr. Ishikawa
en su texto Qu es el Control Total de Calidad? La modalidad japonesa; al
respecto sostiene que las diferencias entre las actividades de calidad
japonesas y las de occidente son muchas debido a las caractersticas
socioculturales.
Tabla 1. Aportes de Ishiwawa

APORTES DE ISHIKAWA
CONTROL TOTAL DE CALIDAD

CRCULOS DE CALIDAD

DIAGRAMA DE ISHIKAWA

CALIDAD LA DA EL CLIENTE

DEMING, 1989, sostiene que calidad es el grado predecible de uniformidad y


fiabilidad a bajo costo y adecuado a las necesidades del mercado. Asimismo,
plantea que existe una relacin directa entre calidad y productividad. Frente a
la situacin de las empresas americanas, a mediados de la dcada del 80,
propone los 14 principios parea salir de la crisis, que se sintetizan en Crear
constancia de propsito para la mejora de productos y servicios y Adoptar una
nueva filosofa.
Asimismo, propone el crculo o ciclo de mejora: Planear, Hacer, Verificar,
Actuar, conocido como Ciclo de Deming. Ver Figura 1.

ACTUAR

PLANEAR

VERIFICAR

HACER

Figura 1. Ciclo de Deming

CROSBY, 1987, sostiene que calidad es conformidad con los requerimientos.


Los requerimientos deben ser claramente establecidos. Deben tomarse
mediciones continuamente para determinar la conformidad con dichos

16

requerimientos. La no conformidad detectada es ausencia de calidad.


Introduce los conceptos de cero defectos y que la calidad no cuesta.
JURAN, 1989, sostiene que calidad es aptitud para el uso. Pero que tiene
diversos significados. Sus dos significados principales:
A. Consiste de aquellas caractersticas del producto que cumplen las
necesidades del cliente y por lo tanto proveen un producto satisfactorio.
B. Consiste en libre de defectos.
FEIGENBAUM, (1994) sostiene que calidad es aptitud para el uso. Pero,
indica, que tiene diversos significados, sus dos significados principales son:
A. Consiste de aquellas caractersticas del producto que cumplen las
necesidades del cliente y por lo tanto proveen un producto satisfactorio.
B. Consiste en libre de defectos
KENNET (2000) sostiene que en la actualidad se considera que la calidad es
la nueva arma competitiva. La calidad no se obtiene por arte de magia sino
que se debe trabajar conscientemente para conseguirla como se desea. La
evolucin histrica del concepto de control de calidad, ha pasado por las
etapas de inspeccin, control de procesos y calidad del diseo. Para lograr
sta ltima se requiere la utilizacin de herramientas como el diseo de
experimentos,

diseos

factoriales

fraccionales,

mtodos

Taguchi

metodologa de superficie de respuesta, entre otros.


Tabla 2. Etapas de la calidad.

ETAPAS DE LA CALIDAD
INSPECCIN

CONTROL DE

CALIDAD DEL

PROCESOS

DISEO

En la actualidad se sostiene que la calidad es una virtud del diseo y que la


satisfaccin del cliente resulta de la calidad del diseo y la calidad de la
realizacin del diseo. En aos recientes se ha introducido el concepto de
diseo robusto lo cual implica que el diseo se realiza teniendo en cuenta los
problemas que tendr el cliente durante el uso del producto y que se deben
establecer los parmetros de diseo adecuados que reduzcan los problemas
al cliente durante el uso del producto. Esto es un cambio importante en el
campo de la calidad ya que de un trabajo principalmente sobre lo que ocurre

17

en la planta se pasa a considerar de manera preponderante lo que pasa con el


cliente durante el uso del producto.
Justamente la trascendencia que tiene en la actualidad la calidad del diseo,
lleva a la necesidad de usar nuevas herramientas, entre las que destacan el
diseo de experimentos, los diseos factoriales fraccionales, los mtodos
Taguchi y las metodologas de superficie de respuesta, que se tratan a
continuacin.
Sobre las Herramientas para la mejora de la calidad de diseo.
Sobre diseo de experimentos (DDE) y la mejora de la calidad. (KENNET, R. y
ZACKS, S. , 2000; PRAT, A., TORT MARTORELL, X., GRIMA, P. y POZUETA, L.,
1999; TAGUCHI, G., 1990; LAWSON, J. ,MADRIGAL, J. y ERJAVEC, J.,1992).

Sostienen que aplicar el DDE en una empresa en la actualidad puede resultar


una ventaja competitiva para las empresas que quieren minimizar la
variabilidad de sus productos y procesos. La adquisicin de nuevo
conocimiento requiere, por lo general, que ocurra un fenmeno distinto de lo
habitual en presencia de un experto capaz de extraer conclusiones tras
reflexionar sobre l. Mediante la experimentacin se intenta reproducir
artificialmente ambas circunstancias. En el mundo actual las empresas que
sean capaces de aprender mediante la experimentacin gozarn de una
ventaja competitiva clara. El DDE aporta una metodologa para reducir la
variabilidad propia de las caractersticas de calidad de los productos, y la que
originan los procesos sobre los productos. La empresa moderna persigue
lograr la competitividad mediante productos y servicios de gran calidad y
mnimo coste. El DDE se emplea en las fases de diseo y planificacin de
productos, servicios y procesos de fabricacin. Tambin se utiliza para la
mejora de procesos, productos y servicios ya desarrollados. Los trabajos de
inspeccin y control de procesos se realizan despus o durante el proceso,
pero el DDE se realiza antes del proceso, de cara al futuro, permitiendo lograr
una alta calidad.
El DDE primero identifica que variables o factores afectan la respuesta que
nos interesa y despus permite obtener un modelo de dicha respuesta y de su
desviacin tpica en funcin de las variables significativas. Mediante el proceso
de experimentacin con diferentes valores de las caractersticas o factores

18

clave que afectan la respuesta de los procesos o productos sometidos a


estudio se obtiene los valores ptimos. El DDE es el cambio intencional de las
entradas de un proceso para observar cambios en la salida o salidas del
proceso. Las entradas son factores que influyen en el comportamiento del
proceso. La salida o salidas son caractersticas que se registran para
determinar la calidad del proceso.
Por tanto, el DDE permite identificar qu factores son las fuentes principales
de variabilidad en las caractersticas elegidas que garantizan la calidad de las
prestaciones del producto o proceso; y por otro lado permite, luego de
identificar dichos factores, determinar a qu valores deben ajustarse para que
las caractersticas seleccionadas logren las especificaciones deseadas con la
mnima variabilidad.
Tabla 3. Diseo de Experimentos

DISEO DE EXPERIMENTOS
PERMITE IDENTIFICAR
VALORES DE LOS FACTORES
FACTORES DE VARIABILIDAD

PARA

SATISFACER

LOS

CLIENTES

El proceso de experimentacin consta de las siguientes etapas: recopilacin


de informacin, establecimiento de los objetivos principales, planificacin del
experimento, realizacin de los ensayos, anlisis de los resultados de los
ensayos y conclusiones.
Para el trabajo con dos o ms poblaciones se utiliza el anlisis de variancia,
para ello se describen los datos u observaciones

mediante el modelo

estadstico lineal:
Yij i ij; ; i 1,2,...a; j 1,2,...n

donde YIJ es la ijtratamientos llamado media global, j es un parmetro nico para el i-simo
tratamiento llamado efecto del tratamiento i-simo y ij es la componente
aleatoria del error. El objetivo es probar hiptesis apropiadas con respecto a
los efectos del tratamiento y hacer una estimacin de ellos. En este caso el

19

modelo se denomina anlisis de variancia, para un factor. Se requiere que el


experimento se realice en orden aleatorio.
Se obtiene la siguiente tabla se anlisis de variancia para el modelo de efectos
fijos unifactorial:
Tabla 4. ANVA Anlisis de Variancia
Fuente

de Suma

Variacin

de Grados

Cuadrados

de

Media

de Fo

Cuadrados

Libertad
SSTRATAMIENTOS A 1

Entre

M STRATAMIENTOS Fo =

tratamientos
Error(

M STRATAMIENTOS

dentro SSE

N-a

M SE

M SE

de
tratamientos)
Total

SST

N-1

Donde:
SSTRATAMIENTOS = Suma de Cuadrados de Tratamientos
SSE = Suma de Cuadrados del Error
SST = Suma de Cuadrados Total
M STRATAMIENTOS= Media de Cuadrados de Tratamientos
M SE = Media de Cuadrados del Error
N = Nmero total de observaciones = an
a = Nmero de tratamientos
n = Nmero de observaciones por tratamiento
Para los casos de dos o ms factores se utiliza la misma tabla para el clculo
de anlisis de variancia, slo que se adiciona el ajuste respectivo para los
clculos segn el nmero de factores.
Sobre los diseos factoriales fraccionales y la mejora de la calidad:
(MONTGOMERY, D. 2004; KUEHL, R., 2001; PRAT, A., TORT MARTORELL,
X., GRIMA, P. y POZUETA, L., 1999; LAWSON, J. ,MADRIGAL, J. y ERJAVEC,
J.,1992)

Sostienen que en la industria los diseos ms utilizados son los diseos


factoriales a dos niveles, que se representan por: 2k. En este caso los valores

20

correspondientes a los dos niveles se codifican asignando al nivel bajo el valor


1 y al alto +1 +. As por ejemplo el diseo experimental completo de
tres factores (L,G,T) a dos niveles cada uno se representa de la siguiente
manera:
Tabla 5. Diseo Factorial
EXPERIMENTO

-1

-1

-1

-1

-1

-1

-1

-1

-1

-1

-1

-1

En el mundo competitivo y globalizado que vivimos la bsqueda el xito por


parte de las empresas y organizaciones lleva a considerar varios factores e
incluso varios niveles, por lo que si se consideran todas las interacciones, el
nmero resultante de experimentos es muy elevado, por ello se utilizan los
diseos factoriales fraccionales. Por ejemplo si se tienen siete factores, el
nmero de experimentos sera de 27 = 128; y ello sera muy costoso. Los
diseos factoriales fraccionales permiten estudiar un elevado nmero de
factores en un nmero de experimentos mucho menor de lo que requerira un
factorial completo.
El diseo factorial fraccional que realiza la mitad de experimentos que el
diseo factorial completo se llama diseo de fraccin un medio o
simblicamente para un diseo factorial completo 2 3 su diseo factorial
fraccional un medio ser 23-1. Este ltimo diseo se dice que es de resolucin
III. Si bien es cierto

se pueden disear diversos diseos factoriales

fraccionales, los que son reconocidos a nivel internacional como de mucha


utilidad son los de Plackett- Burman y los de los Mtodos Taguchi. Estos
ltimos son de gran aplicacin en mejora de la calidad, en especial en el
sector productivo industrial, lo cual se trata a continuacin.
Sobre los Mtodos Taguchi y la mejora de la calidad:
21

(MONTGOMERY, D. 2004; KENNET, R. y ZACKS, S. , 2000; PRAT, A., TORT


MARTORELL, X., GRIMA, P. y POZUETA, L., 1999; TAGUCHI, G., 1990;
ROSS, P.,1988)
Un enfoque alternativo al Diseo de Experimentos DDE basado en diseos
factoriales completos o fraccionales son los mtodos del Dr. Genichi Taguchi.
Sus mtodos se desarrollaron en Japn en los aos 50. en 1958 public en
Japn el libro Diseo Experimental en el que introdujo su concepto de
Relacin Seal / Ruido derivado de la ingeniera de telecomunicacin, un
ndice que permite evaluar la robustez de una caracterstica de calidad de un
producto.

Robustez en su argot significa insensibilidad frente a aquellas

causas que provocan su variabilidad: Esto lo consigue al determinar qu


causas (ruido) originan esa variabilidad y planteando experimentos que nos
minimicen esa variabilidad. En 1972 us de nuevo este concepto en su libro
Relacin Seal / Ruido.

Manual para comparar mtodos de control y

medida. Pero no fue hasta 1980 en que sus mtodos se empiezan a divulgar
en EE.UU. con la publicacin de una serie de libros sobre Ingeniera de
Calidad y Mtodos de Taguchi.
Los mtodos de Taguchi se basan en el empleo de la funcin de prdida y en
la utilizacin de matrices de diseo ortogonales para llevar a cabo los
experimentos, as como en el posterior diagnstico mediante el anlisis de las
medias.

22

Prdida

Caracterstica de Calidad

m
Valor objetivo

Figura 2. Funcin Prdida

El Dr. Taguchi ha popularizado una serie de configuraciones que permiten


ahorrar muchos experimentos y sin embargo permiten identificar los factores
clave e incluso lograr modelar la respuesta. Sus diseos se presentan en lo
que Taguchi denomina las Matrices Ortogonales, que son diseos fraccionales
de resolucin III, como por ejemplo la L8 (27), diseo de siete factores con 2
niveles por factor y en el que se realizan ocho ensayos, que se muestra a
continuacin:
Tabla 6. Arreglo Ortogonal
Ensayos Factores
A

23

Normalmente las interacciones se consideran ruido (porque tienen un efecto


menor), por lo que slo se tiene en cuenta los factores.
Una vez llevados a cabo los experimentos, se elabora la tabla de respuestas
que contiene las medias de los resultados. La tcnica consiste en tomar uno a
uno los factores y calcular un promedio de los resultados obtenidos con el
nivel 2 ( +1) y otro los obtenidos con el nivel 1 ( -1) elaborando con los datos
calculados la tabla de respuestas.
Se seleccionar la combinacin en la que se toman los mejores niveles de los
factores ms relevantes, buscando los ptimos de los factores menos
relevantes.
Supongamos un ejemplo ficticio de un diseo con matriz ortogonal L4(2 3-1).
Se calcula el anlisis de las medias de una caracterstica para la que ser
mayor es mejor. En la tabla siguiente se muestra la matriz ortogonal con los
resultados de los diferentes ensayos :
Tabla 7. Matriz L4 (23-1)
Ensayo

Factores

Resultados

30

32

41

45

Se calculan los promedios de los resultados en funcin de los niveles de los


tres factores y obtenemos la tabla de respuestas siguiente:
Tabla7a. Tabla de Promedios.
Factores
A

Nivel 1

31

35.5

37.5

Nivel 2

43

38.5

36.5

Por ejemplo, para el factor A, nivel 1: (30+32)/2 = 31. Para el factor A, nivel 2:
(41+45)/2 = 43
La mejor combinacin es factor A nivel 2, factor B a nivel 2 y factor C a nivel
1.

24

Sobre las metodologas de superficie de respuesta y la mejora de la calidad:


(MONTGOMERY, D. 2004; KUEHL, R., 2001; KENNET, R. y ZACKS, S. , 2000;
PRAT, A., TORT MARTORELL, X., GRIMA, P. y POZUETA, L., 1999; LAWSON, J.
,MADRIGAL, J. y ERJAVEC, J.,1992)

La MSR es un conjunto de tcnicas matemticas y estadsticas tiles para


modelar y analizar problemas en los cuales una respuesta de inters es
influida por varias variables, y el objetivo es optimizar esta respuesta. Por
ejemplo, si suponemos que se quiere encontrar los niveles de temperatura
(x1) y presin (x2) que maximicen el rendimiento (y) de un proceso. El
rendimiento del proceso es una funcin de los niveles de la temperatura y la
presin, lo cual se expresa as:

y f ( x1 , x2 )
donde

representa el ruido o error observado en la respuesta y. Si la

respuesta esperada se denota por E(y) = f(x1,x2) = entonces a la superficie


representada por :

f ( x1 , x2 )
se le llama superficie de respuesta.
En la mayora de problemas de MSR se desconoce la forma de la relacin
entre la respuesta y las variables independientes. Por ello, el primer paso es
determinar una aproximacin apropiada a la relacin funcional real entre la
variable dependiente y las variables independientes. Por lo general se emplea
un polinomio de orden bajo sobre alguna regin de las variables
independientes. Si la respuesta es descrita adecuadamente por una funcin
lineal de las variables independientes, la funcin de aproximacin es el modelo
de primer orden:

y 0 1 x1 2 x2 ... k xk
Cuando existe curvatura en el sistema se requiere usar un modelo de segundo
orden:
k

i 1

i 1

y 0 i xi ii xi2
i

x x j ,,,i j

ij i

Casi todos los problemas de MSR usan uno o ambos polinomios de


aproximacin. Estos polinomios funcionan muy bien en regiones relativamente

25

pequeas. El mtodo de mnimos cuadrados sirve para estimar los parmetros


de los polinomios de aproximacin.
La MSR es un procedimiento secuencial. Por lo general la estimacin inicial de
las condiciones de operacin ptimas del sistema estarn lejos del ptimo
real. En dicha situacin, el objetivo del experimentador es pasar con rapidez a
la vecindad general del ptimo. Cuando se est lejos del ptimo, se supone
que un modelo de primer orden es una aproximacin adecuada de la
verdadera superficie en una regin pequea de las x.
El mtodo del ascenso ms pronunciado es un procedimiento para moverse
secuencialmente sobre la trayectoria del ascenso ms pronunciado, en la
direccin del incremento mximo de la respuesta. Si lo que se pretende es una
minimizacin, entonces esta tcnica se llama mtodo del descenso ms
pronunciado. El modelo ajustado de primer orden es:
k

y 0 i xi
i 1

y la superficie de respuesta de primer orden, es decir, los contornos de y , es


una serie de lneas paralelas. La direccin del ascenso ms pronunciado es
aquella en la que y se incrementa con mayor rapidez. Esta direccin es
paralela a la normal de la superficie de respuesta ajustada. Por lo general se
toma como la trayectoria del ascenso ms pronunciado a la recta que pasa por
el centro de la regin de inters y que es normal a la superficie ajustada. Por
ello los pasos sobre la trayectoria son proporcionales a los coeficientes de
regresin i . El tamao real del paso lo determina el experimentador con
base en el conocimiento del proceso o de otras consideraciones prcticas. Se
conducen experimentos sobre la trayectoria del ascenso ms pronunciado
hasta que deja de observarse un incremento adicional en la respuesta.
Entonces puede ajustarse un nievo modelo de primer orden, determinarse una
nueva trayectoria del ascenso ms pronunciado y el procedimiento continua.
En ltima instancia, el experimentador llegar a la vecindad del ptimo. En
general la falta de ajuste del modelo de primer orden indica que e ha llegado a
ella. En este momento se realizan experimentos adicionales para obtener una
estimacin ms precisa del ptimo.

26

Anlisis de la superficie de respuesta de segundo orden. Cuando el


experimentador se encuentra relativamente cerca del ptimo, por lo general se
requiere un modelo que incorpore la curvatura para aproximar la respuesta.
En la mayora de los casos, el modelo de segundo orden:
k

i 1

i 1

y 0 i xi ii xi2
i

x x j ,,,i j

ij i

es adecuado. Este modelo ajustado se utiliza para encontrar el conjunto


ptimo de condiciones de operacin para las x, as como para caracterizar la
naturaleza de la superficie de respuesta.
Con dicho objetivo, primero se requiere localizar el punto estacionario y luego
caracterizar la naturaleza de la superficie de respuesta.
Localizacin del punto estacionario. Suponga que quieren encontrarse los
niveles de x1,x2,..xk que optimizan la respuesta predicha. Este, en caso de
existir, punto ser el conjunto de las x1,x2,..xk para las que las derivadas
parciales

y / x1 y / x2 ... y / xk 0 .

este

punto,

por

ejemplo,

x1, s , x 2, s ,..., x k , s se le llama punto estacionario. El punto estacionario podra

representar 1) un punto de respuesta mxima, 2) un punto de respuesta


mnima, 3) un punto silla. Las grficas de contorno desempean un papel muy
importante en el estudio de las superficies de respuesta, con ellas el
experimentador puede por lo general caracterizar la forma de la superficie y
localizar el ptimo con una precisin razonable.
Es posible obtener una solucin matemtica general para la localizacin del
punto estacionario. Al escribir el modelo de segundo orden en notacin
matricial se tiene:
y 0 x b x Bx

donde:

x1
x
x 2
.

xk

b 2
.

k

11 , 12 / 2,..., 1k / 2

B ___ 22 ,......, 2 k / 2
simtrica ___

kk

27

Es decir b es un vector (k x 1) de los coeficientes de regresin de primer


orden y B es una matriz simtrica (k x k) cuyos elementos de la diagonal
principal son los coeficientes cuadrticos puros( ii ) y cuyos elementos que
estn fuera d ela diagonal son la mitad de los coeficientes cuadrticos mixtos (

ij , i j ). La derivada de y con respecto a los elementos del vector x igualada


con 0 es:
y
b 2 Bx 0
x
1
El punto estacionario es la solucin de la ecuacin anterior, o: x s B 1b
2

Adems, al sustituir ecuacin anterior en el modelo matricial de segundo


orden, la respuesta predicha en el punto estacionario puede encontrarse
como:
1
y s 0 x s b
2

Luego de obtener el punto estacionario se procede a caracterizar la superficie


de respuesta para determinar si se trata de un mximo o un mnimo o un
punto silla. Para ello se transforma el modelo en un nuevo sistema de
coordenadas con el origen en el punto estacionario x, y despus hacer la
rotacin de los ejes de este sistema hasta que sean paralelos a los ejes
principales de la superficie de respuesta ajustada. Se obtiene as el modelo
ajustado:
y y s 1 w12 2 w22 ... k wk2

donde las Wi son las variables independientes transformadas y las i son


constantes. Las i son los eigenvalores o races caractersticas de la matriz B.
Si todas las i son positivas entonces el punto estacionario es un mnimo, si
son negativas es un mximo y si son de signos diferentes es un punto silla.
Sobre Inteligencia Artificial IA.
(NILSSON, N., 2001; RUSSELL, S y NORVIG, P., 1996).

Se define la inteligencia artificial (IA) como aquella inteligencia exhibida por


artefactos creados por humanos (es decir, artificial). A menudo se aplica
hipotticamente a los computadores. El nombre tambin se usa para referirse

28

al campo de la investigacin cientfica que intenta acercarse a la creacin de


tales sistemas.
Campos de la Inteligencia Artificial.
Actualmente, por lo general, se refieren los siguientes campos:
1) Aprendizaje Automtico (Machine Learning). Es una rama de la Inteligencia
Artificial cuyo objetivo es desarrollar tcnicas que permitan a las computadoras
aprender. De forma ms concreta, se trata de crear programas capaces de
generalizar comportamientos a partir de una informacin no estructurada
suministrada en forma de ejemplos. Es por lo tanto, un proceso de induccin
del conocimiento. En muchas ocasiones el campo de actuacin del
Aprendizaje Automtico se solapa con el de la Estadstica, ya que las dos
disciplinas se basan en el anlisis de datos. Sin embargo, el Aprendizaje
Automtico se centra ms en el estudio de la Complejidad Computacional de
los problemas. Muchos problemas son de clase NP-hard, por lo que gran parte
de la investigacin realizada en Aprendizaje Automtico est enfocada al
diseo de soluciones factibles a esos problemas.
El Aprendizaje Automtico tiene una amplia gama de aplicaciones, incluyendo
motores de bsqueda, diagnsticos mdicos, deteccin de fraude en el uso de
tarjetas de crdito, anlisis del mercado de valores, clasificacin de
secuencias de ADN, reconocimiento del habla y del lenguaje escrito, juegos y
robtica.
2) Ingeniera del conocimiento (Knowledge Engineering)
La ingeniera del conocimiento es aquella disciplina moderna que hace parte
de la Inteligencia Artificial que ayuda a construir aplicaciones y sistemas
orientados al aprendizaje, apoyndonos en metodologas instruccionales y en
tecnologa de computacin y de telecomunicaciones, intentando representar el
conocimiento y razonamiento humanos.
El trabajo de los ingenieros del conocimiento consiste en extraer el
conocimiento de los expertos humanos y en codificar el conocimiento de
manera que pueda ser procesada por un sistema.
El problema es que el ingeniero del conocimiento no es un experto en el
campo que intenta programar, mientras que el experto en el tema no tiene
experiencia programando.

29

La ingeniera del conocimiento engloba a los cientficos, tecnologa y


metodologa necesarios para procesar en conocimiento. Su objetivo es
extraer, articular e informatizar el conocimiento de un experto.
3) Lgica difusa (Fuzzy Logic)
En la lgica clsica una proposicin slo admite dos valores: puede ser
verdadera o falsa. Por eso se dice que la lgica usual es bivalente o binaria.
Pero existen otras lgicas que admiten adems un tercer valor: posible (lgica
trivaluada).
La lgica multivaluada incluye sistemas lgicos que admiten varios valores de
verdad posibles. La lgica difusa (borrosa o, en ingls fuzzy logic) es una de
ellas, que se caracteriza por querer cuantificar esta incertidumbre: Si P es una
proposicin, se le puede asociar un nmero v(P) en el intervalo [0,1] tal que:
si v(P) = 0, P es falso
si v(P) = 1, P es verdadero
La veracidad de P aumenta con v(P).
Salta a la vista la semejanza con la teora de la probabilidad.
Esta simple idea naci en un artculo de Lofti A. Zadeh publicado en 1965 y
titulado "Fuzzy Sets" (Conjuntos Difusos). La lgica difusa permite representar
de forma matemtica conceptos o conjuntos imprecisos, tales como fro, calor,
alto, bajo, mucho, poco.
As, por ejemplo, una persona que mida 2 metros es claramente una persona
alta (es alta con grado 1) y una persona que mida 1 metro no es una persona
alta en absoluto (es alta con grado 0). De forma intermedia podemos decir que
una persona que mida 1.82 es alta con grado 0.75 indicando que es "bastante
alta". De este ejemplo puede extraerse fcilmente que la lgica y la teora de
conjuntos son isomorfismos matemticos.
En la siguiente figura se aprecia este tipo de interrelacin:

Figura 3. Representacin de datos en Lgica Difusa

30

En la teora de conjuntos difusos se definen tambin las operaciones de unin,


interseccin, diferencia, negacin o complemento y otras operaciones sobre
conjuntos.
4) Redes neuronales artificiales (Artificial Neural Networks)
Son un paradigma de aprendizaje y procesamiento automtico inspirado en la
forma en que funciona el sistema nervioso de los animales. Consiste en
simular las propiedades observadas en los sistemas neuronales biolgicos a
travs de modelos matemticos recreados mediante mecanismos artificiales
(como un circuito integrado, un ordenador o un conjunto de vlvulas). El
objetivo es conseguir que las mquinas den respuestas similares a las que es
capaz el cerebro que se caracterizan por su generalizacin y su robustez. En
la Figura 4 se aprecia un ejemplo de Red Neuronal Artificial.

Figura 4. Red neuronal artificial perceptrn con n neuronas de


entrada, m neuronas en su capa oculta y una neurona de salida.

5) Sistemas multi-agente (Multi-Agent Systems)


El dominio del sistema multiagente o de inteligencia artificial distribuida es una
ciencia y una tcnica que trata con los sistemas de inteligencia artificial en red.
El bloque fundamental de construccin de un sistema multiagente, como es de
esperarse, son los agentes.
Aunque no existe una definicin formal y precisa de lo que es un agente, stos
son por lo general vistos como entidades inteligentes, equivalentes en
trminos computacionales a un proceso del sistema operativo, que existen
dentro de cierto contexto o ambiente, y que se pueden comunicar a travs de

31

un mecanismo de comunicacin inter-proceso, usualmente un sistema de red,


utilizando protocolos de comunicacin.
En cierto modo, un sistema multiagente es un sistema distribuido en el cual los
nodos o elementos son sistemas de inteligencia artificial, o bien un sistema
distribuido donde la conducta combinada de dichos elementos produce un
resultado en conjunto inteligente.
6) Sistemas expertos (Expert Systems)
Imitan el comportamiento de un experto humano en la solucin de un
problema. Pueden almacenar conocimientos de expertos para un campo
determinado y solucionar un problema mediante deduccin lgica. Los
sistemas expertos son aquellos programas que se realizan haciendo explcito
el conocimiento en ellos; que tienen informacin especfica de un dominio
concreto y que realizan una tarea relativa a este dominio.
Los sistemas expertos trabajan con inteligencia artificial simblica, es decir, a
nivel de smbolos; como pueden ser ideas, imgenes, conceptos, etc. aunque
debido a su naturaleza algortmica se usan internamente instrucciones
computables y estructuras de datos como los MOPS (Memory Organization
Packets) de Schank.
El xito de un sistema experto radica fundamentalmente en el conocimiento
sobre el dominio que trata y su capacidad de aprendizaje. El conocimiento
sobre el dominio proporciona al sistema experto mayor informacin sobre el
problema a tratar y su entorno, de forma que pueda generar y adaptar
soluciones de forma ms precisa, al tener un conocimiento ms profundo
sobre el tema, de forma similar a un experto especializado. El aprendizaje,
inductivo o deductivo segn corresponda, proporcionar al sistema experto
mayor autonoma a la hora de abordar problemas totalmente desconocidos;
pudiendo generar nuevo conocimiento partiendo del extrado inicialmente del
experto o expertos humanos.

32

TABLA 8. SISTEMAS EXPERTOS

SISTEMAS EXPERTOS
RECIBEN

CONOCIMIENTOS FRENTE A UN PROBLEMA

SOBRE UN DOMINIO
APLICAN
TIENEN

UNA

LGICA

LA LGICA A LOS

DE CONOCIMIENTOS

ANLISIS

DAN UNA SOLUCIN

Son llamados expertos por que emulan el comportamiento de un experto en


un dominio concreto y en ocasiones son usados por ellos.
Con los sistemas expertos se busca una mejor calidad y rapidez en las
respuestas dando as lugar a una mejora de la productividad del experto.
7) Redes Bayesianas (Bayesian Networks)
Una Red Bayesiana consta de dos componentes. El primero de ellos, ms
cualitativo, est representado por un grafo acclico dirigido G = (V,E) donde los
nodos (el conjunto finito V) son variables aleatorias del problema, y los arcos (
) indican relaciones entre variables. El segundo de ellos,
cuantitativo, se trata de un conjunto de distribuciones de probabilidad
condicionadas (una por nodo) donde la distribucin en cada nodo est
condicionada al posible valor de cada uno de los padres.
En definitiva, es un modelo probabilstico multivariado que relaciona un
conjunto de variables aleatorias mediante un grafo dirigido, el cual indica
explcitamente influencia causal. Gracias a su motor de actualizacin de
probabilidades, el Teorema de Bayes, las redes bayesianas son una
herramienta extremadamente til en la estimacin de probabilidades ante
nuevas evidencias
8) Vida artificial (Artificial Life)
La vida artificial es el estudio de la vida y de los sistemas artificiales que
exhiben propiedades similares a los seres vivos, a travs de modelos de
simulacin. El cientfico Christopher Langton fue el primero en utilizar el
trmino a fines de los aos 1980 cuando se celebr la "Primera Conferencia
Internacional de la Sntesis y Simulacin de Sistemas Vivientes" en Los
Alamos National Laboratory en 1987.

33

9) Computacin evolutiva (Evolutionary Computation)


La computacin evolutiva nace en el ao de 1993 y retoma conceptos de la
evolucin y la gentica para resolver principalmente problemas de
optimizacin. Esta rama de la inteligencia artificial tiene sus races en tres
desarrollos relacionados pero independientes entre si:
Algoritmos genticos
Programacin evolutiva
Estrategias Evolutivas
Los algoritmos genticos fueron desarrollas por John H. Holland en la dcada
de 1960 y su motivacin inicial fue la de proponer un modelo general de
proceso adaptable.
La programacin evolutiva fue creada en la dcada de 1960 y su creador fue
L. J. Fogel. Este desarrollo comenz como un esfuerzo encaminado a crear
inteligencia artificial basado en la evolucin de mquinas de estado finitas.
Las estrategias evolutivas fueron propuestas por Ingo Rechenberg y HansPaul Schwefel en la dcada de 1970. Su principal objetivo era el de resolver
problemas de optimizacin de parmetros.
10) Clulas Binarias (Binary Cells)
Es la relacin matemtica existente entre las unidades binarias elementales y
sus operaciones lgicas y el medio fsico en el que se desarrollan, dotndo de
sentidos propios a las mismas clulas binarias.
Se suele aplicar en los campos de la Automtica, el control numrico (CN) y
en Realidad Virtual o Inteligencia Artificial (IA).
Buscar el mtodo para poder dotar a los conocidos Dgitos 0 y 1, tan
cotidianos en nuestra era de las telecomunicaciones, de capacidades de
actuacin propias y de comportamientos matemtico-fsico-qumicos.
11) Estrategia evolutiva
En informtica, las estrategias evolutivas son mtodos computacionales que
trabajan con una poblacin de individuos que pertenecen al dominio de los
nmeros reales, que mediante los procesos de mutacin y de recombinacin
evolucionan para alcanzar el ptimo de la funcin objetivo.
Cada individuo de la poblacin es un posible ptimo de la funcin objetivo; la
representacin de cada individuo de la poblacin consta de 2 tipos de

34

variables: las variables objeto y las variables estratgicas. Las variables objeto
son los posibles valores que hacen que la funcin objetivo alcance el ptimo
global y las variables estratgicas son los parmetros mediante los que se
gobierna el proceso evolutivo o, en otras palabras, las variables estratgicas
indican de qu manera las variables objeto son afectadas por la mutacin.
Haciendo una analoga ms precisa, el genotipo en las estrategias evolutivas
es el conjunto formado por las variables objeto y las variables estratgicas. Y
el fenotipo son las variables objeto, ya que conforme se da la variacin de
stas, se percibe un mejor o peor desempeo del individuo.
12) Algoritmos genticos (Genetic Algorithms)
En los aos setenta, de la mano de John Holland surgi una de las lneas ms
prometedoras de la inteligencia artificial, la de los algoritmos genticos. Son
llamados as porque se inspiran en la evolucin biolgica y su base genticomolecular.
Estos algoritmos hacen evolucionar una poblacin de individuos sometindola
a acciones aleatorias semejantes a las que actan en la evolucin biolgica
(mutaciones y recombinacin gentica), as como tambin a una seleccin de
acuerdo con algn criterio, en funcin del cual se decide cules son los
individuos ms adaptados, que sobreviven, y cules los menos aptos, que son
descartados.
Los algoritmos genticos forman parte de una familia denominada algoritmos
evolutivos, que incluye las Estrategias de evolucin, la Programacin evolutiva
y la Programacin gentica.
Sobre las Redes Neuronales Biolgicas
(ISASI, P. y GALVAN, I., 2004; MARTIN DEL BRIO, B., SANZ MOLINA A.
,2002)
La teora y modelado de redes neuronales est inspirada en la estructura y
funcionamiento de los sistemas nerviosos, donde la neurona es el elemento
fundamental.
En general, una neurona consta de un cuerpo celular ms o menos esfrico,
de 5 a 10 micras de dimetro, del que salen una rama principal, el axn, y
varias ramas ms cortas, llamadas dendritas.

35

Una de las caractersticas de las neuronas es su capacidad de comunicarse.


En trminos generales las dendritas y el cuerpo celular reciben seales de
entrada; el cuerpo celular las combina e integra y emite seales de salida. El
axn transmite dichas seales a los terminales axnicos, que distribuyen
informacin o un nuevo conjunto de neuronas, se calcula que en el cerebro
humano existen del orden de 1015 conexiones. En la siguiente figura se
aprecia una red neuronal biolgica.

Figura 5. Red Neuronal Biolgica.

Las seales que se utilizan son de dos tipos: elctrica y qumica. La seal
generada por la neurona y transportada a lo largo del axn es un impulso
elctrico, mientras que la seal que se transmite entre los terminales axnicos
de una neurona y las dendritas de la otra es de origen qumico.
Para establecer una similitud directa entre la actividad sinptica y la analoga
con las redes neuronales artificiales podemos considerar: Las seales que
llegan a la sinapsis son las entradas a la neurona; estas son ponderadas
(atenuadas o simplificadas) a travs de un parmetro, denominado peso
asociado a la sinapsis correspondiente. Estas seales de entrada pueden
excitar a la neurona (sinapsis con peso positivo) o inhibirla (peso negativo). El
efecto es la suma de las entradas ponderadas. Si la suma es igual o mayor
que el umbral de la neurona, entonces la neurona se activa (da salida). Esta
es una situacin de todo o nada; cada neurona se activa o no se activa. La

36

facilidad de transmisin de seales se altera mediante la actividad del sistema


nervioso. Las sinapsis son susceptibles a la fatiga, deficiencia de oxgeno y la
presencia de anestsicos, entre otro. Esta habilidad de ajustar seales es un
mecanismo de aprendizaje.
Sobre las RNA Redes Neuronales Artificiales.
(HAYKIN, S.,2005;ISASI, P. y GALVAN, I., 2004; MARTIN DEL BRIO, B.,
SANZ MOLINA A. ,2002; HILERA J. y MARTINEZ V., 2000; HAGAN, M.,
DEMUTH, H., VALE, M.,1996; KAUFFMANN, A., GIL ALUJA, J.,1995;
WASSERMAN, P., 1993)
A continuacin se presenta el marco terico de las RNA ms utilizadas y que
podran ser base para desarrollar una nueva RNA a ser utilizada en temas
relacionados con la mejora de la calidad.
Las Redes Neuronales Artificiales (RNA) son sistemas de procesamiento de la
informacin cuya estructura y funcionamiento estn inspirados en las redes
neuronales biolgicas.

Consiste en un conjunto de elementos simples de

procesamiento llamados nodos o neuronas artificiales conectadas entre s por


conexiones que tienen un valor numrico modificable llamado peso.
La actividad que una neurona artificial realiza, consiste en sumar los valores
de las entradas (inputs) por sus pesos, respectivos, que recibe de otras
unidades conectadas a ella; dicha sumatoria ingresa a una funcin de
activacin, la misma que permite obtener salidas (ontput). Ver figura.

Figura 6. Neurona artificial con varios inputs (Hagan, et al)

El procesamiento en la Red Neuronal Artificial es paralelo, la informacin que


posee est distribuida a lo largo de los parmetros de la misma Red. Los
parmetros que definen el conocimiento que una RNA posee en un momento

37

dado son sus conexiones y las funciones de activacin de sus unidades de


procesamiento. Cada neurona artificial lleva a cabo una computacin simple.
La fiabilidad de la computacin total que la RNA realiza depende de la
interaccin paralela de un gran nmero de unidades y, consecuentemente, en
la mayora de casos, el sistema puede continuar su funcionamiento normal,
aunque una pequea parte del mismo haya resultado daado. Una RNA es
entrenada para realizar una determinada tarea. Por ejemplo, supongamos
que presentamos a la red dos tipos de objetos, por ejemplo, la letra B y la letra
C con distintos tamaos y en distintas posiciones. En el aprendizaje de la red
neuronal se consigue, tras un nmero elevado de presentaciones de los
diferentes objetos y la consiguiente modificacin de las conexiones de la RNA,
hasta que la red distinga entre Bs y Cs, sea cual fuere su tamao y posicin
en la pantalla. Se puede entrenar la RNA para que proporcione como salida el
valor 1 cada vez que se presente una B y el valor 0 en caso de que se
presente una C. El aprendizaje en una RNA es un proceso de modificacin de
los pesos de las conexiones, hasta que la respuesta de la RNA acaba por
reproducir las propiedades de las entradas en este ejemplo, la red ha
aprendido el concepto de las letras B y C sin poseer reglas concretas para el
reconocimiento de dichas figuras, sin poseer un programa explcito de
instrucciones para su reconocimiento. El aprendizaje puede ser supervisado
(si se conocen ejemplos de entradas y sus respectivas salidas; para
determinar los parmetros de la red); no supervisado ( si slo se conocen
ejemplos de entradas y no de sus respectivas salidas; para determinar los
parmetros de la red); y por refuerzo ( variante del aprendizaje supervisado,
en la que no se dispone de informacin del error, sino que se determina si la
salida producida para dicho patrn es adecuada o no). Ver siguiente Figura.

38

Figura 7. Proceso de entrenamiento de una Red Neuronal(Answermath.com)

Si se denomina S al conjunto de estados posibles de la neurona, S podr ser,


por ejemplo, S = {0,1}, siendo 0 el estado inactivo y 1 el activo. S tambin
podr tomar un nmero mayor de valores, S = {0,1,2,..,n} para representar una
imagen con n+1 colores, o tambin un intervalo continuo de valores, por
ejemplo S= [0,1].
Para calcular el estado de activacin de una neurona se calcula la entrada
total i. Este valor es igual a la suma de todas las entradas por sus
respectivos pesos.
En la Figura 8, que se presenta a continuacin, se aprecia un conjunto de
entradas X1, X2,...,X3; que pueden ser definidas por un vector

X . Cada

entrada se multiplica por un peso asociado W1, W2, ..., Wn para calcular la
respectiva sumatoria que es procesada por la funcin de activacin
respectiva y se obtienen las salidas correspondientes.

Entradas
X1

Salidas
W j1

X2
Wj2
Wjn

Func.A

Xn
Figura 8. Esquema de una Neurona Artificial (McCulloch-Pitts).

39

El conjunto de pesos se representa por un vector W . La sumatoria que


corresponde al cuerpo de la neurona, suma todas las entradas ponderadas
por sus respectivos pesos, produciendo una salida E:
E = x1w1 + x2w2 + ... + xnwn
Lo cual se puede definir en forma vectorial como sigue:
E = XTW
La seal E es procesada por la funcin de activacin, que produce la salida de
la neurona S. Hay diversas funciones de activacin, como por ejemplo:
Lineal: S = K E con K constante.
Umbral: S = 1 si E >= , S = 0 si E < siendo el umbral constante
Cualquier funcin: S = F (I); siendo F una funcin cualquiera.
Combinando varias neuronas de este tipo, se pueden construir diversos tipos
de redes que calculen cualquier funcin lgica finita. La forma como se
organizan las neuronas que se combinan se conoce como su arquitectura. Se
considera que las Arquitecturas de las neuronas tienen capas, y en cada capa
pueden haber una o varias neuronas. As se considera que existe una capa de
entrada, una de salida y entre ambas pueden presentarse capas ocultas o
intermedias.
En la figura 9, se muestra un ejemplo de arquitectura tpica de red neuronal
artificial:

W11
X1W31
W12

W32
W21
X2
W22
Figura 9. Red Neuronal Artificial con una capa oculta.

La Red Neuronal Artificial de la Figura 9 es una Red Neuronal Artificial con


capa de entrada, de salida y una capa oculta. En las capas de entrada y oculta
hay 2 neuronas; y en la de salida slo una neurona; pero podran ser de

40

nmero mayor de neuronas en las distintas capas, e incluso podran haber


ms capas ocultas.
Dependiendo de las arquitecturas, funciones de activacin, y tipos de
aprendizaje, se tienen los distintos tipos de Redes Neuronales artificiales, as
tenemos, entre las ms utilizadas a las siguientes:
A. Perceptrn:
A.1. Arquitectura:
Es una estructura monocapa en la que hay un conjunto de neuronas de
entrada y una o varias neuronas de salida. Cada una de las neuronas de
entrada tiene conexiones con todas las clulas de salida, y son stas
conexiones las que determinan las superficies de discriminacin del sistema

W1
1
X1
F
Y
2

X1

W2

Figura 10. Perceptrn: Red con dos capas (entrada y salida)

En la Figura 10, se presenta un Perceptrn donde las entradas son X1 y X2 ; la


salida es Y. Los pesos son W1 y W2 y hay un umbral El umbral se utiliza
como factor de comparacin para producir la salida, y habr tantos como
clulas de salida existan en la red, uno para cada una. La salida viene dada
por la siguiente ecuacin:
Y F (

Wi Xi + )

i 1

donde:
F (s) = { 1 si s > 0
{ -1 en caso contrario
En la siguiente figura se presenta un perceptrn con R entradas y con funcin
de activacin (transferencia) hardlim (a=0, si n<0; a=1, si n>=0).

41

Figura 11. Perceptrn con R entradas (Matlab).

En la siguiente figura se muestra una red perceptrn con s neuronas en su


capa de salida y R neuronas en su capa de entrada.

Figura 12. Perceptrn con R inputs y S outputs (Matlab)

A.2. Aprendizaje
En el caso que se tengan 2 clases A y B: se introduce un patrn de los del
conjunto de aprendizaje, perteneciente, por ejemplo a la clase A. Se obtiene la
salida que genera la red para dicho patrn. Si la salida producida es 1, la
respuesta de la red para dicho patrn es correcta y no se realizar ninguna
accin. Si la salida es 1, la respuesta es incorrecta; la red categoriza el
patrn como de la clase B. Este es un error de clasificacin y es en este caso
cuando se produce el aprendizaje: se modifican los valores de los pesos. Si la
salida es inferior a la que se debera haber obtenido, los pesos son
incrementados para que en la prxima presentacin del mismo patrn pueda

42

superar el umbral y producir la salida deseada de 1. Si el patrn que se


introduce es de la clase B, y tambin se produce un error de clasificacin, el
proceso se invierte; los pesos se decrementan por la misma razn.
Sea x un patrn de entrenamiento y S(x) su clase asociada, tomando valores
en (-1,1), el proceso de aprendizaje (con limitaciones) se puede describir as:
1) Empezar con valores aleatorios para los pesos y el umbral.
2) Seleccionar un vector de entrada x del conjunto de ejemplos de
entrenamiento.
3) Si Y S(x), la red da una respuesta incorrecta. Modificar Wi de
acuerdo con: Wi = S(x) Xi

(Regla de aprendizaje del Perceptrn)

4) Si no se ha cumplido el criterio de finalizacin, volver a 2.


5) Como el umbral es equivalente a un peso adicional, al que se denota
por Wo cuya entrada es siempre 1 (Xo = 1), la ecuacin anterior se
puede extender para el umbral de la siguiente manera: Wi = S(x) Xi; i
= 0,...,n
B. Adaline
B.1. Arquitectura
La arquitectura ADALINE es idntica al Perceptrn, pero es capaz de realizar
un mejor aprendizaje. Porque es un elemento combinador adaptativo, que
recibe un conjunto de entradas y las combina para producir una salida.
La regla de aprendizaje del PERCEPTRON no permite producir salidas reales,
debido a que su funcin de activacin: escaln; slo permite salidas binarias:
1, -1 y a que es una regla de aprendizaje por refuerzo en la que se potencian
salidas correctas y no se tienen en cuenta las incorrectas. No existe ninguna
graduacin en la regla que indique en qu medida resulta errnea la salida
producida, y refuerce proporcionalmente a dicha medida de error.
La salida Adaline puede transformarse en binaria mediante un conmutador
bipolar que produce un 1 si la salida es positiva y un -1 si es negativa:
n

y =

w x
i 1

43

Figura 13. Red ADALINE (Hagan,et al)

B.2. Aprendizaje
El aprendizaje en este caso incluye la diferencia entre el valor real producido
en la capa de salida

para un patrn de entrada

producido dicho patrn, es decir, su salida esperada

y el que debera haber


S p , que est en el

conjunto de aprendizaje (| S p - y |). A esta regla de aprendizaje se la conoce


con el nombre de la regla Delta.
La regla Delta utiliza directamente la salida de la red, sin pasarla por ninguna
funcin umbral. Habitualmente, la medida de error global utilizada es el error
cuadrtico medio, pero otros errores pueden ser utilizados en el modelo, la
ecuacin es:
m

E=

E
p 1

p 1

(S p - y ) 2

Se busca minimizar el error, recurriendo a un proceso iterativo en el que se


van presentando los patrones uno a uno y modificando los parmetros de la
red, pesos de las conexiones, mediante la regla de del descenso del
gradiente. Se realiza un cambio en cada peso proporcional a la derivada del
error, medida en el patrn actual, respecto del peso:
p w j

E p
w j

Utilizando la regla de la cadena:


E p E p y p

w j
y p w j

44

Como:
y p
E p
x j .................... y.................... p ( S p y p )
w j
y

Se obtiene, la regla de aprendizaje de la Red Adaline:


p

(s p y p ) x j

A continuacin se muestra figura de aplicacin de la Red ADALINE con 2


inputs.

Figura 14. Regla de decisin de una


Red ADALINE con 2 inputs (Hagan, et al)

El procedimiento de aprendizaje definido por la regla Delta ser :


1. Inicializar los pesos de forma aleatoria
2. Introducir un patrn de entrada
3. Calcular la salida de la red, compararla con la esperada deseada y
obtener la diferencia: ( s p y p )
4. Para todos los pesos, multiplicar dicha diferencia por la entrada
correspondiente, y ponderarla por una tasa de aprendizaje
5. Modificar el peso restando del valor antiguo la cantidad obtenida en 4
6. Si no se ha cumplido el criterio de convergencia, regresar a 2; si se han
acabado todos lo patrones, empezar de nuevo a introducir patrones.
C. Perceptrn Multicapa:
C.1. Arquitectura
Tiene las posibilidades de las capas ocultas en una red. As se puede resolver
el problema XOR que no puede resolver el Perceptrn simple debido a la capa
oculta que se aade. Se presenta ejemplo en la Figura 15.

45

W11
X1W31
W12

W32
W21
X2
W22
Figura 15: Perceptrn con una capa oculta de dos neuronas.

Se comprueba que la capa oculta, separa el plano en tres regiones (1,2y3).


As, por ejemplo, para una funcin de salida escalonada, la regin1, da una
salida 1 de la red, y las regiones 2 y 3 dan salidas 0; superndose el problema
del peceptrn simple que slo divida el plano en dos regiones. Tambin se
pueden dar otras funciones de activacin o transferencia como la sigmoidea o
la lineal, u otras segn se requiera.
El modelo descrito es capaz de representar funciones no lineales arbitrarias,
utilizando ejemplos de entrada salida de la funcin, puede utilizarse como
clasificador de patrones.

Figura 16: Perceptrn Multicapa, con capa de entrada ms tres capas (Hagan, et al)

46

C.2. Aprendizaje
Al igual que la Red Adaline toma la Regla LMS (Mnimos Cuadrados). Se
busca minimizar el error; es decir::
E2Esy2
Minimizando mediante la regla del descenso del gradiente, mediante una
sucesiva minimizacin de los errores para cada patrn, e(n), en lugar de
minimizar el error total. Luego cada w se modifica para cada patrn de entrada
n de acuerdo con la siguiente ley de aprendizaje:
pwj

e(n)
w

Como las neuronas de la red estn agrupadas en capas de distintos niveles se


puede aplicar el mtodo del gradiente en forma eficiente, obtenindose el
algoritmo de aprendizaje Backpropagation de Retropropagacin
Propagacin Hacia Atrs, que equivale a la regla delta generalizada. La
retropropagacin consiste en propagar el error hacia atrs, es decir, de la capa
de salida hacia la capa de entrada, pasando por las capas ocultas intermedias
y ajustando los pesos de las conexiones con el fin de reducir dicho error. En
la siguiente figura se aprecia la arquitectura de un perceptrn multicapa.

Figura 17: Perceptrn Multicapa, con capa oculta tansig y capa de salida purelin
con aprendizaje Backpropagation (Hagan, et al)

La Regla Delta Generalizada


Para el caso del Perceptrn Multicapa se distinguen dos casos: uno para los
pesos de la capa oculta C-1 a la capa de salida y umbrales de las neuronas de
salida, y otro prale resto de pesos y umbrales de la red. Aplicando el mtodo
del gradiente a la red se obtiene:

47

Pesos de la capa oculta C-1 a la capa de salida y umbrales de las neuronas


de la capa de salida:
pesos:

wCji1 (n) wCji1 (n 1) iC (n)a Cj 1 (n) ; para j = 1,2,...,n C 1 ; i = 1,2,..., n C


umbrales:

u Cji (n) uiC (n 1) iC (n) ; para i = 1,2,..., n C


donde:
nC 1

(n) ( si (n) yi (n)) f ( wCji 1 a Cj 1 u iC )


C
i

j 1

Pesos de la capa c a la capa c+1 a la capa de salida y umbrales de la capa


c+1 para c=1,2,..C-2:
pesos:

wkjc (n) wkjc (n 1) cj1 (n)akc (n) ; para k = 1,2,..., n c ; j = 1,2,..., n c 1 ; y


c = 1,2,, C-2
umbrales:

u cj1 (n) u cj1 (n 1) cj1 (n) ; para j = 1,2,..., n c 1 y c = 1,2,, C-2


donde:
nC

nc 1

k 1

i 1

cj1 (n) f ( wkjc a kc u cj ) c 2 (n) w cji


El aprendizaje de esta red se efecta siguiendo el algoritmo de la Regla Delta
Generalizada, y consta de dos fases.

En la primera se presentan pares

entradas salidas. Los valores de las entradas, se propagan hacia adelante y


al llegar a las salidas, se evala el error cometido.
En la segunda fase se vuelve hacia atrs corrigiendo los pesos de los nodos,
con el fin de que el error se vaya haciendo ms pequeo. Esta segunda fase
es la que da nombre al algoritmo: backpropagation.
Los pasos a seguir son:
1)Se inicializan los pesos y umbrales de la red. Valores aleatorios, alrededor
de cero.
2)Se toma un patrn n del conjunto de entrenamiento, (X(n), S(n)), y se
propaga hacia la salida de la red el vector de entrada X(n) utilizando las
ecuaciones:
48

a) activacin de las neuronas de la capa de entrada ( a i )

a x
1
i

para i = 1,2,... n 1 : el superndice se refiere a la capa.

donde X = ( x1 , x2 ,..., xn ) representa el vector o patrn de entrada a la red.


1

b) activacin de las neuronas de la capa oculta c ( ai )


Dada la funcin de activacin f :
nc 1

c 1 c 1
c
ai = f( w ji a j ui ) para i = 1,2,..., n c y c = 2,3,, C-1
c

j 1

c) activacin de las neuronas de la capa de salida C ( a i )


yi =

C
i

nC 1

= f ( wCji 1a Cj 1 uiC ) para i = 1,2, ..., n C


j 1

donde Y = ( y 1 , y 2 , ..., y nC ) es el valor de salida de la red.


Obtenindose as la respuesta de la red para dicho vector de entrada, Y (n)
3) Se evala el error cuadrtico cometido por la red para el patrn n utilizando
la ecuacin:
nC

e(n) =

(s (n) y (n))
i

i 1

siendo Y(n) = ( y1 (n),..., y nC (n)) y S(n) = ( si (n),..., s nC (n)) los vectores de salidas
de la red y salidas deseadas para el patrn n, respectivamente.
4) Se aplica la regla delta generalizada para modificar los pesos y umbrales de
la red. Para ello se siguen los siguientes pasos:
4.1.) Se calcula los valores de para todas las neuronas de la capa de salida
utilizando la ecuacin:
nC 1

(n) ( si (n) yi (n)) f ( wCji 1 a Cj 1 u iC )


C
i

j 1

Se calculan los valores para el resto de las neuronas de la red utilizando


la ecuacin:
nC

nc 1

k 1

i 1

cj1 (n) f ( wkjc a kc u cj ) c 2 (n) w cji


empezando desde la ltima capa oculta y retropropagando dichos valores
hacia la capa de entrada.

49

4.3.) Se modifican pesos y umbrales de la red siguiendo las siguientes


ecuaciones para los pesos y umbrales de la capa de salida:
pesos:

wCji1 (n) wCji1 (n 1) iC (n)a Cj 1 (n) ; para j = 1,2,...,n C 1 ; i = 1,2,..., n C


umbrales:

u Cji (n) uiC (n 1) iC (n) ; para i = 1,2,..., n C


y para el resto de parmetros de la red, se aplican las siguientes
ecuaciones:
para los pesos:

wkjc (n) wkjc (n 1) cj1 (n)akc (n) ; para k = 1,2,..., n c ; j = 1,2,..., n c 1 ; y


c = 1,2,, C-2
para los umbrales:

u cj1 (n) u cj1 (n 1) cj1 (n) ; para j = 1,2,..., n c 1 y c = 1,2,, C-2


5) Se repiten los pasos 2, 3 y 4 para todos los patrones de entrenamiento,
completando as una iteraccin o ciclo de aprendizaje.
6) Se evala el error total E cometido por la red, mediante la ecuacin
siguiente:
N

E = 1/N

e(n) ; donde N es el nmero de patrones y e(n) es el error cometido


n 1

por la red para el patrn (entrada) n. Dicho error tambin recibe el nombre de
error de entrenamiento, pues se calcula utilizando los patrones de
entrenamiento.
7) Se repiten los pasos 2,3,4,5 y 6 hasta alcanzar un mnimo del error de
entrenamiento, para lo cual se realizan m ciclos de aprendizaje.

Aproximador Universal. El Perceptrn Multicapa PMC, ha sido demostrado por


Funahashi y otros (1989) que es un aproximador universal. Su teorema dice:
Sea F(x) una funcin no constante, acotada y montona creciente. Sea K un
subconjunto compacto (acotado y cerrado) de Rn. Sea un nmero real E R, y
sea un entero k E Z, tal que k>=3, que fijamos. En estas condiciones, se tiene
que:

50

Cualquier mapping g:x E K(g1(x),g2(x),.,gm(x)) E Rm , con gi(x) sumables


en K, puede ser aproximado en el sentido de la topologa L2 en K por el
mapping entrada salida representado por una red neuronal unidireccional de
k capas (k-2 ocultas), con f(x) como funcin de transferencia de las neuronas
ocultas, y funciones lineales para las de las capas de entrada y salida.
Optimizacin del Aprendizaje.
Con el objetivo de mejorar el desempeo de la red PMC se han desarrollado
diversos algoritmos de aprendizaje, entre los ms conocidos se tienen:
Tabla 9. Algoritmos de aprendizaje para Perceptrn Multicapa

Nombre
Gradiente

Caracterstica
con Al gradiente se agrega el momentum, con valor

Momentum traingd

entre 0 y 1.

Gradiente con tasa de Adaptativo traingda, Combinado adpatativo con


cambio variable

momentum traingdx

Gradiente Conjugado

Ajustando la variacin de la direccin del gradiente


mediante funciones especiales: Fletcher Reever
traincgf; Polak Riviere trancgp; Powell Beale
Restarts (traincgb); Con escala trainscg

Quasi Newton

BFGS Utiliza el mtodo de newton en lugar del


gradiente conjugado trainbfg; ; Secante: Utiliza
combinacin de algoritmo de cuasi Newton y
gradiente conjugado trainoss.

Levenberg Marquardt

En lugar del gradiente conjugado utiliza el mtodo


de Newton, pero no usa la Matriz Hessiana sino
una aproximacin

D. Redes Neuronales de Base Radial


D.1. Arquitectura
Las redes de neuronas de base radial son redes multicapa con conexiones
hacia delante, al igual que el PERCEPTRON multicapa.
Las redes de base radial se caracterizan porque estn formadas por una nica
capa oculta y cada neurona de esta capa posee un carcter local, en el
sentido de que cada neurona oculta de la red se activa en una regin diferente

51

del espacio de patrones de entrada. Este carcter local viene dado por el uso
de las llamadas funciones de base radial, generalmente la funcin gausiana,
como funciones de activacin. Las neuronas de la capa de salida de las redes
de base radial simplemente realizan una combinacin lineal de las
activaciones de las neuronas ocultas.

Figura 18. Neurona de Base Radial (Matlab)

Las redes neuronales de base radial estn formadas por tres capas de
neuronas, una de entrada, una nica oculta y una de salida.
La capa de entrada la componen un conjunto de neuronas que reciben las
seales del exterior, transmitindolas a la siguiente capa sin realizar ningn
procesado sobre dichas seales. Las neuronas de la capa oculta reciben las
seales de la capa de entrada y realizan una transformacin local y no lineal
sobre dichas seales. Este carcter local es lo que las diferencia del
perceptrn multicapa. Esta es la nica que incluye componentes no lineales en
las redes de base radial. La capa de salida realiza una combinacin lineal de
las activaciones de las neuronas ocultas, que acta adems como salida de la
red. Las conexiones de la capa de entrada a la capa oculta no llevan asociado
ningn peso, mientras que las conexiones de la capa oculta a la capa de
salida s llevan asociado un peso. Slo las neuronas de la capa de salida
poseen umbral, que tambin se suele tratar como una conexin ms de la
neurona cuya entrada es constante e igual a 1.

52

Figura 19. Red Neuronal de Base Radial (Matlab)

Activacin de las neuronas de la red de base radial.


Si la red tiene p neuronas en la capa de entrada, m neuronas en la capa oculta
y r neuronas en la capa de salida, las activaciones de las neuronas de salida
para el patrn de entrada n, X(n) = (x1(n), x2(n),, xp(n),), denotadas como
yk(n),vienen dadas por la siguiente ecuacin:
yk(n) = wiknu para k = 1,2,,r
donde: wik es el peso de la conexin de la neurona oculta i a la neurona de
salida k; uk es el umbral de la neurona de salida ky n son las activaciones
de las neuronas ocultas para el patrn de entrada X(n).
Las funciones de base radial i , determinan las activaciones de las neuronas
de las neuronas ocultas de la red en funcin de un vector de entrada a la red
X(n) y vienen dadas por expresiones que dependen de los centros de la
funcin de base radial, la desviacin amplitud de la funcin de base radial y
la distancia del vector de entrada X(n) al centro Ci.
Las entradas x1, x2, xm, conforman un vector de entrada x, y son aplicadas
a todas las neuronas en una capa oculta. Segn la topologa de la red que se
muestra en la siguiente figura:

53

w1,1,c1,b1,1
X1
h(.)
w2,1
b2
X2

w1,2,c2,,b1,2
w2,2
h(.)

w2,3
Xm
xm

h(.)
w1,3,c3,b1,3

Figura 20. Red Neuronal de Base Radial. Arquitectura

Cada neurona de la capa oculta calcula la siguiente funcin exponencial:


hi exp[ Di2 /( 2 2 )]

Donde:
X= un vector de entrada
w1,i y w2,j=vector peso de la neurona i de la capa oculta y j de la capa de
salida.
b1,i y b2,j =umbrales de de la neurona i de la capa oculta y j de la capa de
salida.
ui= centros de las neuronas ocultas
Di2 ( x u i ) T ( x u i )

x y u = vectores columna.
T = indica la transpuesta del vector.
Los pesos de cada neurona de capa oculta son asignados desde los valores
de un vector de entrenamiento de entrada.
La neurona de salida produce la suma de pesos lineal de estos:
y hi wi , j bij
i, j

donde wi,j = peso en la capa de salida.


Las Redes de Base Radial son aproximadores universales de carcter local.

54

D.2. Aprendizaje.
Se pueden dar dos casos: Hbrido y totalmente supervisado.
D.2.1. Aprendizaje Hbrido.
En el caso hbrido: se tiene la primera fase no supervisada y la segunda
supervisada.
Fase No Supervisada:
Los centros de las funciones de base radial se determinan mediante un
algoritmo clasificacin no supervisado que permita dividir el espacio de
patrones de entrada en clases. El nmero de clases es el nmero de neuronas
ocultas en la red de base radial. Se puede utilizar el algoritmo de K medias, o
cualquier otro, e incluso los mapas autoorganizados de Kohonen.
Las amplitudes o desviaciones se calcular de manera que cada neurona oculta
se active de una regin del espacio de entrada y de manera que cada neurona
oculta se active en una regin del espacio de entrada y de manera que el
solapamiento de las zonas de activacin de una neurona a otra sea lo ms
ligero posible, para supervisar as la interpolacin. Entre otras, se pueden usar
las heursticas de los vecinos ms cercanos, la media uniforme de las
distancias eucldeas del centro Ci a los p centros ms cercanos, la media
geomtrica de las distancias centro Ci a los p centro ms cercanos incluso
valores determinados que permitan un valor de salida predeterminado luego e
aplicar la funcin de base radial.
Fase Supervisada.
Se busca minimizar el error entre el valor de salida de al red y el de la salida
deseada que corresponde a su respectivo par p de entrada. Para ello se
puede seguir el mtodo de mnimos cuadrados o el de la seudoinversa.
Mnimos Cuadrados:
Las ecuaciones que se obtienen para ser aplicadas son:

wik (n) wik (n 1) 1 ( s k (n) y k (n))i (n)


u k (n) u k (n. 1) 1 ( s k (n) y k (n))
para...k 1,2,...ryparai 1,..., m
Seudoinversa
Se aplica la ecuacin:

W G S (G t G) 1 G t S

55

Donde W es la matriz de pesos y umbrales de la red; G + es la matriz


seudoinvesa de G, G es la matriz que contiene los valores de las funciones de
base radial (salida de la capa oculta) y S la matriz que tiene todas las salidas
deseadas.
D2.2. Aprendizaje totalmente supervisado:
Dado {(X(n), S(n))}n=1N el conjunto de patrones de entrada y sus salidas
deseadas, el mtodo de aprendizaje totalmente supervisado para las redes de
neuronas de base radial se resume en los siguientes pasos:
1) Se inicializan todos los parmetros de la red. En el caso de las amplitudes,
pesos y umbrales, esta inicializacin suele hacerse de manera aleatoria con
valores cercanos a cero. Para los centros es, generalmente, preferible
inicializarlos aleatoriamente a patrones de entrada o a la salida de un
algoritmo de clasificacin aplicado en el espacio de entrada.
2) Se toma un patrn del conjunto de patrones disponibles (X(n),S(n)) y se
calcula al salida de la red, Y(n), para el patrn de entrad X(n).
3) Se evala el error e(n) cometido pro la red para dicho patrn, con la
ecuacin:
r

e(n) =

(s
K 1

(n) y k (n)) 2

donde Y(n) = (y 1 (n),..., y r (n)) y S(n) = (s 1 (n),..., s r (n)) los vectores de salida
de la red y salida deseada para el patrn de entrada X(n), respectivamente.
4) Se modifican los pesos, umbrales, centros y amplitudes de la red utilizando
las ecuaciones:
pesos:

ik

(n) wik (n 1) 1 (sk (n) yk (n))i (n)

umbrales:

u k (n) u k (n 1) 1 (s k (n) y k (n))


para k = 1,2,..., r y para i = 1,...,m
centros:
r

( x j cij )

k 1

d i2

cij (n) cij (n 1) 2 ( ( s k (n) y k (n)) wik )i (n)

para j = 1,2, ..., p y para i = 1,..., m

56

amplitudes:
r

d i (n) d i (n 1) 3 ( ( s k (n) y k (n)) wik )i (n)


k 1

X ( n) C i
d i3

Para i = 1,..., m
5) Se repiten los pasos 2, 3 y 4 para todos los patrones de entrenamiento.
6) Se repiten los pasos 2, 3, 4 y 5 hasta conseguir la convergencia, es decir,
hasta que la suma de los errores para todos los patrones se estabilice, segn
la ecuacin:
N

E = 1/N

e( n )
n 1

en este momento se alcanza un mnimo de dicha funcin.


La ubicacin de los centros del campo de recepcin es un tema crtico y hay
muchas alternativas para su determinacin. Por ejemplo, un centro y las
correspondientes neuronas de capa oculta pueden ser consideradas como
cada vector input del conjunto de entrenamiento. Los vectores de
entrenamiento tienden a poder agruparse, para no tener ms neuronas de la
capa oculta que las que son necesarias. Ya que de lo contrario, el resultado
sera un tiempo de entrenamiento ms largo y la operacin ms lenta durante
la etapa de entrenamiento, por la mayor cantidad de clculos. Aunque se
pierda en exactitud.
El dimetro de la regin de recepcin, determinado por el valor de sigma
(desviacin estndar), puede tener un profundo efecto sobre la exactitud del
sistema. El objetivo es cubrir el espacio de input con los campos de recepcin
lo ms uniformemente posible. Si el espacio entre los centros no es uniforme,
puede ser necesario para cada neurona de la capa oculta tener su propio valor
de sigma. Para las neuronas de capa oculta cuyos centros estn ampliamente
separados de otros, sigma debe ser lo suficientemente grande para cubrir la
separacin, como sea, aquellas en el centro de un cluster deben tener una
pequea sigma si la forma del cluster es representado exactamente.
Dependiendo de las particularidades de la arquitectura de este tipo de Redes
se presentan tipos como la: Red Neuronal de Regresin Generalizada GRAN,
de aplicacin principalmente para clasificar.

57

Este sistema desarrollado (Specht, 1991) contiene los mtodos de funcin de


base radial antes descritos, as como los de las Redes Neuronales
Probabilsticas (PNN), otro tipo de redes. Tienen la propiedad deseable de
requerir un entrenamiento no iterativo. Aproxima cualquier funcin arbitraria
entre vectores input y output, diseando una funcin estimada, directamente
desde los datos de entrenamiento. Adems, es consistente, tanto como el
entrenamiento se vuelva ms largo, la estimacin del error se aproxima a cero,
con solo moderadas restricciones de la funcin.
GRNN se basa en al teora de regresin no lineal, una bien establecida tcnica
estadstica para estimar funciones. Por definicin, la regresin de una variable
dependiente y, dado x y un conjunto de entrenamiento.
El conjunto de entrenamiento consiste de valores de x, cada uno con su
correspondiente y (x e y son, en general, vectores) Note.- Que y puede ser
alterado mediante ruidos adicionales. A pesar de esto el mtodo de regresin
producir el valor estimado de y que minimiza el cuadrado medio del error.
GRNN se basa en la siguiente frmula estadstica:

E[ y / x]

yf ( x, y )dy
f ( x, y )dy

donde:
y = salida del estimador.
x= vector de entrada del estimador
E[y/x] = el valor esperado de salida, dado el vector de entrada x.
f(x,y) = la unin de la funcin de la funcin de densidad de probabilidad
(pdf) de x e y.
GRNN es; en esencia, un mtodo para estimar f(x,y) dado el conjunto de
entrenamiento. Debido a que la pdf es derivada a partir de los datos sin
preconcepciones sobre su forma, el sistema es perfectamente general. No hay
problema si las funciones estn compuestas de mltiples regiones no
Gaussianas no un idas en cualquier nmero e dimensiones, tanto como de
distribuciones ms simples.
Specht muestra que yj, el valor de la funcin, es estimado ptimamente como
sigue:

58

i 1

i 1

y j hi wij / hi

Donde:
Wij = la salida objetivo (deseada) correspondiente al vector entrenamiento
de entrada xi y salida yj
hi exp[ Di2 / 2 2 )], la salida de una neurona de capa oculta.
Di2 ( x u i ) T ( x u i ), la distancia al cuadrado entre el vector input x y el

vector de entrenamiento u.
x = vector de entrada (un vector columna)
ui = vector de entrenamiento i, el centro de la neurona i (un vector
columna).
= una constante controladora del tamao de la regin respectiva.
Otras formas de mejorar el desempeo.
La Funcin de distancia Euclidiana, otras veces referida como la normal L 2,
es solo una de un gran nmero de funciones que pueden ser usadas. Specht
(1991) reporta que la L1 o (city block norm) bloque normal de vecindad que
tambin satisface el criterio de consistencia de Parzen puede ser usado sin
cambios significativos en los resultados, pero con una gran reduccin en los
clculos requeridos. En este caso la funcin de distancia es calculada como
sigue:

Di1 xk k
k

Es usualmente posible mejorar la exactitud mediante el ajuste de la ubicacin


y/o forma de la funcin de base (Lee y Kil, 1991). Esto puede ser cumplido
mediante la modificaciones de la funcin exponencial.
La Distancia de Mahalanobis es una medida de distancia introducida por
Mahalanobis en 1936. Su utilidad radica en que es una forma de determinar la
similitud entre dos variables aleatorias multidimensionales. Se diferencia de la
Distancia Eucldea en que tiene en cuenta la correlacin entre las variables
aleatorias. Formalmente, la distancia de Mahalanobis entre dos variables
aleatorias con la misma distribucin de probabilidad

con matriz de

covarianza se define como:

59

Se puede construir una Red de Base Radial de Diseo Exacto, que produzca
error cero sobre los vectores de entrenamiento. Es decir con datos de entrada
en pares p, t (input y output) y con una determinada amplitud se puede
obtener una red con pesos y umbrales cuya salida sea exactamente t cuando
la entrada es p. Para ello se tienen que crear tantas neuronas ocultas con
funcin radial como vectores input se tiene en p. En este caso se establece
como umbral de la capa oculta 0.8326/amplitud, y los pesos de la capa oculta
a la de salida y los umbrales de la capa de salida se determinan mediante la
expresin:
[W {2,1}b{2}] * [ A{1}; ones ] T

Teniendo en cuanta que podemos conocer A{1} y T se puede obtener W y b


aplicando:
[W b]=T/[P;ones(1,Q)]
Donde Q es el nmero de vectores de entrada (que en este caso equivale al
nmero de neuronas de la capa de entrada).

60

E. Redes Neuronales Recurrentes


E.1. Arquitectura
Son redes neuronales que no estn sometidas a la restriccin de conectividad,
que consiste en no permitir conexiones entre neuronas creando ciclos o
bucles. Estas redes se engloban bajo el nombre de redes neuronales
recurrentes.
Existen varias arquitecturas de redes recurrentes que aparecen en la literatura
que tienen sus algoritmos de aprendizaje. Es importante tener una visin
global de este grupo de redes, especialmente las arquitecturas ms conocidas
y utilizadas.
Las redes de neuronas recurrentes se caracterizan porque se crean bucles en
las neuronas de la red mediante el uso de las llamadas conexiones
recurrentes, pudiendo aparecer en la red conexiones de una neurona con ella
misma, conexiones entre neuronas de una misma capa o conexiones de las
neuronas de una capa a la capa anterior.
La consideracin de conexiones recurrentes en una red de neuronas implica,
generalmente, un aumento del nmero de pesos o parmetros ajustables en la
red, lo cual permite que aumente la capacidad de representacin, pues en las
redes de neuronas artificiales la informacin se representa de manera
distribuida en los pesos de las conexiones y/o en las propias neuronas. Sin
embargo, el aumento de parmetros ajustables, complica el aprendizaje de las
redes recurrentes. En la Figura 21 que se presenta a continuacin se aprecian
ejemplos de conexiones recurrentes:

Figura 21. Ejemplos de neuronas con conexiones recurrentes.

61

Al introducir conexiones recurrentes creando bucles, la activacin de una


neurona con conexiones recurrentes ya no depende slo de las activaciones
de las neuronas en la capa anterior, sino que depende tambin del estado o
activacin de cualquier otra neurona de la red conectada a ella, o incluso de
su propia activacin. Por tanto, en el contexto de redes de neuronas
recurrentes es necesario incluir la variable tiempo en la activacin o estado de
una neurona, la cual viene dada por la ecuacin:
ai (t 1) f i ( w ji a j (t ))
j

donde el ndice j vara en el conjunto de todas las neuronas conectadas a la


neurona i.
La presencia de la variable tiempo en las activaciones de las neuronas
recurrentes, hace que estas redes posean un comportamiento dinmico o
temporal. Dicho comportamiento temporal puede entenderse de dos formas
diferentes, lo cual implica dos maneras distintas de entender el modo de
actuacin y aprendizaje dentro del grupo de redes recurrentes. Estos son:
Evolucin de actividades de las red hasta alcanzar un punto estable; y
Evolucin de actividades de las red en modo continuo. Dentro del primer
grupos est la red ms conocida de las redes recurrentes, cual es la Red de
Hopfield.
Red de Hopfield
Es un modelo de memoria asociativa de patrones o muestras, que es capaz
de recuperar patrones almacenados a partir de informacin incompleta sobre
los patrones o incluso a partir de patrones con ruido.
Debido a la arquitectura y al funcionamiento, la red de Hopfield se puede
incluir dentro de las redes de neuronas recurrentes, pues todas las neuronas
estn conectadas con todas las dems, adems de existir un procesamiento
temporal de los patrones. Sin embargo, lo que la diferencia del resto de las
redes de neuronales recurrentes es que acta como memoria asociativa,
procesando patrones generalmente estticos, es decir, patrones en las que no
interviene la variable tiempo.

62

S2

S1

S3

S4

Figura 22. Red de Hopfield para n= 4

La red de Hopfield est formada por n neuronas, cada una conectada a todas
las dems salvo a ella misma, como se muestra en la Figura 22. La matriz de
conexiones de la red de Hopfield es una matriz W = ( wij ) de orden n x n,
donde

ij

representa el peso de la conexin de la neurona i a la neurona j.

Dicha matriz posee las siguientes particularidades :


Es una matriz simtrica, es decir

ij

ij

i, j=1,,n. Esto implica que el

peso de la conexin de la neurona i a la neurona j es igual al peso de la


conexin de la neurona j a la neurona i.
Los elementos de la diagonal de la matriz son iguales a cero, es decir,

ij

= 0,

i = 1,,n, debido a que en la red de Hopfield no existen conexiones de una

neurona a ella misma.


Con base al concepto formal de neurona de McCulloch-Pitts, las neuronas de
la red de Hopfield poseen dos estados, generalmente -1 y 1, que vienen
determinados por el nivel o potencial de activacin que recibe la neurona. De
este modo, el estado de la neurona i en un instante de tiempo t + 1, denotado
como s i (t+1) , viene dado por:

s (t 1) sgn( v (t 1))
i

63

donde sgn es la funcin signo dada por :


sgn vi (t 1)) 1 si vi (t 1) 0

1 si vi (t 1)0
y vi (t 1) es el nivel de activacin que acta sobre la neurona i, calculado
como:
n

vi (t 1) w ji s j (t ) ui ; para i = 1,2,..., n
j 1

donde s j (t) es el estado de la neurona j en el instante anterior t y u i es un


umbral fijo aplicado a la neurona i.
En el caso de que el nivel de activacin que recibe la neurona, v i (t+1), sea
igual a cero, se considera que el estado de la neurona no cambia con respecto
al instante de tiempo anterior, es decir, s i (t+1) = s i (t).
De las definiciones anteriores, se observa que para la red de Hopfield no tiene
sentido hablar de neuronas de entrada o salida de la red, sino del estado de la
red en cada instante de tiempo. Para una red de Hopfield con n neuronas, el
estado viene dado por:

s(t 1) s1 (t 1) , s2 (t 1),..., sn (t 1)

donde el smbolo t denota la matriz transpuesta. Dicho estado s representa


una palabra binaria de n bits de informacin.
E.2. Aprendizaje
En la red de Hopfield se distinguen dos fases de operacin, llamadas fase de
almacenamiento y fase de recuperacin. Durante la fase de almacenamiento
se van a determinar los valores que deben tomar los pesos de la red para
almacenar un conjunto de patrones, y la fase de recuperacin describe el
mecanismo para recuperar la informacin almacenada a partir de informacin
incompleta.
Fase de almacenamiento
Sea x(k ) ( x1 (k ), x2 (k ),..., xn (k ))k 1,..., p , el conjunto de patrones que se desea
almacenar, donde cada patrn X(K) es un vector n-dimensional cuyas
componentes toman valores binarios, es decir, valores -1 o 1. De acuerdo con
la regla de Hebb (Hebb, 1949) para almacenar patrones, el peso de la

64

conexin de la neurona j a la neurona i en la red de Hopfield viene dado por


p

w ji x j (k )xi (k ) i j
k 1

En la ecuacin anterior de observa que si x j (k) y x i (k) son iguales [x j (k) = x i


(k) = 1 o -1 ] el valor del peso w ji se incrementa en una unidad, y en cualquier
caso, el valor del peso se decrementa en una unidad.
Fase de recuperacin

x ( x1 , x2 ,..., xn )

Sea

un patrn de prueba, diferente a los patrones

almacenados en la fase anterior. Dicho patrn representa, generalmente, una


versin de algn patrn almacenado x(k) con informacin incompleta o ruido.
Mediante esta fase, la red de Hopfield va a recuperar el patrn almacenado
ms parecido al patrn de prueba x.

Para ello, sigue el siguiente

procedimiento :
Se inicializan los estados de las n neuronas de la red utilizando dicho patrn x,
es decir :
Si(0) = Xi para i = 1,2,,n
Se calculan los estados de la red en los siguientes instantes de tiempo
utilizando las ecuaciones de s i (t 1) , sng vi (t 1) y de

vi (t 1)

hasta

conseguir un punto estable o punto fijo de la red, entendiendo como punto


estable aquel en el que los estados de todas las neuronas de la red
permanecen invariantes con el tiempo, es decir :

s (t 1) s (t ) i 1,2,..., n
i

El estado estable de la red representa el patrn recuperado a partir del patrn


de prueba x.
Es posible que durante la fase de recuperacin la red de Hopfield converja a
estados estables que no corresponden con los patrones almacenados. Dichos
estados reciben el nombre de estados esprios y, generalmente, vienen
producidos por el almacenamiento de un nmero elevado de patrones. Dicho
problema puede ser ligeramente corregido aplicando la regla de Hebb al revs
(Hopfield et al., 1983)
Funcin energa

65

Se ha visto que para otros tipos de redes, como el PERCEPTRON multicapa,


los mapas auto-organizados de Kohonen, etc., existe una funcin error o
funcin energa que describe el comportamiento de dichas redes y permite
entender su funcionamiento. En el caso de la Red de Hopfield tambin existe
dicha funcin, como se presenta a continuacin.
Dada una red de Hopfield con n neuronas y conexiones W = (w ij ), siendo W
una matriz simtrica y con ceros en la diagonal, la funcin energa asociada a
dicha red viene dada por la siguiente ecuacin de E:
n
1 n n
E wij si s j ui si
2 i 1 j 1
i 1

Separando la contribucin de una neurona K a la funcin energa dada por la


expresin anterior, se puede escribir que:
E

1
1
1
wij xi x j u i si s k wkj s j s k wik si u k s k

2 ik j k
2
2
ik
j
I

El cambio de estado de la neurona K de la red, denotado como

s k s k (t 1) s k (t ), produce un cambio en al funcin energa, denotado como


E E (t 1) E (t ) , el cual, de acuerdo con la ecuacin anterior, adopta la

siguiente expresin:
1
1
E s k wkj s j s k wik si u k s k
2
2
j
j

Debido a que las conexiones de la red de Hopfield son simtricas, se puede


escribir :

E s k w jk s j u k
j

Por tanto, cuando los estados de la red cambian siguiendo las ecuaciones de
s i (t 1) , sgn vi (t 1) y de vi (t 1) , E es siempre negativo, por lo que la
funcin E es montona decreciente respecto a los estados de la red. De este
modo, el punto estable de la red de Hopfield se corresponde con un mnimo
local de la funcin energa. De hecho, la manera de modificar los estados de
la red en la fase de recuperacin (ecuaciones de s i (t 1) , sgn vi (t 1) y de

vi (t 1)) no es ms que el resultado de aplicar el mtodo de descenso del

66

gradiente para encontrar un mnimo de la funcin energa dada por la


Ecuacin E de la funcin energa, antes presentada.
Debido a que un mnimo local de la funcin energa se corresponde con un
punto estable de la red de Hopfield, todo problema de optimizacin que pueda
escribirse en trminos de la funcin energa (Ecuacin de E ) puede ser, en
principio, resuelto con la red de Hopfield asociada a dicha funcin. As, por
ejemplo, una aplicacin interesante de la red de Hopfield, desde el punto de
vista terico, es el problema del viajante, en el que se busca la distancia
mnima ente n ciudades. Hopfield formul dicho problema en trminos de la
funcin energa dada por la Ecuacin de E.
F. Redes de Aprendizaje no Supervisado:
F.1. Arquitectura
Caractersticas bsicas
Las Redes de Neuronas Artificiales con aprendizaje no supervisado son
aquellas que no necesitan de un profesor o supervisor externo para realizar su
aprendizaje. Son capaces de modificar sus parmetros internamente,
adaptndose al entorno de la mejor manera posible. Biolgicamente, existen
claros ejemplo de aprendizaje no supervisado, as como de supervisado.
La no supervisin consiste en que la red descubra por s sola caractersticas,
regularidades, correlaciones o categoras en los datos de entrada, y se
obtengan de forma codificada a la salida. Por tanto, se puede decir que estas
unidades y conexiones muestran cierto grado de auto-organizacin.
El aprendizaje no supervisado slo consigue resultados tiles si en los datos
de entrada existe cierto tipo de redundancia. Sin redundancia sera imposible
encontrar patrones o caractersticas en los datos, lo cual se asemeja
necesariamente a ruido aleatorio. En este sentido, la redundancia es fuente
de conocimiento.

Ello significa que el contenido total de informacin del

conjunto de los datos de entrada es menor que el mximo que podra ser
soportado por el mismo canal; esa diferencia es la redundancia.
Regla de Hebb
Hebb (1949) postul un sencillo pero potente mecanismo de regulacin de las
conexiones neuronales, que constituy la base de las reglas de aprendizaje
que ms tarde se desarrollaran. La regla de Hebb, en su versin ms

67

elemental se expresa como sigue : Cuando un axn de una clula A est


bastante cerca para excitar a una clula B y repetida o presistentemente
dispara, entonces se produce algn proceso de

desarrollo o cambio

metablico de tal forma que la eficiencia del disparo de A hacia B aumenta.


La propuesta de Hebb es de especial

relevancia porque indica que la

informacin necesaria para modificar el valor de una conexin se encuentra


localmente disponible a ambos lados de la conexin. En la actualidad existe
un gran nmero de redes neuronales cuyo aprendizaje est basado en la regla
de Hebb como las conocidas de Hopfield (1982) y algunos modelos de redes
propuestos por Kohonen (1977).
La regla de modificacin sinptica en este tipo de redes no depende de ningn
factor externo; slo hace que las neuronas vayan incluyndose unas a otras, a
partir de las reacciones a los estmulos recibidos.
Modelo de interaccin lateral.
Este modelo propone que la red puede adaptar sus respuestas de tal forma
que la posicin de la neurona que produce la respuesta pasa a ser especfica
de una determinada caracterstica de la seal de entrada. Esta especificidad
se da en el mismo orden topolgico para la red que el que existe entre las
caractersticas de las seales de entrada. Esto significa que la estructura
topolgica de la red absorbe a su vez aquella que se produce entre las
caractersticas de los datos, y por tanto el sistema no slo es capaz

de

realizar una clasificacin de estmulos, sino que adems pondr de relieve y


conservar las relaciones existentes entre las diferentes clases obtenidas.
Hay varios modelos de Redes de Neuronas Artificiales que tratan de
incorporar las propiedades anteriores. Para ello cada neurona est conectada
con otras de su entorno de manera que produce una excitacin en las ms
prximas y una inhibicin en las ms alejadas. Tanto la excitacin como la
inhibicin laterales son gradualmente ms dbiles a medida que nos alejamos
de la neurona en cuestin.
Este mecanismo hace que cuando un estmulo produce una reaccin en una
clula, las clulas de su inmediato entorno se vean influenciadas por dicha
reaccin, de una manera positiva las ms cercanas, y negativa las ms
alejadas.

Igualmente, a medida que la seal se aleja de la clula que la

68

produjo, esa influencia va progresivamente debilitndose. De esta manera el


orden de las neuronas influye directamente en la forma en que las seales van
a ser propagadas a travs de la red, y en la respuesta de la misma.
Aprendizaje competitivo.
La arquitectura de una red de neuronas artificial con aprendizaje competitivo
es la siguiente. Existen dos capas denominadas F1 y F2. La capa F1 es la
llamada capa de entrada y recibe los datos de entrada (seales de entorno).
La capa F2 es la capa de competicin y se encarga de producir la salida.
Cada clula de la capa F1 est conectada con todas las clulas de la capa F2
a travs de conexiones ponderadas variables.

Por su parte la capa F2,

adems de recibir las entradas de la capa F1 tiene conexiones laterales


inhibitorias entre todas las clulas de su capa, excepto consigo misma, en que
la conexin es excitatoria. Las conexiones existentes en la capa F2 son fijas y
el valor es asignado en el momento de creacin de la red. Esta arquitectura es
un sistema de interaccin lateral en el que la funcin de interaccin de cada
neurona slo toma valores positivos para un radio de cero, es decir, para la
propia neurona, y valores negativos constantes para el resto de neuronas.
Cada neurona se refuerza a s misma, realimenta su valor de activacin para
compensar las inhibiciones que provienen del resto de la neuronas de su
capa. Ver figura 23.

F2

F1
Figura 23. Arquitectura de una red de aprendizaje competitivo

F.2. Aprendizaje
Aprendizaje competitivo. Es un tipo de aprendizaje no supervisado que sirve
de base para varios modelos de Redes de Neuronas Artificiales. El objetivo
de estas redes es categorizar los datos de entrada. As los datos parecidos

69

deben ser clasificados como pertenecientes a la misma categora. En estos


modelos de red suele haber una capa de clasificacin compuesta de tantas
neuronas como categoras pueda haber en los datos. Cada categora est
representada por un prototipo cuyas caractersticas son una especie de
compendio de las caractersticas de los datos pertenecientes a esa misma
categora. En la capa de clasificacin, cada neurona corresponde a un
prototipo. El sistema debe relacionar cada neurona, prototipo, con los datos de
entrada que representa. Es decir, es agrupa los datos de entrada en
categoras, por similitud, y se asigna a cada categora un prototipo, que ms
tarde ser utilizado para clasificar datos nuevos y desconocidos.
Cuando se recibe una entrada en la capa F!, sta se propaga hasta la capa
F2, cuyas neuronas tendrn un valor de activacin proporcional al valor de la
entrada propagada. Esta proporcin vendr dada por los valores de la
conexiones entre F1 y F2 (W ij ) . Una vez que las neuronas de F2 han sido
activadas por la capa F1, sta deja de actuar, y la seal es propagada, de
forma asncrona, a travs de la capa F2, de manera que todas las neuronas
tratarn de impedir que las dems tengan un valor de activacin alto, gracias
a las conexiones inhibitorias con todas sus vecinas; a la vez que intentarn
tener ellas mismas un valor de activacin alto, gracias a las conexiones
reflexivas excitatorias. Ver Figura 24.

Figura 24. Arquitectura de red con capa de


aprendizaje competitivo (Matlab)

El algoritmo que describe el funcionamiento de la red es el siguiente :


Se recibe el estmulo en F1.

70

Se propaga la seal hasta F2 y se calcula el valor de excitacin para cada


neurona de F2.
Se inhiben las conexiones entre la capa F1 y la F2.
Se propaga la seal por la capa F2, calculndose los nuevos valores de
excitacin de las neuronas.
Cuando slo haya una clula (clula ganadora) con un valor de salida mayor
que cero, ir al paso 5.
Ir al paso 3.
Restablecer las conexiones entre las capas F1 y F2
Calcular los nuevos valores para los pesos de las conexiones entre la capa F1
y la clula neurona ganadora en el paso 3
La capa F2 se ha estabilizado cuando todas las salidas de las neuronas tienen
un valor de cero, excepto una, que ser la que al principio ha recibido la
entrada ms alta de la capa F1, ya que ser la que habr inhibido en mayor
grado al resto y tambin habr reforzado a s misma en mayor grado.
Las neuronas de la capa F2 compiten por la entrada, de ah el nombre del
mtodo. La neurona que gana la competicin: neurona ganadora. Esta
representa al prototipo que se asigna al dato de entrada. La siguiente vez el
mismo dato de entrada har activarse an ms a su prototipo relacionado,
para cada dato de entrada se realiza un ciclo de aprendizaje. Las conexiones
entra la capa F1 y la neurona ganadora son reforzadas. Este aprendizaje slo
modifica las conexiones de la neurona ganadora. Esto hace que en el futuro
cada neurona tanga an mayor facilidad para reconocer el estmulo que
aprendi, e incluso estmulos parecidos.
Redes del tipo no supervisado, que se han desarrollado a partir de los
estudios antes mencionados son las de Mapas Autoorganizativos de Kohonen
y las de Teora de la Resonancia Adaptativa ART. Ver Figura adjunta.

71

Figura 24a. Arquitectura de red con capa de mapa


auto organizativo (Matlab)

Sobre las ventajas de las Redes Neuronales Artificiales


(HAYKIN, S.,1994; ZORRIASSATINE, F. y TANNOCK, D. ,1998)
Debido a su constitucin y a sus fundamentos, las RNA presentan un gran
nmero de caractersticas semejantes a las del cerebro. Por ejemplo, son
capaces de aprender de la experiencia, de generalizar de casos anteriores a
nuevos casos, de abstraer caractersticas esenciales a partir de entradas que
representan informacin irrelevante, etc. Esto hace que ofrezcan numerosas
ventajas y que este tipo de tecnologa se est aplicando en mltiples reas.
Estas ventajas incluyen:
1) Aprendizaje Adaptativo: Es una de las caractersticas ms atractivas de las
redes neuronales, es la capacidad de aprender a realizar tareas basadas en
un entrenamiento o una experiencia inicial.
En el proceso de aprendizaje, los enlaces ponderados de las neuronas se
ajustan de manera que se obtengan unos resultados especficos. Una RNA no
necesita un algoritmo para resolver un problema, ya que ella puede generar su
propia distribucin de los pesos de los enlaces mediante el aprendizaje.
Tambin existen redes que continan aprendiendo a lo largo de su vida,
despus de completado e periodo inicial de entrenamiento.
La funcin del diseador es nicamente la obtencin de la arquitectura
apropiada. No es problema del diseador el cmo la red aprender a
discriminar; sin embargo, si es necesario que desarrolle un buen algoritmo de
aprendizaje que proporcione la capacidad de discriminar de la red mediante un
entrenamiento con patrones.

72

2) Autoorganizacin: Las redes neuronales usan su capacidad de aprendizaje


adaptativo para organizar la informacin que reciben durante el aprendizaje
y/o la operacin. Una RNA puede crear su propia organizacin o
representacin de la informacin que recibe mediante una etapa de
aprendizaje. Esta autoorganizacin provoca la facultad de las redes
neuronales de responder apropiadamente cuando se les presentan datos o
situaciones a los que no haban sido expuestas anteriormente.
3) Tolerancia a Fallos: Comparados con los sistemas computacionales
tradicionales, los cuales pierden su funcionalidad en cuanto sufren un pequeo
error de memoria, en las redes neuronales, si se produce un fallo en un
pequeo nmero de neuronas, aunque el comportamiento del sistema se ve
influenciado, sin embargo no sufre una cada repentina.
Hay dos aspectos distintos respecto a la tolerancia a fallos: primero, las redes
pueden aprender a reconocer patrones con ruido, distorsionados, o
incompleta. Segundo pueden seguir realizando su funcin (con cierta
degradacin) aunque se destruya parte de la red.
La razn por la que las redes neuronales son tolerantes a fallos es que tienen
su informacin distribuida en las conexiones entre neuronas, existiendo cierto
grado de redundancia en ese tipo de almacenamiento, a diferencia de la
mayora de los ordenadores algortmicos y sistemas de recuperacin de datos
que almacenan cada pieza de informacin en un estado nico, localizado y
direccionable.
4) Operacin en Tiempo Real: Los computadores neuronales pueden ser
realizados en paralelo, y se disean y fabrican mquinas con hardware
especial para obtener esta capacidad.
5) Fcil insercin dentro de la tecnologa existente. Debido a que una red
puede ser rpidamente entrenada, comprobada, verificada y trasladada a una
implementacin hardware de bajo costo, es fcil insertar RNA para
aplicaciones especficas dentro de sistemas existentes (chips, por ejemplo).
De esta manera, las redes neuronales se pueden utilizar para mejorar
sistemas de forma incremental, y cada paso puede ser evaluado antes de
acometer un desarrollo ms amplio.

73

Sobre aplicaciones de las Redes Neuronales Artificiales


(ISASI, P. y GALVAN, I., 2004; MARTIN DEL BRIO, B., SANZ MOLINA A.,

2002; HILERA J. y MARTINEZ V., 2000; HAGAN, M., DEMUTH, H., VALE,
M.,1996;

HAYKIN, S.,1994 )

Las redes neuronales son una tecnologa computacional emergente que


puede utilizarse en un gran nmero y variedad de aplicaciones, tanto como
comerciales como militares.
Hay muchos tipos diferentes de redes neuronales, cada uno de los cuales
tiene una aplicacin particular ms apropiada. Separndolas segn las
distintas disciplinas algunos ejemplos de sus aplicaciones son:
Biologa:

Aprender ms acerca del cerebro y otros sistemas.

Obtencin de modelos de la retina.

Empresa

Reconocimiento de caracteres escritos.

Identificacin de candidatos para posiciones especficas.

Optimizacin de plazas y horarios en lneas de vuelo.

Explotacin de bases de datos.

Evaluacin de probabilidad de formaciones geolgicas y petrolferas.

Sntesis de voz desde texto.

Medio Ambiente

Analizar tendencias y patrones.

Previsin del tiempo.

Finanzas

Previsin de la evolucin de los precios.

Valoracin del riesgo de los crditos.

Identificacin de falsificaciones.

Interpretacin de firmas.

Manufactura

Robots automatizados y sistemas de control (visin artificial y sensores


de presin, temperatura, gas, etc.)

Control de produccin en lneas de proceso.

74

Inspeccin de calidad.

Filtrado de seales.

Medicina

Analizadores del habla para la ayuda de audicin de sordos profundos.

Diagnstico y tratamiento a partir de sntomas y/o de datos analticos


(encefalograma, etc.).

Monitorizacin en ciruga.

Prediccin de reacciones adversas a los medicamentos.

Lectoras de Rayos X.

Entendimiento de causa de ataques epilpticos.

Militares

Clasificacin de las seales de radar .

Creacin de armas inteligentes.

Optimizacin del uso de recursos escasos.

Sobre software
(PRESSMAN, R.;2002)
El software son las instrucciones electrnicas que van a indicar al ordenador
que es lo que tiene que hacer. Tambin se puede decir que son los programas
usados para dirigir las funciones de un sistema de computacin o un
hardware.
Tipos :
a.- Sistema operativo: es el software que controla la ejecucin de todas las
aplicaciones y de los programas de software de sistema.
b.- Programas de ampliacin: o tambin llamado software de aplicacin; es el
software diseado y escrito para realizar una tarea especifica, ya sea
personal, o de procesamiento. Aqu se incluyen las bases de datos,
tratamientos de textos, hojas electrnicas, grficas, comunicaciones, etc..
c.- Lenguajes de programacin: son las herramientas empleadas por el
usuario para desarrollar programas, que luego van ha ser ejecutados por el
ordenador.

75

Sobre software de aplicacin


Describe programas que son para el usuario, as descrito para poder realizar
casi cualquier tarea. Este es aquel cuyo que puede ser utilizado en cualquier
instalacin informtica, independiente del empleo que vayamos a hacer de
ella. Como existen muchos programas se dividen en varias categoras:
a. Aplicaciones de negocios: en esta se encuentran los procesadores de
palabras, hojas de clculos, base de datos, Graficadores.
b. Aplicaciones de Utilera
c. Aplicaciones Personales
d. Aplicaciones de Entretenimiento
Procesadores de palabras: Estos permiten hacer cambios y correcciones con
facilidad, permiten revisar la ortografa e incluso la gramtica de un
documento, cambiar la apariencia de la letra, agregar grficos, fusionar listas
de direcciones con cartas con envo de correo en grupo, general tablas de
contenido, etc. Tambin se puede usar para crear cualquier tipo de documento
(carta de negocio, documentos legales).
Hojas de clculo: son procesadores de nmeros tridimensionales. Se pueden
crear hojas de trabajo donde puedes colocar textos, nmeros o formulas en
las celdas, obteniendo una hoja contable computarizada. Tambin puede crear
grficas y tablas para mostrar grficamente relaciones entre nmeros.
Graficadores: Se utilizan para crear ilustraciones desde cero (0) los; usuarios
pueden pintar con dispositivos electrnicos de sealamiento en vez de lpices
o brochas. Otro tipo de software para grfico son las aplicaciones para
presentaciones de grficos con este se crean grficas y tabla a color y de
calidad profesional basados en datos numricos de otro programa (hoja de
calculo).
Manejador de base de datos: Se utiliza para organizar los datos guardados en
la computadora y permite buscar datos especficos de diferentes maneras.
Tambin archivan los datos en orden alfabtico esto permite obtener la
informacin que se desean ms fcilmente.
Sobre los pasos para el desarrollo de un software.
1. Especificacin del programa.
2. Diseo del programa

76

3. Codificacin del programa


4. Prueba
5. Documentacin
6. Mantenimiento
1. Especificacin del programa
Se conoce tambin como definicin del problema o anlisis del programa. En
este paso se determinan la informacin inicial para la elaboracin del
programa. Es donde se determina qu es lo que debe resolverse con el
computador, de qu presupuestos se debe partir en definitiva, Del
planteamiento del problema.
2 . Diseo del programa
Es disear cualquier sistema nuevo o las aplicaciones que se requieren para
satisfacer

las

necesidades.

Esta

actividad

se

debe

dividir

en:

- Operaciones de entrada/ salida


- Clculos
- Lgica/ comparacin
- Almacenamiento/ consulta
En este paso se genera una solucin con tcnicas de programacin como
diseo descendente de programas, pseudocdigos, flujogramas y estructuras
lgicas.
3. Codificacin del programa
Es la generacin real del programa con un lenguaje de programacin. En esta
etapa se hace uso de la lgica que desarroll en el paso del diseo del
programa para efectivamente generar un programa. Se debe seleccionar el
lenguaje apropiado para resolver el problema.
4. Prueba y depuracin del programa
Depurar es correr el programa en una computadora y corregir las partes que
no funcionan. En esta fase se comprueba el funcionamiento de cada programa
y esto se hace con datos reales o ficticios. Cuando los programas estn
depurados, se prueban.
5. Documentacin del programa

77

Consiste en describir por escrito a nivel tcnico los procedimientos


relacionados con el programa y su modo de uso. Tambin se debe
documentar el programa para que sea ms entendible.
6. Mantenimiento del programa
Es el paso final del desarrollo del software. Alrededor del 75% del costo total
del ciclo de vida de un programa se destina al mantenimiento. El propsito del
mantenimiento es garantizar que los programas en uso estn libres de errores
de operacin y sean eficientes y efectivos.
Sobre software de redes neuronales artificiales
(Extrado de las pginas Web de las empresas fabricantes)
Neuroshell Trader de NeuroShell
La herramienta ms completa y laureada para el anlisis de los mercados
financieros utilizando redes neuronales, anlisis fractal y algoritmos genticos.
Especialmente de inters para el trader es su producto ad hoc. Neuroshell
Trader, adaptado para los que sin tener un conocimiento exhaustivo sobre la
materia, estn interesados en aplicar esta disciplina en sus inversiones.
Son uno de los lderes en Inteligencia Artificial hay muchas aplicaciones que
se han desarrollado en campos como al medicina, psicologa y otras ciencias.
Lenguaje sumamente amigable que permite construir diversas redes con los
datos que se tengan sin necesidad de conocer mucho de redes neuronales.
Su ms reciente desarrollo Turbo prop 2, permite construir arquitecturas y
desarrollar sus propios programas. Para programar usa los Lenguajes C++,
C# Visual Basic, y permite trabajar con cuatro tipos de algoritmos que son
los del Predictor, Classifier, GRNN y PNN.

Figura 25. Logotipo NeuroShell

78

NeuroSolutions de NeuroDimension
NeuroSolutions es una herramienta grfica para el desarrollo de redes
neuronales, que combina una interfaz de diseo modular y basada en iconos
con la implementacin de procedimientos de aprendizaje avanzados y
optimizacin gentica. El resultado es un entorno prcticamente ilimitado para
el diseo de redes neuronales para investigacin y para la resolucin de
problemas reales. Permite trabajar con arquitecturas de Pereptrn Multicapa,
Redes de Elman y Jordan, Mapas Auto organizados, Redes de Base radial,
Redes Probabilsticas (PNN), Redes de regresin general gRAN, Redes Neuro
Fuzzy (CANFIS), Redes con LVQ, Redes de Hopfield, Redes Recurrentes.
Tiene una interfase de usuario muy amigable que permite fcilmente realizar
trabajos con redes neuronales, pero no permite programar, ni entrar a la lgica
de sus programas.

Figura 26. Logotipo NeuroSolutions

MATLAB de Mathworks
Es un entorno de computacin y desarrollo de aplicaciones totalmente
integrado orientado para llevar a cabo proyectos en donde se encuentren
implicados elevados clculos matemticos y la visualizacin grfica de los
mismos. MATLAB integra anlisis numrico, clculo matricial, proceso de
seal y visualizacin grfica en un entorno completo donde los problemas y
sus soluciones son expresados del mismo modo en que se escribiran
tradicionalmente, sin necesidad de hacer uso de la programacin tradicional.
Pero tambin permite hacer programacin si se requiere.
MATLAB dispone tambin en la actualidad de un amplio abanico de
programas de apoyo especializados, denominados Toolboxes, que extienden
significativamente el nmero de funciones incorporadas en el programa
principal. Estos Toolboxes cubren en la actualidad prcticamente casi todas
las reas principales en el mundo de la ingeniera y la simulacin, destacando
entre ellos los Toolboxes de proceso de imgenes, seal, control robusto,

79

estadstica, anlisis financiero, matemticas simblicas, redes neuronales,


lgica difusa, identificacin de sistemas, simulacin de sistemas dinmicos,
etc. es un entorno de clculo tcnico, que se ha convertido en estndar de la
industria, con capacidades no superadas en computacin y visualizacin
numrica. Asimismo, permite poder programas desarrollar programas,
modificar programas aplicativos de redes neuronales y simular un conjunto
muy grande de redes neuronales y de comandos matemticos y estadsticos
relacionados.

Figura 27. Logotipo Matlab

SPRIN N de AERN
Principalmente hace predicciones en mercados de capitales mediante redes
neuronales.
El programa SprinN permite la utilizacin de diversos indicadores tcnicos. La
utilidad de los indicadores tcnicos radica en la posibilidad de incluir en los
proyectos o redes neuronales series derivadas de la original a travs de las
variables. Hace predicciones , entre otros de ndices burstiles, valores,
futuros, opciones, acciones, fondos de inversin, tipos de inters, materias
primas, mercados de divisas, renta variable, mercados derivados, ... cualquier
activo financiero en cualquier mercado de capitales. Utiliza tcnicas de
Inteligencia Artificial, redes neuronales Sistema dinmico que adapta su
arquitectura al problema planteado, el motor de prediccin, desarrollado por
AERN

aplicaciones

empresariales

con

redes

neuronales,

adapta

dinmicamente su arquitectura segn la definicin de cada proyecto predictivo.


Permite comprobar la bondad de las predicciones escoger el riesgo,
adaptndose a su perfil inversor operaciones a corto y a largo (short - long)
medir correlaciones entre distintos valores o activos financieros definir el
horizonte temporal de su inversin incorporar las comisiones, corretajes,
costes de intermediacin considerar indicadores del anlisis tcnico trabajar

80

con series temporales derivadas de las originales considerar otro tipo de


series temporales, por ejemplo series de opinin exportar los resultados
obtenidos
SprinN contempla los indicadores siguientes: media mvil simple y
exponencial,

desviacin

mvil

exponencial,

momento,

incremento,

incremento respecto a medias mviles, volatilidad , grado de volatilidad ,


indicador estocstico , medias del indicador estocstico, MACD simple e
incremental, RSI , ROC, Williams, desviacin estndar simple y exponencial,
oscilador simple y exponencial , oscilador relativo, ndice de Gumbel.

SprinN
Figura 28. Logotipo SprinN

81

1.3. Marco Conceptual


El Marco Conceptual de la Tesis comprende los siguientes conceptos:
ALGORITMOS
Los algoritmos son secuencias de operaciones u acciones a realizar para
resolver determinado problema. En informtica se utiliza el concepto para
describir un mtodo de resolucin de un problema que es adecuado para su
implementacin como programa de computadora.
APRENDIZAJE DE UNA RED NEURONAL ARTIFICIAL RNA
El aprendizaje de una RNA es un proceso de modificacin de los pesos de las
conexiones, hasta que la respuesta de la RNA acaba por reproducir las
propiedades buscadas. Ello luego se puede utilizar para resolver otros
problemas iguales o similares.
CALIDAD
La calidad es el conjunto de caractersticas que tienen un producto o servicio
que permiten satisfacer a los clientes. Ello implica cumplir con las
especificaciones establecidas en el diseo para satisfacer las necesidades de
los clientes. Un producto o servicio es de buena calidad cuando satisface las
necesidades de los clientes, cuanto ms satisface a los clientes se entiende
que es de mejor calidad.
INTELIGENCIA ARTIFICIAL IA
La IA tiene por objeto el estudio del comportamiento inteligente en las
mquinas. El comportamiento inteligente supone percibir, razonar, aprender,
comunicarse y actuar en entornos complejos. En el largo plazo, una de las
metas de la IA es el desarrollo de mquinas que puedan hacer todas estas
cosas igual o quiz incluso mejor que los humanos.
MEJORAMIENTO DE LA CALIDAD
Es el conjunto de actividades que se realizan en una empresa u organizacin
para mejora la satisfaccin de los clientes. Estas actividades estn
relacionadas con la mejora del diseo inicial del producto o con la mejora de
los procesos que se siguen para transformar las entradas en el producto o
servicio final. En el mundo competitivo actual estamos obligados a mejorar la
calidad de manera permanente.

82

REDES NEURONALES ARTIFICIALES


Las Redes Neuronales Artificiales (RNA) son sistemas de procesamiento de la
informacin cuya estructura y funcionamiento estn inspirados en las redes
neuronales biolgicas. Consisten en un conjunto de elementos simples de
procesamiento llamados nodos o neuronas artificiales conectadas entre s por
conexiones que tienen un valor numrico modificable llamado peso.
La actividad que una neurona artificial realiza, consiste en sumar los valores
de las entradas (inputs) por sus pesos, respectivos, que recibe de otras
unidades conectadas a ella; dicha sumatoria ingresa a una funcin de
activacin, la misma que permite obtener salidas (ontput).

Una RNA es

entrenada para realizar una determinada tarea, mediante un proceso de


aprendizaje.
REDES NEURONALES (BIOLGICAS)
Son la base del funcionamiento del sistema nervioso de los animales y del ser
humano. Son conjuntos de neuronas articuladas entre s mediante
conexiones, y que recepcionan

estmulos, los procesan y transmiten la

informacin procesada. El sistema nervioso y hormonal, en conexin con los


rganos de los sentidos y los rganos efectores (msculos, glndulas),
recogen informacin, la transmiten y elaboran, en parte tambin la almacenan
y la envan de nuevo en forma elaborada. El sistema de informacin neuronal
se compone de tres partes: los receptores, el sistema nervioso y los rganos
efectores. El elemento estructural y funcional ms esencial, en el sistema de
comunicacin neuronal, es la clula nerviosa o neurona. Las neuronas estn
conectadas entre s formando redes.
SISTEMAS EXPERTOS SE
Son una rama

de la IA que hace un amplio uso del conocimiento

especializado para resolver problemas como un especialista humano. Es un


sistema de cmputo

que emula la habilidad de tomar decisiones de un

especialista humano. El concepto bsico de un SE, es que el usuario aporta


los hechos al SE y recibe consejo como respuesta.
SOFTWARE
Conjunto de instrucciones detalladas que controlan la operacin de un sistema
computacional, de manera que pueda resolver problemas especficos.

83

Comprende programas de cualquier tamao y arquitectura, documentos que


comprenden formularios virtuales e impresos y datos que combinan nmeros y
texto y tambin incluyen representaciones de informacin de audio, video e
imgenes.
Los Software de IA hacen uso de algoritmos no numricos para resolver
problemas complejos para los que no son adecuados el clculo o el anlisis
directo.
SOFTWARE - PASOS PARA DESARROLLAR UN SOFTWARE.
Dependen del tipo de software que se construye. Por lo general comprende:
Especificacin del programa, Diseo del programa, Codificacin del programa,
Prueba, Documentacin y Mantenimiento.

84

1.4.

Marco Filosfico

ANTECEDENTES
Los filsofos griegos Platn, Scrates y Aristteles, se consideran como los
precursores sobre la Inteligencia Artificial; es as que entre sus diversos
escritos se pueden citar:
Platn que cita un dilogo en el que Scrates le pregunta a Eutidemo (359
A.C.) Deseara saber cul es la caracterstica de la piedad que hace que una
accin se pueda considerar como pa... y as la observe y me sirva de norma
para juzgar tus acciones y las de otros. All Scrates deseaba un algoritmo
que permita diferenciar entre la piedad e impiedad. Por su parte Aristteles
concibi un sistema informal de silogismos para el razonamiento adecuado y
que no todas las partes de la mente estaban gobernadas por procesos lgicos.
Es as que en un inicio se considera la existencia de un conjunto de reglas
sobre el funcionamiento de la mente.
Posteriormente Descartes (1596-1650) introduce la diferencia entre mente y
materia. Asimismo, plantea que si la mente fuera puramente fsica no cabra el
libre albedro. Para superar este problema introduce la nocin de dualismo:
que existe algo aparte de la mente que est al margen de la influencia de las
leyes fsicas: el alma o espritu.
Luego el materialismo de Leibnitz (1646-1716) considera que todo: mente y
cerebro, funciona sujeto a leyes fsicas.
Nuevos filsofos ms actuales, como Lewis, Putman, Rorty y otros sostienen
una posicin intermedia, con variantes, que sostiene que la mente tiene una
base fsica, pero rechaza que esta pueda explicarse reducindola a un mero
proceso fsico.
Por otra parte, a lo largo de los ltimos aos la filosofa configur una tradicin
de que la mente era un dispositivo fsico que bsicamente funcionaba por
razonamiento manejando el conocimiento en l depositado. Entonces, surge el
problema sobre la fuente de conocimiento. El movimiento emprico, iniciado
por Bacon (1561-1626) y Locke (1632-1704) sostiene Nada existe en la
mente que no haya pasado antes por los sentidos. Hume (1711-1776) en su
Tratado de la Naturaleza Humana propone el principio de la induccin: las
reglas generales se obtienen por contacto con repetidas asociaciones entre

85

sus elementos. Rusell (1872-1970) introduce el positivismo lgico, sosteniendo


que el conocimiento se puede caracterizar mediante teoras relacionadas
(oraciones de observacin que corresponden a entradas sensoriales. Es
posible comprobar o rechazar toda aseveracin significativa sea analizando el
significado de las palabras o llevando a cabo experimentos). Luego Carnap y
Hempel, introducen la teora de la confirmacin para intentar definir el tipo de
conexin entre oraciones de observacin y otras teoras de carcter ms
general (comprender cmo se puede obtener conocimiento a partir de la
experiencia).
Otro elemento de la descripcin filosfica de la mente es la relacin que existe
entre conocimiento y accin (slo al comprender cmo se justifican
determinadas acciones se puede entender cmo construir un agente cuyas
acciones sean justificables o racionales). Al respecto trata Aristteles en su
tica Nicomaquea (... nadie cuestiona su fin. Este se da por sentado y se
considera el cmo y los medios para alcanzarlo... pero si resultara que algo es
imposible, se renunciara a su obtencin..). Este enfoque de Aristteles fue
retomado por Newell y Simon (Solucionador General de Problemas,1961),
donde los principales mtodos el SGP conjuntan la heurstica del anlisis de
medios y fines. Aqu se enlazan el fin con los medios necesarios (uno a
continuacin de otro), usando una argumentacin basada en el sentido
comn. La limitacin es que no se puede definir que hacer cuando existen
varias acciones mediante la cules se puede obtener lo mismo o cuando no
hay una accin que permita obtener lo que se desea.
Las grandes interrogantes de los filsofos relacionadas con la IA son: Qu
permite al cerebro funcionar, cmo funciona el intelecto humano y es posible
que los seres no humanos tengan intelectos? Por un lado un lado muchos
filsofos de la ciencia sostienen las mquinas son capaces de hacer todo lo
que pueden hacer los humanos; sin embargo otros, entre los que estn los
telogos, sostienen que la eleccin moral, el amor y la investigacin creativa,
rebasa el mbito de cualquier mquina (Dreyfus, 1972).
Para comprender mejor estos temas es til considerar lo propuesto por Searle,
1980, la diferencia entre IA dbil y fuerte.

86

La IA dbil o prudente: considera a los computadores como poderosos


instrumentos para el estudio de la mente, que permiten formular y comprobar
hiptesis de un modo ms rigurosos y preciso; las mquinas acten como si
fuesen inteligentes. La IA fuerte: considera que el computador programado de
manera apropiada es realmente una mente al poder pensar y tener otros
estados cognitivos; las mquinas actan de manera inteligente.
Sobre el razonamiento y la percepcin.Las teoras que aceptan ciertos supuestos sobre la relacin cerebro - mente:
fisicalismo, materialismo y naturalismo biolgico (la mente es producto del
cerebro: Searle). Sostienen que la inteligencia y los fenmenos mentales son
productos del funcionamiento del sistema fsico de neuronas y sus respectivas
clulas y estructuras de apoyo. Los estados mentales no sino estados
cerebrales. Diversos estados cerebrales corresponden a un mismo estado
mental, siempre y cuando sean del mismo tipo.
El Funcionalismo: en su versin neuronal, plantea que lo importante son las
caractersticas de entrada y salida de las neuronas y no sus propiedades
fsicas. Estas propiedades de entrada/ salida pueden obtenerse desde
diversos artefactos fsicos, incluidos los dispositivos de silicio; como
consecuencia, los sistemas de IA que estn dotados de la estructura
adecuada tienen la posibilidad de estar dotados de estados mentales reales.
Seguidamente se presenta la necesidad de explicar como es que el cerebro
produce la mente. Lo cual se puede conseguir considerando que los sistemas
lgicos, un razonamiento tras otro, tienen la posibilidad de funcionar sin
necesidad de tener que experimentar una regresin infinita. As se puede
lograr que una mquina pueda operar como sistema de razonamiento para
manifestar una conducta inteligente.
Los estados intencionales (tipo de estados mentales) que comprenden el
creer, saber, desear, temer, etc. pueden explicarse a travs de las posturas
intencionales, son un recurso de clculo que permite predecir la conducta de
la entidad. Ejemplo: se puede informar a un termostato el deseo de mantener
la temperatura de una habitacin dentro de cierto rango y creer al mismo
tiempo que la habitacin est demasiado fra en ese momento y que al
encender el calor aumentar la temperatura respectiva; por tanto, es

87

razonable asignar estados intencionales sin ello permite obtener el modelo de


la explicacin ms sucinta de la conducta de la entidad. Sin embargo la
creencia del termostato de que la habitacin est demasiado fra no es
idntica a la respectiva de una persona. La persona tiene una comprensin de
aspectos adicionales como habitacin, calor, etc. que no posee la mquina; y
asimismo, la mquina tiene la limitacin de no poder considerar las intuiciones.
La Teora de la Correspondencia de la creencia sostiene que la estructura
interna de un agente es un candidato razonable para representar una
proposicin; donde la estructura se forma al obtener evidencia sensorial de la
validez de la proposicin, deja de existir al obtener evidencia de la falsedad de
la proposicin; y desempea un papel causal adecuado en la seleccin de
acciones. Es decir, la estructura interna funciona como un indicador
correlacionado con la proposicin externa. En la teora de al correspondencia
se da el elemento crucial de la fundamentacin de las creencias del agente,
basado en la experiencia sensorial del mundo.
Al respecto hay dos puntos de vista sobre la representacin interna; el
contenido amplio (la representacin interna intrnsecamente se refiere a un
determinado aspecto del mundo externo, conexin entre la representacin
interna y externa del mundo) y el contenido restringido (no existe tal conexin).
Cerebro colocado dentro de un recipiente: para deslindar lo anterior, se usa
esta prueba. Imagine que ha usted al nacer le sacaron su cerebro y lo
pusieron dentro de un recipiente; el recipiente sostiene su cerebro lo que
permite su crecimiento y maduracin. Al mismo tiempo, desde una
computadora que simula un mundo totalmente ficticio son enviadas seales
electrnicas a su cerebro y las seales motoras que genera su cerebro se
interceptan y son usadas para modificar la simulacin segn corresponda. Con
base a ello se refuta la postura fisicalista. Ocurre que el estado de un cerebro
dentro de un recipiente puede ser el mismo que el de la persona que est
comiendo una pan; sin embargo, en uno de los casos la hamburguesa
realmente existe y en el otro no.
En el caso del contenido restringido para la diferenciacin se recurre a la
teora de las Quala o experiencias intrnsecas, que permite explicar la
diferencia entre las experiencias de comer un pan. As la teora de la

88

correspondencia

explica

conductas

verbales

de

diferenciar

que

corresponden a creencias como el foco es rojo o el foco es verde, pero no


diferencia las experiencias de en que consiste ver rojo o verde , lo cual si se
explica con las quala.
Sobre el comportamiento inteligente.Son capaces de pensar las mquinas?. El primer obstculo para responder a
ello es entender el sentido de la palabra pensar. Si definimos pensar como
tomar decisiones o deliberar a travs de un cerebro orgnico y natural,
entonces, las computadoras no pueden pensar; aunque ello no nos dice gran
cosa sobre las capacidades de las mquinas.
Turing (1950) plantea que en lugar de hacerse la pregunta anterior debemos
preguntarnos si las mquinas tienen la capacidad para pasar una prueba
conductual

de

inteligencia

(Prueba

de

Turing);

programndose

una

computadora para sostener una conversacin con alguien que la interrogase


por 5 minutos, teniendo la probabilidad de 30% de hacer creer al cuestionador
que la mquina sometida a prueba era un humano. Turing, en sus estudios
refuta lo sostenido por Lovelace sobre la mquina analtica de Babbage que
deca No pretende crear nada. Es capaz de hacer todo aquello que sabemos
ordenarle que ejecute. Ello se refut afirmando que podemos ordenar a la
computadora a aprender a partir de su propia experiencia. Sin embargo,
Turing afirma que las mquinas no sern capaces de ser amables,
polifacticas, hermosas, amigables, tener iniciativa, distinguir entre lo bueno y
lo malo y otras actividades similares: caractersticas de tipo conductual.

Figura 29. Alan Turing

89

Asimismo, Turing (1936) y Godel (1931) plantearon que existen ciertas


preguntas que ningn sistema formal puede responder adecuadamente (la
objecin matemtica). Una de ellas es el problema de la interrupcin:llegar
a pararse finalmente la ejecucin de un programa P, o sta ejecucin se
realizar eternamente?. Turing demostr que para todo algoritmo H que afirma
resolver los problemas de paro siempre habr un Programa Pi para el cual H
no ser capaz de responder al programa de paro correctamente. Esta
limitacin del paro de las mquinas se ha demostrado que tambin la pueden
presentar los seres humanos.
Lucas (1961) afirma que esta limitacin pone en situacin de inferioridad a los
humanos quienes siempre podrn saltar fuera de la lgica limitante para
determinar si el problema en cuestin es vlido o no. Lucas basa su
argumento en el teorema de la incompletes de Godel que sostiene que en
todo sistema formal no trivial F (un lenguaje formal y un conjunto de axiomas y
reglas de inferencia) es posible construir lo que se denomina Oracin de
Godel G(F) a partir de las siguientes propiedades: G(F) es una oracin de F
pero no puede demostrarse dentro de F; si F es congruente, entonces G(F) es
verdadera. Lucas afirma que las computadoras aplicando su sistema formal
pueden llegar a estar frente a situaciones cuya verdad no es posible
establecer; mientras que para los seres humanos no se presenta esta
limitacin aplicando el teorema de Godel. Sin embargo estos argumentos han
sido rebatidos ya que al igual que los matemticos pueden ir de formalismo en
formalismo hasta encontrar uno que permita resolver el problema, ello tambin
lo puede hacer la computadora.
Recientemente, con el resurgimiento la objecin matemtica, Roger Penrose
en su texto La nueva mente del Emperador, sostiene que cuando se
consideran las facultades mentales que utilizan los matemticos para producir
nuevas proposiciones matemticas y sus respectivas demostraciones, no es
posible hacer vlida la afirmacin de que F es compleja. Ello debido a que
cuando se encuentra un nuevo resultado por lo general es muy sencillo que un
matemtico lo comunique a otro y aportar convincentes pruebas mediante una
serie de pasos sencillos. Sostiene que el algoritmo que utilizan los
matemticos para decidir la verdad matemtica es tan complicado u obscuro

90

que nunca nos ser posible conocer su verdadera validez; asimismo, sostiene
que nunca ser posible que la percepcin matemtica sea algortmica. Si bien
es cierto Penrose cuestiona que la percepcin Godeliana sea formalizable, ello
no lo explica.
Uno de los principales aportes de Penrose es sostener que nada de nuestra
actual comprensin fsica del funcionamiento del cerebro podra indicar que
cuenta con aspectos no algortmicos; es decir, la simulacin de su
funcionamiento mediante una computadora, en principio es posible de acuerdo
con la fsica moderna. Aunque concluye con el comentario que el cerebro
debe utilizar principios fsicos que an no se han descubierto, que seran no
algortmicos.

Figura 30. Roger Penrose

Sobre la Informalidad.Una de las mayores crticas a la IA es la de Turing: argumento que surge de


la informalidad del comportamiento. Afirma que la conducta del ser humano
es demasiado compleja para expresarla a travs de un simple conjunto de
reglas y que no puede producir una conducta tan inteligente como al de los
seres humanos. Esto ha sido apoyado por el filsofo Dreyfus en una serie de
documentos (1972-92). Ellos critican a la BAIA (la buena y anticuada IA). La
BAIA supone que es posible expresar todo tipo de conducta inteligente
mediante un sistema que razones lgicamente a partir de un conjunto de
hechos y reglas que describan el dominio. Es de destacar que la IA es mucho
ms que la BAIA, que slo es la inferencia lgica. Dreyfus critica el
racionalismo, y en especial una particular manera de programar a las
computadoras. Critica el suponer que los primeros xitos de la BAIA puedan
justificar la creencia que se tendr xito para generalizar hacia la Inteligencia
humana. Sostiene que muchos de los xitos de la dcada del 60 y 70 se
referan a micromundos (con mucha informacin) y no aspectos macro ms
complejos y de interpretacin del lenguaje.
91

Otro aspecto de crtica a la IA de parte de Dreyfus se refiere a que el hombre


tiene razonamientos conscientes e inconscientes, y el sentido comn, lo cual
no se da en la IA. Sin embargo en trminos prcticos no se considera
importante esta diferenciacin, ya que pueden existir mecanismos para
obtener experiencias.
Dreyfus (en Mind Over Matter, 1986) propone un procedimiento de 5 pasos
para adquirir experiencia , empezando por el procesamiento basado en reglas
y terminando con la habilidad par escoger instantneamente las respuestas
correctas. Sostiene hemos visto que las computadoras en realidad razonan
las cosas de manera bastante simple, pero slo con una mayor experiencia
humana se logra el conocimiento, una manera superior, holstica, intuitiva de
abordar problemas y que no puede ser imitada por las computadoras basadas
en el seguimiento de reglas. La primera explicacin de Dreyfus de cmo
funciona este conocimiento consiste en resolver problemas por analoga,
recurriendo a una vasta biblioteca de casos. Posteriormente propuso las redes
neuronales como posible implantacin de la fase final del conocimiento.
Seguidamente, plantea Si los mecanismos de la IA no funcionan qu
mecanismos propondra en su lugar para lograr un desempeo como el
humano, y su respuesta es que los humanos recurren a un determinado
mtodo de aprendizaje. Ello no es nuevo en la IA. Desde los experimentos de
Samuel y Friedberg, los investigadores han propuesto el empleo del
aprendizaje por mquina como un mtodo para lograr niveles ms elevados
de rendimiento y para evitar las dificultades de la codificacin manual. El
problema es cul es la representacin meta del proceso de aprendizaje?.
Dreyfus opta por las redes neuronales porque pueden alcanzar el nivel de
inteligencia sin necesidad de representaciones explcitas del conocimiento
simblico. Al respecto formula dos observaciones: 1) no es posible lograr una
buena generalizacin a partir de ejemplos sin contar con una buena base de
conocimiento y sin embargo, nadie tiene una idea de cmo incorporar el
conocimiento de base en el proceso de aprendizaje de la red neuronal; y 2) el
aprendizaje por red neuronal es una forma de aprendizaje supervisado para el
cual se requiere la identificacin previa de todas las entradas relevantes y de

92

las salidas correctas, por lo tanto, no puede operar de manera autnoma sin la
ayuda de un entrenador humano.

Figura 31. Hubert Greyfus

Con relacin a la primera objecin, el desarrollo actual de las redes


neuronales presenta varias formas mediante las cuales el conocimiento de
base permite mejorar la capacidad de un sistema para generalizar. Pero estas
tcnicas se apoyan en la disponibilidad del conocimiento de manera explcita,
lo cual Dreyfus rechaza tajantemente. Segn expertos en IA, lo anterior es una
razn que justifica el rediseo serio de los modelos actuales del
procesamiento neuronal de manera que puedan aprovechar el conocimiento
aprendido previamente. Al respecto se han realizado algunos avances.
Con relacin a la segunda objecin, ello tiene que ver con el aprendizaje por
refuerzo, en el que el sistema de aprendizaje recibe recompensas positivas o
negativas ocasionales, en vez de que se le est diciendo en cada ocasin cul
es la accin correcta. Si cuenta con suficiente experiencia, el agente de
aprendizaje por refuerzo puede inducir una funcin de utilidad en las
situaciones o bien una correlacin de pares situacin accin de los valores
esperados; esto se aplica actualmente en varios sistemas de redes
neuronales. Sobre el aprendizaje por refuerzo Dreyfus seala que su principal
problema consiste en cmo generalizar de situaciones particulares a tipos de
situaciones ms generales: el problema total del aprendizaje inductivo. Por
tanto el aprendizaje por refuerzo se reduce a un aprendizaje inductivo
ordinario, para el cual se cuenta ya con algunas tcnicas bien desarrolladas.
Por otro lado Dreyfus tambin plantea el problema del aprendizaje dentro de
un contexto caracterizado por una gran cantidad de rasgos potencialmente
relevantes. Una posible solucin es apegarse a un conjunto finito y pequeo
de rasgos, y aadir nuevos conforme stos se necesiten. Pero al respecto
Dreyfus seala que no se conoce ningn procedimiento para aadir nuevos
93

rasgos si el conjunto actual resulta inadecuado para explicar los hechos


aprendidos.
Otro problema del aprendizaje por refuerzo surge cuando las entradas
disponibles no logran caracterizar de manera completa una situacin. En tales
casos se debe disear variables de estado interno adicionales, en trminos de
las cules se puedan aprender correlaciones de salida. Dreyfus sostiene al
respecto que puesto que nadie sabe cmo incorporar de manera adecuada
los estados internos, es necesario realizar una verdadera innovacin.
Otro problema al que se refiere Dreyfus en What Computers Still Cant Do es
cmo controlar la adquisicin de los datos de percepcin sensorial. Seala
que el cerebro tiene capacidad para dirigir sus sensores para buscar
informacin relevante y procesarla. Sin embargo, en la actualidad el campo de
la percepcin visual activa, a travs de la teora del valor de la informacin,
se ocupa exactamente del mismo problema y en los robots ya se incorporan
los resultados obtenidos; ello est en avance.
Segn Rusell y Norvig, 1996, el hecho que la IA haya logrado reducir el
problema de la produccin de una inteligencia a nivel humano a un conjunto
de problemas tcnicos relativamente bien definidos podra considerarse ya
como un avance. Con relacin a los problemas observados ya estn
proponindose soluciones. En resumen los argumentos en contra de la IA
dbil, progresivamente estn siendo superados.
Con relacin a la intencionalidad y conciencia.
Se vienen dando crticas a la prueba de Turing al afirmar que no basta con
saber como funciona una mquina, y que tambin es necesario conocer sus
estados mentales internos. Este asunto fue previsto por Turing y lo menciona
Jefferson al sostener No ser sino hasta cuando una mquina puede escribir
un soneto o componer un concierto debido a las emociones que experimente,
y no solo mediante una aleatoria disposicin de smbolos, podremos estar de
acuerdo en que la mquina est a la altura del cerebro; es decir, no slo
deber ser capaz de escribir algo, sino tambin estar consciente de que lo ha
hecho; es decir, la mquina debe estar consciente de su estado mental y sus
acciones. Otros enfocan sus crticas en el para qu de las supuestas
creencias, deseos, de la mquina. Turing responde a esta objecin con la

94

siguiente pregunta: por qu insistir en un estndar ms elevado para las


mquinas que el de los seres humanos?. Al respecto Turing observa que no
hay evidencia que las personas cotidianamente estn conscientes. Jefferson
seala lo difcil que es definir una prueba objetiva para la conciencia. Turing
seala que el asunto de la conciencia no se puede descartar a la ligera, pero
que tampoco cree que primero haya que resolver este misterio antes de
proceder a responder la pregunta de son capaces de pensar las mquinas?.
Por otro lado, Searle afirma que los experimentos de la sala china y la
prtesis cerebral refutan la tesis de una IA fuerte.
La sala China
En el caso de la sala China, la idea consiste en describir un sistema
hipottico que evidentemente ejecuta un programa y pasa la prueba de Turing,
pero tambin de manera evidente (segn Searle) no entiende en lo absoluto
sus entradas y sus salidas. La conclusin sera que mediante la ejecucin del
programa adecuado no es condicin suficiente para que se considere la
existencia de un intelecto.
El sistema est formado por un ser humano, que entiende slo el idioma
ingls, provisto de un libro de reglas, escrito en ingls, varios paquetes de
papel, algunos en blanco, otros con inscripciones indescifrables. El sistema se
encuentra dentro de una habitacin

que est conectada con el exterior

mediante una pequea abertura. A travs de esta a parecen papeletas que


contienen smbolos indescifrables El humano localiza en el libro de reglas
los smbolos que correspondan a los de las papeletas y

sigue las

instrucciones que se le dan. Estas pueden ser el describir smbolos en nuevas


papeletas, encontrar smbolos en los paquetes, volver a

ordenar los

paquetes, etc. Las instrucciones llevarn a la transcripcin de uno o varios


smbolos en un pedazo de papel que es enviado al mundo externo a travs
del a abertura. Lo anterior es aceptado; pero visto desde el exterior, vemos un
sistema cuyas entradas estn expresadas en forma de oraciones chinas y
que produce respuestas en chino que estn expresadas en forma de
oraciones chinas que son tan inteligentes como las de la conversacin
imaginada por Turing.

95

Searle, argumenta que la persona que est en la habitacin no entiende el


chino; igualmente se tiene que la ejecucin del programa adecuado no
necesariamente produce una comprensin. Sin embargo, las observaciones
en este aspecto de Searle tambin son refutadas, mediante la siguiente
analoga con la sala china: si el ser humano como tal tiene comprensin ello
no significa que las clulas que los componen tengan que tener comprensin.
En 1992 Searle en su texto The Rediscovery of the Mind afirma que la
conciencia es una propiedad

emergente

de

sistemas de

neuronas

adecuadamente dispuestos. Esto no es aceptado por la IA fuerte. La pregunta


que surge es qu propiedades de las neuronas son importantes para la
conciencia?; cules son las propiedades funcionales relacionadas con el
procesamiento de la informacin?. Ello trasladado a la Sala China; implica
afirmar empricamente que el nico medio fsico que puede alojar la
conciencia es el medio neuronal.

Figura 32. John Searle

Searle, por otro lado, sostiene que es posible que existan otros medios
capaces de albergar la conciencia, entre ellos el silicio; que sera un sistema
consciente en virtud de las propiedades fsicas del medio y no del programa
que estuviera ejecutndose.

Para este efecto, para refutar se usa el

argumento de la sala china, para refutar la IA fuerte: un sistema aparente


inteligente al ejecutar el programa adecuado del que puede demostrarse que
es consciente; para ello usa el argumento de partes no concientes por tanto
todo no puede ser consciente ( lo cual no es valido). Finalmente Searle llega a
querer refutar mediante la intuicin la propuesta de la sala china. Con relacin
a este tema es de destacar lo logrado por Wohler en 1848 al sintetizar urea, ya
que partiendo de elementos inorgnicos se llega a elementos orgnicos;
asimismo, los edulcorantes artificiales que son edulcorantes, la inseminacin
artificial que es una inseminacin, etc. Al respecto Searle plantea que los
programa de la IA son en el mejor de los casos simulaciones de la inteligencia,

96

pero que no implican la existencia de propiedades intrnsecas: Nadie creer


que la simulacin por computadora de una tormenta nos dejar empapados; lo
mismo ocurre con la simulacin por computadora de los procesos mentales,
en los cuales no estn presentes verdaderos procesos mentales; lo cual abre
otro campo de debate, ya que estos argumentos son rebatibles: puede
simularse una lluvia que si nos deje empapados, se puede simular por
computadora una multiplicacin o un juego, etc. que sean vlidos.
El experimento de la prtesis cerebral, es ejemplo del proceso del
pensamiento. Consiste en lo siguiente: Supongamos que los avances de la
neurofisiologa son tales que permiten comprender perfectamente la conducta
de entada y salida y la conectividad de todas las neuronas el cerebro; adems
supongamos, que somos capaces de construir dispositivos electrnicos
microscpicos capaces de imitar esta conducta y que es posible conectarlos
fcilmente con el tejido neuronal. Finalmente supongamos que mediante una
tcnica quirrgica son reemplazadas neuronas individuales por su respectivo
dispositivo electrnico sin interrumpir el funcionamiento del cerebro. El
experimento consiste en reemplazar gradualmente todas las neuronas por
dispositivos electrnicos y luego invertir el proceso para devolver el sujeto a su
estado biolgico normal. Este asunto ha creado otra controversia; por un lado
Moravec (1988) considera que la conciencia de esta persona no se afectara;
pero Searle considera que la conciencia se esfumara, la conducta observable
sera la misma pero su experiencia consciente se reducira. Sobre este asunto,
en los ltimos aos, tambin se han desarrollado diversos debates. Patricia
Churcland (1986) seala que los aspectos funcionales que operan al nivel de
las neuronas tambin pueden operar a nivel de cualquier unidad funcional
mayor: un grupo de neuronas e incluso todo el cerebro. Ello implica que si
se acepta que el experimento de la prtesis cerebral muestra que el
reemplazo del cerebro es consciente, tambin se debe aceptar que la
conciencia se conserva al reemplazar todo el cerebro por un circuito que
correlaciona entradas y salidas mediante una enorme tabla de consulta. Lo
cual es desconcertante para muchos, el debate est abierto. Las
oportunidades sobre investigaciones son muchas.

97

Como se ha podido apreciar, el debate filosfico sobre la IA se mantiene y


tiene muchos aspectos por dilucidar, aunque es cada vez menor la refutacin
a la IA dbil.
MARCO FILOSFICO DE LA INVESTIGACIN:
La investigacin sobre mejora de la calidad de diseo de procesos mediante la
aplicacin de redes neuronales artificiales RNA se considera que est en el
campo de la IA; que su desarrollo en la actualidad se ubica en lo referente a la
denominada IA dbil o prudente. Las RNA son una herramienta que
procesadas en una computadora ayudan a la mente humana a procesar
informacin, pero que no es la inteligencia humana, no son el cerebro
mente. Las RNA permiten procesar mucha informacin y en corto tiempo, a fin
de tomar adecuadas decisiones con respecto a la calidad de los procesos. Las
RNA

que se espera desarrollar en esta investigacin se considera deben

permitir reemplazar a otras herramientas debido a que permitir ahorrar


tiempo y tener mayor precisin y certeza. No se espera reemplazar al ser
humano en su trabajo por la calidad, sino por el contrario complementarlo,
para ello es fundamental la informacin de entrada que se le de las RNA, y
las metas que se quieren lograr, que es lo que quiere el consumidor.
Las RNA aprenden con base a la informacin que se les proporciona, y que la
recuerdan. Las operaciones que se realizan dentro de las RNA son las que el
investigador considera conveniente para lograr la meta propuesta y distan de
ser similares a las operaciones de las RN biolgicas, que por otro lado, no
sabemos con precisin en qu consisten.

Sin embargo, cuanto ms nos

acerquemos a conocer cmo funcionan las operaciones de creacin de


conocimiento, percepcin y razonamiento en el ser humano, el aplicarlo de
manera creativa a las RNA ayudar a tener resultados cada vez mejores. Por
tanto, no nos ubicamos en la corriente de la IA dbil o prudente; y rescatamos
los muy acertados aportes de Lewis, Putman, Rorty, Turing, Godel, Samuel,
Friedberg, Lucas, Searle y Dreyfus, entre otros. Concluyendo en lo que
sostienen Rusell y Norvig de que el hecho que la IA haya logrado reducir el
problema de la produccin de una inteligencia a nivel humano a un conjunto
de problemas tcnicos relativamente bien definidos podra considerarse ya

98

como un avance, y que los argumentos contra la IA dbil o prudente


progresivamente estn siendo superados.

99

1.5. Marco Epistemolgico


ANTECEDENTES

A. Thomas Kuhn, 1962, en la La estructura de las revoluciones cientficas ,


sostiene entre otros:
Paradigmas:
Los paradigmas son realizaciones cientficas universalmente reconocidas que,
durante cierto tiempo, proporcionan modelos de problemas y soluciones a una
comunidad cientfica.
Puede haber cierto tipo de investigacin cientfica sin paradigma o, al menos,
sin los del tipo tan inequvoco y estrecho.
La investigacin cientfica normal va dirigida a la articulacin de aquellos
fenmenos y teoras que ya proporciona el paradigma.

Figura 33. Thomas Kuhn

El conjunto de ilustraciones recurrentes y casi normalizadas de diversas


teoras en sus aplicaciones conceptuales, instrumentales y de observacin;
son los paradigmas que las comunidad revela en sus libros de texto.
A falta de un paradigma o de algn candidato a paradigma, todos los hechos
que pudieran ser pertinentes para el desarrollo de una ciencia dada tienen
probabilidades de parecer igualmente importantes.
Para ser aceptada como paradigma una teora debe parecer mejor que sus
competidoras; pero no necesita explicar y, en efecto nunca lo hace, todos los
hechos que se puedan confrontar con ella.
La ciencia normal puede determinarse en parte por medio de la inspeccin
directa de los paradigmas.
Estudio de la ciencia:
El estudio de los paradigmas es lo que prepara principalmente al estudiante
para entrar a formar parte como miembro de la comunidad cientfica particular
con la que trabajar ms tarde.

100

La investigacin cientfica:
Hay tres focos normales para la investigacin cientfica fctica: hechos que el
paradigma ha demostrado que son particularmente reveladores de la
naturaleza de las cosas; predicciones de la teora del paradigma; y el trabajo
para articular la teora del paradigma, resolviendo algunas de sus
ambigedades residuales.
Crisis de paradigmas:
La transicin de un paradigma en crisis a otro nuevo del que pueda surgir una
nueva tradicin de ciencia normal, est lejos de ser un proceso de
acumulacin, al que se llegue por medio de una articulacin o una ampliacin
del antiguo paradigma. Es ms bien una reconstruccin del campo, a partir de
nuevos

fundamentos,

reconstruccin

que

cambia

algunas

de

las

generalizaciones tericas ms elementales del campo, as como tambin


muchos de los mtodos y aplicaciones del paradigma.
Revoluciones cientficas
Se inician con un sentimiento creciente, tambin a menudo restringido a una
estrecha subdivisin de la comunidad cientfica, de que un paradigma
existente ha dejado de funcionar adecuadamente en la exploracin de un
aspecto de la naturaleza, hacia el cual el mismo paradigma haba previamente
mostrado el camino.
La ciencia no se desarrolla por medio de la acumulacin de descubrimientos e
inventos individuales.
Las transformaciones de los paradigmas son revoluciones cientficas y la
transicin sucesiva de un paradigma a otro por medio de una revolucin es el
patrn usual de una ciencia madura.
Puede haber revoluciones tanto grandes como pequeas, algunas afectan
slo a los miembros de una sub especialidad profesional.
B. Ren Descartes en el Discurso del mtodo, sostiene entre otros:
Sobre el mtodo:
El verdadero mtodo para llegar al conocimiento de todas las cosas de que mi
espritu fuera capaz:
1 No admitir jams como verdadero cosa alguna sin conocer la evidencia que
lo era; es decir, evitar cuidadosamente la precipitacin y la prevencin y

101

comprender, en mis juicios, nada ms que lo que se presentase a mi espritu


tan clara y distintamente que no tuviese motivo alguno para ponerlo en duda.
2 Dividir cada una de las dificultades que examinare en tantas partes como
fuese posible y en cuantas requiriese su mejor solucin.
3 Conducir ordenadamente mis pensamientos, comenzando por los objetos
ms simples y ms fciles de conocer, para ir ascendiendo poco a poco, como
por grados, hasta el conocimiento de los ms compuestos; y suponiendo un
orden an entre aquellos que no se preceden naturalmente unos a otros.
4 Hacer en todo enumeraciones tan completas y revisiones tan generales que
estuviera seguro de no omitir nada.

Figura 34. Ren Descartes

Sobre la diferencia entre el hombre y las mquinas:


Por ms que estas mquinas hicieran muchas cosas tan bien o acaso mejor
que nosotros, se equivocaran infaliblemente en otras, y as se descubrira que
no obraban por conocimiento, sino tan slo por la disposicin de sus rganos;
pues mientras la razn es un instrumento universal que puede servir en todas
las ocasiones, stos rganos necesitan de alguna disposicin especial para
cada accin particular; de donde resulta que es moralmente imposible que
haya en una mquina los resortes suficientes para hacerla obrar en todas las
circunstancias de la vida del mismo modo como nos hace obrar nuestra razn.
Sobre la razn:
En fin, despiertos o dormidos no debemos dejarnos persuadir nunca si no es
por la evidencia de la razn. Y advirtase que digo de la razn, no de la
imaginacin o de los sentidos. Del mismo modo, porque veamos el sol muy
claramente, no debemos por ello juzgar que sea del tamao que lo vemos; y
muy bien podemos imaginar distintamente una cabeza de len pegada al
cuerpo de una cabra sin que por eso haya que concluir que en el mundo existe
esa quimera: la razn no nos dice que lo que as vemos o imaginamos sea
verdadero.
102

C. Karl Popper, en su vasta obra, la cual ha sido compilada por David Miller,
en

Popper: Escritos selectos, 1995, y en su texto La lgica de la

investigacin cientfica , 1967, entre otros sostiene:


El problema de la induccin:
Se conoce con el nombre del problema de la induccin la cuestin acerca de si
estn justificadas las inferencias inductivas, o de bajo qu condiciones lo estn.
El problema de la induccin puede formularse, asimismo, como la cuestin
sobre cmo establecer la verdad de los enunciados universales basados en la
experiencia como son las hiptesis y los sistemas tericos de las ciencias
empricas-.

Figura 35. Kart Popper

Sobre teora del conocimiento.


La tradicin racionalista, la tradicin de la discusin crtica, representa el nico
medio practicable para ampliar nuestro conocimiento el conocimiento
conjetural o hipottico, por supuesto. No existe otra manera de hacerlo.
Existen en ltima instancia slo dos maneras en que las teoras pueden ser
superiores a otras: pueden explicar ms, y pueden probarse mejor.
Sobre la contrastacin
Presentada a ttulo provisional una nueva idea, sea una anticipacin, una
hiptesis, un sistema terico o lo que se quiera-, se extraen conclusiones de ella
por medio de una deduccin lgica; estas conclusiones se comparan entre s y
con otros enunciados pertinentes, con objeto de hallar las relaciones lgicas
(tales como equivalencia, deductibilidad, compatibilidad, etc.) que existan entre
ellas. Podemos distinguir cuatro procedimientos de llevar a cabo la contrastacin
de una teora: 1) la comparacin lgica de las conclusiones unas con otras: con lo
cual se somete a contraste la coherencia interna del sistema. 2) el estudio de la
forma lgica de la teora, con objeto de determinar su carcter: si es una teora
emprica cientfica- o si, por ejemplo, es tautolgica. 3) la comparacin con otras
teoras, que tiene por principal mira la de averiguar si la teora examinada
103

constituira un adelanto cientfico en caso de que sobreviviera a las diferentes


contrastaciones a que la sometemos. 4) contrastarla por medio de la aplicacin
emprica de las conclusiones que pueden deducirse de ella.
Sobre las teoras
Da una lista no sistemtica de seis tipos de casos por los que se puede
dictaminar que una teora t1 ha sido superada por t2, en el sentido de que t2
parece hasta donde sepamos corresponder mejor a los hechos que t1, en
algn sentido.
1) t2 hace aseveraciones ms precisas que t1, y estas aseveraciones ms
precisas soportan pruebas ms precisas.
2) t2 toma en cuenta y explica ms hechos que t1 (que incluiran, por
ejemplo, el caso anterior, y en la que, siendo iguales otros factores, las
aseveraciones de t2 son ms precisas).
3) t2 describe o explica los hechos con mayor detalle que t1.
4) t2 ha pasado pruebas en las que t1 ha fracasado.
5) t2 ha sugerido nuevas pruebas experimentales, no consideradas antes
de que se diseara t2 (y que no sugiri t1, y quiz, incluso inaplicables
a t1); y t2 ha pasado bien estas pruebas.
6) t2 ha unificado o conectado entre s varios problemas hasta entonces
inconexos o no relacionados.
La falsabilidad como criterio de demarcacin:
El criterio de demarcacin inherente a la lgica inductiva equivale a exigir que
todos los enunciados de la ciencia emprica sean susceptibles de una decisin
definitiva con respecto a su verdad y a su falsedad; podemos decir que tienen
que ser decidibles de modo concluyente, es criticado por Popper; para l el
criterio de demarcacin que es el de la

falsabilidad de los sistemas. Un

enunciado cientfico debe ser susceptible de seleccin en un sentido negativo


por medio de contrastes o pruebas empricas, ha de ser posible refutar por la
experiencia un sistema cientfico emprico.
Sobre el Mtodo Cientfico:
Sobre la comprobacin deductiva de las teoras; sostiene que el mtodo para
probar crticamente las teoras y para seleccionarlas de acuerdo con los
resultados de las pruebas, procede siempre de esta manera: a partir de una

104

nueva idea, propuesta tentativamente y an no justificada en ninguna forma


una anticipacin, una hiptesis, un sistema terico o lo que se desee - se
obtienen conclusiones mediante la deduccin lgica. Luego se comparan estas
deducciones unas con otras, y con otras afirmaciones pertinentes, para
averiguar qu relaciones lgicas existen entre ellas, tales como: al
equivalencia,

la

posibilidad

de

derivacin,

la

compatibilidad

la

incompatibilidad.
D.

Imre Lakatos en su texto La Metodologa de los Programas de

Investigacin Cientfica PIC, 1975; entre otros, sostiene:


Sobre el avance de la ciencia:
El problema de la evolucin objetiva del crecimiento cientfico se da en
trminos de cambios progresivos y regresivos de problemticas de series de
teoras cientficas. Las ms importantes de tales series en el crecimiento de la
ciencia se caracterizan por cierta continuidad que relaciona a sus miembros.
Esta continuidad se origina en un programa de

investigacin genuino

concebido en el comienzo. El programa consiste en reglas metodolgicas:


algunos nos dicen las rutas de investigacin que deben seguirse .
Incluso la ciencia como conjunto puede ser considerada como un enorme
programa de investigacin dotado de la suprema regla heurstica de Popper:
disea

conjeturas

que

tengan

ms

contenido

emprico

que

sus

predecesoras.

Figura 36. Imre Lakatos

Sobre los Programas de Investigacin Cientfica PIC:


Sostienen que es claro que mientras una teora cientfica tenga algo a su favor
no conviene eliminarla hasta que se posea una teora mejor; de hecho, debe
drsele un tiempo para que se modifique de manera de poderse enfrentar
mejor a las anomalas que la afectan. Sobre esta base Lakatos propone que el
punto de comparacin no deben ser teoras aisladas sino ms bien conjuntos
de teoras, generados por modificaciones sucesivas de sus predecesores, que

105

de todos modos se conservan. A estos conjuntos de teoras afines Lakatos los


denomina "Programas de Investigacin Cientficos PIC".
En efecto, cada uno de esos programas est formado por tres capas
concntricas de entidades dialcticas: 1) el ncleo central, que rene los
supuestos bsicos y esenciales del programa, o sea todo aquello que es
fundamental para su existencia; 2) este ncleo central est celosamente
protegido de las peligrosas avanzadas de la falsificacin por un cinturn
protector llamado heurstico negativo, un principio metodolgico que estipula
que los componentes del ncleo central no deben abandonarse a pesar de las
anomalas, constituido por mltiples elementos variables, como hiptesis
auxiliares, hiptesis observacionales, diferentes condiciones experimentales,
etc.; 3) la capa ms externa del programa cientfico de investigacin se conoce
como heurstico positivo y est representada por directivas generales para
explicar fenmenos ya conocidos o para predecir nuevos fenmenos.
Naturalmente, existe una jerarqua de acceso a los tres niveles estructurales
de los Programas lakatosianos de investigacin. La confrontacin inicial de la
teora cientfica (cualquiera que sta sea) con nuevos datos experimentales
ocurre primero con la periferia conceptual del sistema y slo tiene tres
opciones: 1) est de acuerdo con los principales hechos de observacin
conocidos y anticipados, en cuyo caso se refuerza el ncleo central del
programa; 2) registra diferencias no explicables con el sistema, pero
solamente al nivel del cinturn protector o heurstico positivo, que es
fcilmente modificable para incorporar los nuevos datos sin que el ncleo
central se afecte; 3) presenta informacin que afecta gravemente la vigencia
central del sistema, al grado de amenazar (y algunas veces hasta lograr)
cambiarlo por otro ncleo diferente.
La heurstica positiva del programa impide que el cientfico se pierda en el
ocano de anomalas; la atencin del cientfico se concentra en la
construccin de sus modelos segn las instrucciones establecidas en la parte
positiva de su programa, ignora los contraejemplos.
Sobre los Tipos de PIC:

106

Lakatos propone que slo existen dos clases de programas cientficos de


investigacin, los progresistas y los degenerativos. La manera de distinguir
entre estas dos clases es, en sus propias palabras, la siguiente:
Se dice que un programa de investigacin es progresista siempre que su
crecimiento terico anticipe su crecimiento emprico, o sea, mientras contine
prediciendo hechos nuevos con cierto xito ("cambio progresivo del
problema"); se considera que el programa est estancado (que es
degenerativo) cuando su crecimiento terico est rezagado en relacin con su
crecimiento emprico, o sea, mientras slo ofrezca explicaciones post hoc, sea
de descubrimientos accidentales o de hechos predichos por otro programa
rival ("cambio degenerativo del programa"). Cuando un programa de
investigacin explica progresivamente ms que otro rival, lo supera, y
entonces el rival puede eliminarse (o, si se prefiere, almacenarse).
Para Lakatos (1970) las teoras que constituyen un programa de investigacin
pueden presentar cambios progresivos o cambios degenerativos. Una
cadena de teoras T1, T2, ... es progresiva si satisface las siguientes
condiciones:
- Tn tenga un contenido emprico excedente sobre Tn-1, Tn predice
hechos nuevos, improbables e incluso prohibidos por Tn-1.
- Tn explique el xito previo de Tn-1, todo contenido no refutado de Tn-1
est contenido en Tn.
- Tn tenga corroborado algo o todo el exceso de contenido.
Si no ocurre lo anterior, el cambio es degenerativo.
En la metodologa de los programas de investigacin cientfica (MPIC) las
revoluciones cientficas no se analizan como cambios bruscos, que deca
Kuhn, sino como el reemplazamiento progresivo de PIC. La aparicin de
anomalas no invalida los PIC mientras tengan fuerza, es decir, no sean
eliminados por otros con mayor contenido excedente. Por tanto el nmero de
anomalas no es el elemento crucial en la comparacin de teoras o
programas, sino que la evaluacin requiere la comparacin con otro cuyo
ncleo central sea incompatible y de ello se valorar, como se ha comentado,
el contenido excedente suplementario.

107

Sobre la dialctica de los PIC:


La dialctica de los programas de investigacin, mencionaremos tres variantes
tpicas:
1) Imagine que cada una de las tres primeras versiones consecutivas, H1, H2,
H3, predice con xito algunos hechos nuevos y otros sin xito; esto es,
cada nueva versin queda corroborada y refutada a la vez. Finalmente se
propone H4, que predice algunos hechos nuevos y resiste las
contrastaciones ms severas. El cambio de problemtica es progresivo y
adems encontramos en este caso una maravillosa sucesin de conjeturas
y refutaciones. Podemos admirar este caso como un ejemplo clsico de
trabajo terico y experimental conjunto.
2) Otra posibilidad sera imaginar a un investigador solitario elaborando H1,
H2, H3, H4 pero que por razones de autocrtica no publica hasta H4.
Despus se contrasta H4 y toda la evidencia se convierte en
corroboraciones de H4 la primera hiptesis publicada ( y la nica). En este
caso el terico va por delante del experimentador: autonoma relativa del
progreso terico.
3) Imagine que toda la evidencia emprica mencionada en estos tres modelos
est disponible en el momento de invencin de H1, H2, H3, H4 no
representa en cambio progresivo de problemtica y por ello, auque toda la
evidencia apoye a sus teoras, el cientfico debe continuar trabajando para
probar el valor cientfico de su programa. Ello puede originarse bien porque
el programa de investigacin ms antiguo, ya haba producido tales hechos
o por que hay mucho dinero pblico destinado a la recopilacin de hechos
sobre las lneas del espectro y hubo mercenarios que tropezaron con tales
datos.
Sobre el requisito del crecimiento continuo y los experimentos cruciales:
Los experimentos cruciales no existen, al menos si nos referimos a
experimentos que puedan destruir instantneamente a un programa de
investigacin. De hecho, cuando un programa de investigacin es vencido y
superado por otro, podemos, retrospectivamente, llamar crucial a un
experimento si resulta que ha suministrado un ejemplo corroborador

108

espectacular a favor del programa victorioso y una derrota para el programa


vencido.
Pero si un cientfico del campo derrotado propone unos aos ms tarde una
explicacin cientfica del experimento supuestamente crucial, acorde con el
programa supuestamente derrotado, el ttulo honorfico puede ser retirado y el
experimento crucial puede convertirse en una victoria del programa.
Sobre el mtodo cientfico:
Lakatos escribe que existen varias metodologas flotando en la filosofa de la
ciencia contempornea, todas ellas muy diferentes de lo que se entenda por
"metodologa" en el siglo XVII y hasta en el XVIII. Entonces se esperaba que
la metodologa les proporcionara a los cientficos un libro de recetas
mecnicas para resolver problemas. Hoy ya se ha abandonado tal esperanza:
las metodologas modernas o "lgicas del descubrimiento" consisten
simplemente en un grupo de reglas (posiblemente no muy coherentes y
mucho menos mecnicas) para la apreciacin de teoras ya establecidas y
articuladas... Estas reglas tienen una doble funcin: en primer lugar, sirven
como un cdigo de honestidad cientfica, cuya violacin es intolerable; en
segundo lugar, representar) la esencia de programas de investigacin
historiogrfica normativa.
En otras palabras, la bsqueda de una metodologa cientfica satisfactoria no
es para contestar a la pregunta cmo se hace la ciencia?, sino para
establecer cmo debera hacerse y para investigar histricamente si as se ha
hecho, cundo y por quin. En mi opinin, no existe razn alguna en contra de
que se estudie, tan extensa y profundamente como sea posible, la manera
como se han hecho en el pasado todas las ciencias; al mismo tiempo, aplaudo
la sugestin de Lakatos de que sera muy til establecer cmo debera
trabajarse en las diferentes ciencias. Pero su esquema de los programas de
investigacin cientfica no parece estar diseado para comprender a la ciencia
de hoy, la que hacemos los que nos dedicamos a ella. Lakatos analiza la
historia y pretende obtener de ella lecciones para el futuro; de lo que ocurre en
nuestros das con la investigacin cientfica, no tiene nada que decirnos.
La ciencia en su conjunto puede ser considerada como un enorme programa
de investigacin dotado de la regla heurstica de Popper de disear supuestos

109

que tengan ms contenido emprico que sus predecesoras: La historia de la


ciencia es la historia de los programas de investigacin, ms que la historia de
las teoras.
E. Ruiz y Ayala en su texto: El mtodo de las ciencias, 1998, sostienen:
Es una idea comn pero falsa de que al ciencia avanza por acumulacin de
hechos experimentales y extrayendo una teora de ellos.
El mtodo inductivo no logra explicar el proceso real de la ciencia. Los
cientficos trabajan con proyectos preconcebidos, de acuerdo con el tipo de
fenmeno a observar; escogen para sus estudios objetos o sucesos que en su
opinin es probable les proporcionen las respuestas a preguntas de su inters.
Las hiptesis y teoras cientficas son formuladas en trminos abstractos, que
no ocurren en la descripcin de los sucesos empricos. Es as que Mendel
observa plantas y formula su hiptesis sobre los genes. Las hiptesis
cientficas ms interesantes y fructferas no son simples generalizaciones, sino
son creaciones de la mente, sugerencias imaginativas de lo que podra ser
cierto.
Mtodo hipottico deductivo: la validez de una idea cientfica (hiptesis) se
establece derivando (deduccin) sus consecuencias con respecto al mundo
real, y procediendo a averiguar si al prediccin derivada es correcta o no.
De Jacob, premio Nobel por sus trabajos en biologa molecular, rescata el
progreso cientfico comienza con la invencin de un mundo posible, o un
fragmento de l, que es comparado por la experimentacin con un mundo real.
Este constante dilogo entre la imaginacin y la experimentacin permite a
uno formar una concepcin cada vez ms refinada de lo que llamamos
realidad. Ruiz-Ayala sostienen la ciencia es una compleja actividad que
consiste esencialmente de dos episodios interdependientes, uno imaginativo o
creativo y otro crtico. Las hiptesis y otras conjeturas imaginativas son el
estado inicial de la investigacin cientfica. Las hiptesis guan la observacin
y la experimentacin. Se requiere formular una hiptesis osada asociada con
experimentos inteligentemente diseados.
Sobre Darwin sealan que era un excelente practicante del mtodo hipottico
deductivo, que avanzaba en hiptesis y las someta a contrastacin emprica.
Estableca un punto como probable por induccin y lo aplicaba como una

110

hiptesis a otras para ver si las resuelve. Sobre propuestas errneas


apoyadas por alguna evidencia no ocasionan gran dao ya que todo el mundo
encuentra un sano placer en probar su falsedad, se cierra el camino hacia el
error y al mismo tiempo se abre el camino hacia la verdad.

Figura 37. Charles Darwin

Asimismo, Ruiz Ayala, 1998, sostienen que la ciencia es progresiva, las


teoras que son aceptadas en un momento dado pueden ser rechazadas
despus. Ejemplo de ello las teoras de Newton y Einstein, del flogisto y
Lavoisier, etc.
Mencionan a Toulmin (1975), por su aporte sobre la evolucin orgnica y la
evolucin conceptual; que enfoca su anlisis a los procesos de transformacin
del conocimiento. Dichos procesos sonde carcter gradual y por ello propone
una epistemologa evolutiva, que explica la modificacin del saber humano.
Sostiene que puede establecerse analoga entre el desarrollo del conocimiento
y la evolucin de los seres vivos. El conocimiento avanza gradualmente a
partir de la seleccin de variantes tericas.
Tambin mencionan la concepcin epistemolgica e Hull, 1990, que plantea
que el desarrollo del conocimiento cientfico se da a partir de la elaboracin de
una analoga entre la evolucin biolgica y la evolucin conceptual. La ciencia,
considera, debe ser tratada como algo natural, una forma de conocimiento
sobre la cual se pueden hacer afirmaciones parecidas a leyes. No obstante
reconoce que el intento de formular leyes acerca de los procesos de seleccin
en general parece atrevido, dado que las generalizaciones elaboradas por los
bilogos

evolucionistas

tienen

problemas,

por

ejemplo,

no

pueden

considerarse definitivas.

111

MARCO EPISTEMOLGICO DE LA INVESTIGACIN:


La investigacin sobre mejora de la calidad de diseo de procesos mediante la
aplicacin de redes neuronales artificiales RNA se considera que est en el
campo de la ciencia y que por tanto debe seguir el mtodo que proponen los
epistemlogos mas destacados en la actualidad como son Kuhn, Popper,
Darwin y Lakatos, segn se apreciar en los antecedentes presentados. Con
relacin al tema de estudio de la calidad de diseo de procesos se considera
que en la actualidad se est en una situacin de crisis de los paradigmas
vigentes, tal como lo plantea Kuhn; y que se vienen desarrollando diversos
movimientos para resolver la crisis presente, de manera progresiva, uno de
dichos movimientos es el de las redes neuronales artificiales. Las cules
deben desarrollarse inicialmente en una subdivisin de la comunidad
cientfica, segn lo propuesto por Kuhn, y luego se puede ampliar a ms
campos del conocimiento (pueden haber revoluciones tanto grandes como
pequeas, algunas afectan slo a los miembros de una sub especialidad
profesional); y ello dentro de un Programa de Investigacin Cientfica PIC, que
se rescata existe de los avances que se presentan en las diversas
publicaciones, congresos, Universidades y Centros de Investigacin que tratan
el tema de la IA y la calidad, lo cual se presenta en el Marco Terico del
presente trabajo.
Con relacin a la metodologa en la presente investigacin, se han tomado los
aportes de Descartes del Discurso el Mtodo referidos a que se requiere
investigar por partes una situacin compleja, a ir de los ms simple a lo ms
compuesto.
Rescatamos los muy acertados aportes sobre el avance progresivo de la
ciencia y los Programas de Investigacin Cientficos, PIC; el mtodo hipottico
deductivo propuesto por Popper y las caractersticas adicionales que plantean
sobre el por un lado Lakatos, y por otro Darwin con relacin a la no existencia
de una tabla de pasos a seguir y el papel de la induccin y la creatividad para
proponer hiptesis y conjeturas. Asimismo, tomaremos en cuenta los criterios
de sobre el avance de la ciencia de Lakatos a travs de los PIC y la
comparacin de teoras y de la contrastacin que presentan tanto Lakatos
como Popper.

112

CAPTULO II.
PLANTEAMIENTO METODOLGICO

2.1. Enunciado del Problema


Una Red Neuronal Artificial especficamente diseada para la mejora de la
calidad de diseo de procesos, dar mejores resultados que los obtenidos con
los anlisis estadsticos tradicionales para los diseos experimentales y las
RNA ya existentes, para los casos que se trabaje con varias variables
dependientes e independientes y en los que sus relaciones no sean lineales?

2.2. Objetivo
Desarrollar una Red Neuronal Artificial especfica para la mejora de la calidad
de diseo de procesos, que d mejores resultados que los obtenidos con los
diseos experimentales y las RNA ya existentes, para los casos que se trabaje
con varias variables dependientes e independientes y en los que sus
relaciones no sean lineales.

2.3. Hiptesis, variables e indicadores


Hiptesis Planteada: Las Redes Neuronales Artificiales con Funcin de
Base Radial, que utilizan la distancia de Mahalanobis, aplicadas a los diseos
de experimentos para mejora de la calidad de procesos dan mejores
resultados que los obtenidos mediante los mtodos de anlisis estadsticos
tradicionales y del Perceptrn Multicapa con aprendizaje Backpropagation.

Las Variables Independientes son:


Las Redes Neuronales Artificiales con Funcin de Base Radial, que utilizan la
distancia Eucldea.
Las Redes Neuronales Artificiales con Funcin de Base Radial, que utilizan la
distancia de Mahalanobis.
Las Redes Neuronales Artificiales tipo Perceptrn Multicapa con aprendizaje
Backpropagation.

113

Mtodos de Anlisis Estadstico Tradicional de diseo de experimentos para


mejora de calidad de procesos (anlisis de variancia, modelo de regresin y
prediccin).
Los indicadores de las variables independientes:
De las RNA: nmero de variables de entrada, nmero de neuronas, nmero de
capas, funciones de activacin, pesos, umbrales y nmero de variables de
salida.
Del Anlisis Estadstico Tradicional: nmero de variables de entrada, tipo de
relacin entre variables de entrada y salida, nmero de variables de salida.

Las Variables Dependientes son:


Los resultados obtenidos mediante la aplicacin de las metodologas. Los
mismos que deben corresponder a la calidad de diseo de procesos.
Los indicadores de las variables dependientes:
Error de resultados con valores dados (diferencia entre valores obtenidos y
esperados).
Error en determinacin de valores de salida deseados (calidad deseada),
previa determinacin de valores de entrada optimizados.

2.4. Diseo Metodolgico


En la presente investigacin se encontr un nuevo tipo de redes neuronales
artificiales para aplicar en los trabajos de mejora de la calidad; para tal efecto
la Poblacin que se estudi la constituyeron el conjunto de metodologas de
mejora de la calidad, y a travs de una primera discriminacin

gruesa

(muestreo) sobre las ms importantes; se seleccion una Muestra de las ms


relevantes, que fueron las de ingeniera de la calidad como son: anlisis
estadstico para el diseo de experimentos y redes neuronales artificiales.
Seguidamente se consider como Unidad de Anlisis a los niveles de error
en la determinacin de los parmetros de mejora, y en un primer momento se
tuvo en cuenta aspectos tericos y luego experiencias aplicativas de otras
investigaciones y procesos concretos.

114

Metodologa Empleada.
La metodologa sigue los pasos necesarios para demostrar la aceptacin o
rechazo de la hiptesis planteada. Para ello luego de obtener y analizar la
informacin respectiva, se trabaja con la variable independiente Redes
Neuronales Artificiales RNA. Se analizan las RNA existentes y sus ventajas
para aplicar en la mejora de calidad de procesos, con base a dicha
informacin se desarrolla una RNA para aplicar en los anlisis de datos para la
mejora de la calidad de procesos, la misma que es evaluada con relacin a
otras RNA y las tcnicas estadsticas tradicionales de mejora de la calidad de
procesos (anlisis estadsticos), a fin de evaluar su desempeo a travs del
error de sus resultados.
El estudio de las RNA se efectu con base a indicadores como son nmero de
variables de entrada, nmero de neuronas y de capas, funciones de
activacin, pesos, umbrales y nmero de variables de salida.
Las RNA seleccionadas fueron las de Funcin de Base Radial, de Diseo
Exacto, con Distancia Eucldea y con Distancia de Mahalanobis.
La Red desarrollada fue del tipo de Funcin de Base radial, del tipo de Diseo
Exacto con Distancia de Mahalanobis (aplica el algoritmo de Mahalanobis para
el clculo de las distancias entre los centros y los vectores de entrada).
Se seleccionaron siete experimentos de autores y publicaciones reconocidas a
nivel internacional en el campo de la calidad, en los cuales se utiliza el diseo
de experimentos para la mejora de la calidad de procesos; y se aplica a los
mismos

las

RNA

tanto

de

Perceptrn

Multicapa

con

aprendizaje

Backpropagation, como las de Funcin de Base Radial de tipo GRNN, de


Diseo Exacto con Distancia Eucldea y la Red Desarrollada que es una RNA
de Diseo Exacto con Distancia de Mahalanobis.

Asimismo, tambin, se trabaj con valores deseados. Es decir, que se


cambian los valores de entrada de tal manera que permitan obtener el ptimo
deseado por los clientes. Para ello, se sigui un proceso ajustado, que
consiste en:
1 Dados datos de entrada y de salida actuales, y datos deseados de salida.

115

2 Construir Red Inversa:


1) Encontrar la RNA que con los datos de salida actuales del proceso
como entradas y con los datos de entrada como supervisores (objetivo),
permita obtener los valores de salida; es la Red Inversa.
2) A la Red Inversa obtenida se aplican los datos deseados de salida para
obtener los valores de entrada optimizados. Es decir se obtienen los
valores que deben tener las entradas para obtener la calidad deseada.
3 Red Directa:
3) Con los datos de entrada y salida actuales se obtiene la Red respectiva
que los relaciona, es la Red Directa.
4) A la Red Directa obtenida se aplican los datos de entrada optimizados
(obtenidos en 2.), se obtienen nuevos datos de salida que sean los ms
cercanos a los datos de salida deseados.
Esta nueva red, tendr la particularidad de poder predecir el desempeo
futuro del proceso, es decir, dados unas entradas determina los valores de
salida. Por otro lado tambin se tienen los valores de entrada del proceso
que han sido optimizados.
Los experimentos seleccionados corresponden a casos tipos de diseo de
experimentos para la mejora de la calidad de procesos, los mismos que se
presentan en los numerales 3.2, 3.3, 3.4 y 3.5.; los cuales fueron:
1) Del artculo Modified Desirability Functions for Multiple Response
Optimization, escrito por Del Castillo et al.; publicado en el Journal of
Quality Technology, vol.28, N3. (ver numeral 3.2.)
2) Del Artculo Design of Experiments. Improve Molded Part Quality,
escrito por Vasconcelos et al.; publicado en Quality Progress, N 7 del
2003. (ver numeral 3.2.)
3) Del texto Diseo y Anlisis de Experimentos, Captulo 9, Ejemplo 9-2,
escrito por Montgomery, D., publicado por Editorial Iberoamericana, 2003.
(ver numeral 3.3.)
4) Del texto Understanding Industrial Designed Experiments, Caso
Estudio 8-23. escrito por Schmidt, R y Launsby , R., publicado por Air
Academy Press, 1994. (ver numeral 3.3.)

116

5) Del texto Taguchi Techniques for Quality Engineering ejemplo del


Apndice G7, escrito por Ross, P., publicado por McGraw Hill, 1988. (ver
numeral 3.3.)
6) Del artculo How to Formulate the Ultimate Margarita: A Tutorial on
Experiments with Mixtures, escrito por Montgomery, D y Bowles, M. y
publicado en el Quality Engineering, volumen 10(2), pginas 239-253. (ver
numeral 3.4.)
7) Del artculo Improving Parafin Wax Yield Through Process Optimization
Using Taguchis Method of Experimentation, escrito por Anand, K. y
publicado en el Quality Engineering, volumen 6(1), pginas 39-56. (ver
numeral 3.5.)

Se obtuvieron los Resultados, se realiz la Discusin de los resultados


obtenidos y se establecieron las Conclusiones y Recomendaciones.
Finalmente se procedi a la redaccin del informe final.

Instrumentos y tcnicas de recoleccin de

datos, fueron el ingreso a

diversas bases de datos cientficas, tanto tesis, como investigaciones, en


bases de datos como las de la IEEE The Institute of Electrical and Electronics
Engineering, ACM American for Computing Machinery, ASQ American Society
for Quality, MIT Massachusetts Institute of Technology, entre otras.
Tcnicas de procesamiento, anlisis e interpretacin de datos, fueron
fundamentalmente de tipo matemtico y estadstico, relacionadas con
optimizacin y aproximacin de funciones.

117

CAPTULO III
DESARROLLO DE LA RED, SU APLICACIN Y RESULTADOS
OBTENIDOS
3.1. Anlisis de las caractersticas de las Arquitecturas de Redes Neuronales y
sus posibilidades de aplicar para la Mejora de la Calidad de procesos.

En la Tabla 10 que se presenta a continuacin se aprecia el anlisis efectuado


de las caractersticas de las Redes Neuronales Perceptrn, Adaline y
Pereptrn Multicapa.

En la Tabla 11 que se presenta en la pgina 121 se aprecia el anlisis


efectuado de las caractersticas de las Redes Neuronales de Base Radial,
Recurrentes y de Aprendizaje no Supervisado.

118

Tabla 10. Anlisis de las caractersticas de las Redes Neuronales Perceptrn, Adaline y Pereptrn Multicapa.
A.1.
Arqui
tectura

A.2.
Apren
dizaje

Perceptrn

Adaline

Es una estructura monocapa en la que


hay un conjunto de neuronas de
entrada y una o varias neuronas de
salida. Cada una de las neuronas de
entrada tiene conexiones con todas las
clulas de salida

Idntica al Perceptrn, pero es capaz de


realizar un mejor aprendizaje. Porque es un
elemento combinador adaptativo, que recibe
un conjunto de entradas y las combina para
producir una salida.

Perceptrn Multicapa
Tiene las posibilidades de las capas ocultas en una red.
As se puede resolver el problema XOR que no puede
resolver el Perceptrn simple debido a la capa oculta que
se aade. Es un perceptrn multicapa que utiliza el
algoritmo backpropagation para el aprendizaje

Sea x un patrn de entrenamiento y


S(x) su clase asociada, tomando
valores en (-1,1), el proceso de
aprendizaje (con limitaciones) se
puede describir as:
1) Empezar con valores aleatorios
para los pesos y el umbral.
2) Seleccionar un vector de entrada x
del conjunto de ejemplos de
entrenamiento.
3) Si Y S(x), la red da una
respuesta incorrecta. Modificar Wi
de acuerdo con: Wi = S(x) Xi
(Regla
de
aprendizaje
del
Perceptrn)
4) Si no se ha cumplido el criterio de
finalizacin, volver a 2.
Como el umbral es equivalente a un
peso adicional, al que se denota por
Wo cuya entrada es siempre 1 (Xo = 1),
la ecuacin anterior se puede extender
para el umbral de la siguiente manera:
Wi = S(x) Xi; i = 0,...,n

La regla de aprendizaje del PERCEPTRON


no permite producir salidas reales, debido a
que su funcin de activacin: escaln; slo
permite salidas binarias: 1, -1.
El procedimiento de aprendizaje definido
por la regla Delta ser :
1.Inicializar los pesos de forma aleatoria
2.Introducir un patrn de entrada
3. Calcular la salida de la red, compararla
con la esperada deseada y obtener la

Usa el algoritmo Backpropagation. Los pasos a seguir son:


1) Se inicializan los pesos y umbrales de la red. Valores
aleatorios, alrededor de cero.
2)Se toma un patrn n del conjunto de entrenamiento,
(X(n), S(n)), y se propaga hacia la salida de la red el vector
de entrada X(n) utilizando las ecuaciones:
a) activacin de las neuronas de la capa de entrada
b) activacin de las neuronas de la capa oculta c
c) activacin de las neuronas de la capa c-1
Obtenindose as la respuesta de la red para dicho vector
de entrada, Y (n)
3) Se evala el error cuadrtico cometido por la red para el
patrn n utilizando la ecuacin
4) Se aplica la regla delta generalizada para modificar los
pesos y umbrales de la red. Para ello se siguen los
siguientes pasos:
4.1.) Se calcula los valores de para todas las neuronas
de la capa de salida.
4.3.) Se modifican pesos y umbrales de la red siguiendo las
siguientes ecuaciones para los pesos y umbrales de la
capa de salida:
5) Se repiten los pasos 2, 3 y 4 para todos los patrones de
entrenamiento, completando as una iteracin o ciclo de
aprendizaje.
6) Se evala el error total E cometido por la red, mediante
la ecuacin siguiente:

diferencia: ( s y )
4.Para todos los pesos, multiplicar dicha
diferencia por la entrada correspondiente, y
ponderarla por una tasa de ap
5.Modificar el peso restando del valor
antiguo la cantidad obtenida en 4
Si no se ha cumplido el criterio de
convergencia, regresar a 2; si se han
acabado todos lo patrones, empezar de
nuevo a introducir patrones.
p

119

E = 1/N

e( n )

; donde N es el nmero de patrones y

n 1

A3.
Limita
ciones
/Venta
jas

No funciona para relaciones


entrada y salida no lineales

de

No funciona para relaciones de entrada y


salida no lineales. Utiliza la regla delta de
aprendizaje, por ello es superior al
perceptrn.

e(n) es el error cometido por la red para el patrn (entrada)


n. Dicho error tambin recibe el nombre de error de
entrenamiento, pues se calcula utilizando los patrones de
entrenamiento.
7) Se repiten los pasos 2,3,4,5 y 6 hasta alcanzar un
mnimo del error de entrenamiento, para lo cual se realizan
m ciclos de aprendizaje.
Funciona para relaciones de entrada y salida no lineales.
Utiliza la regla delta generalizada para el aprendizaje y el
algoritmo backpropagation, al tener varias capas y por lo
menos una oculta.
Son aproximadores universales. Son una posibilidad a
utilizar para optimizar procesos productivos.

120

Tabla 11. Anlisis de las caractersticas de las Redes Neuronales Base Radial, Recurrentes y De Aprendizaje no Supervisado.

R.N. Base Radial


A.1.
Arqui
tectura

Son redes multicapa con conexiones


hacia delante, al igual que el
perceptrn multicapa.
Las redes de base radial se
caracterizan porque estn formadas
por una nica capa oculta y cada
neurona de esta capa posee un
carcter local, en el sentido de que
cada neurona oculta de la red se activa
en una regin diferente del espacio de
patrones de entrada. Este carcter
local viene dado por el uso de las
llamadas funciones de base radial,
generalmente la funcin gausiana,
como funciones de activacin. Las
neuronas de la capa de salida de las
redes de base radial simplemente
realizan una combinacin lineal de las
activaciones de las neuronas ocultas.
Las redes neuronales de base radial
estn formadas por tres capas de
neuronas, una de entrada, una nica
oculta y una de salida.

R.N. Recurrentes

RN De Aprendizaje no Supervisado

Crean bucles en las neuronas de la red


mediante el uso de las llamadas conexiones
recurrentes, pudiendo aparecer en la red
conexiones de una neurona con ella misma,
conexiones entre neuronas de una misma
capa o conexiones de las neuronas de una
capa a la capa anterior.
Implica, generalmente, un aumento del
nmero de pesos o parmetros ajustables en
la red, lo cual permite que aumente la
capacidad de representacin, pues en las
redes de neuronas artificiales la informacin
se representa de manera distribuida en los
pesos de las conexiones y/o en las propias
neuronas. Sin embargo, el aumento de
parmetros
ajustables,
complica
el
aprendizaje de las redes recurrentes
La activacin de una neurona con
conexiones recurrentes ya no depende slo
de las activaciones de las neuronas en la
capa anterior, sino que depende tambin del
estado o activacin de cualquier otra
neurona de la red conectada a ella, o incluso
de su propia activacin. En las redes de
neuronas recurrentes es necesario incluir la
variable tiempo en la activacin o estado de
una neurona
Red de Hopfield
Es un modelo de memoria asociativa de
patrones o muestras, que es capaz de
recuperar patrones almacenados a partir de
informacin incompleta sobre los patrones o
incluso a partir de patrones con ruido.

No necesitan de un profesor o supervisor externo para


realizar su aprendizaje.
Regla de Hebb Cuando un axn de una clula A est
bastante cerca para excitar a una clula B y repetida o
presistentemente dispara, entonces se produce algn
proceso de desarrollo o cambio metablico de tal forma
que la eficiencia del disparo de A hacia B aumenta. Redes
de Hopfield y Kohonen
Modelo de interaccin lateral.
La red puede adaptar sus respuestas de tal forma que la
posicin de la neurona que produce la respuesta pasa a ser
especfica de una determinada caracterstica de la seal de
entrada. Esta especificidad se da en el mismo orden
topolgico para la red que el que existe entre las
caractersticas de las seales de entrada. Esto significa que
la estructura topolgica de la red absorbe a su vez aquella
que se produce entre las caractersticas de los datos, y por
tanto el sistema no slo es capaz
de realizar una
clasificacin de estmulos, sino que adems pondr de
relieve y conservar las relaciones existentes entre las
diferentes clases obtenidas.
Cada neurona est conectada con otras de su entorno de
manera que produce una excitacin en las ms prximas y
una inhibicin en las ms alejadas. Tanto la excitacin
como la inhibicin laterales son gradualmente ms dbiles a
medida que nos alejamos de la neurona en cuestin.
Este mecanismo hace que cuando un estmulo produce una
reaccin en una clula, las clulas de su inmediato entorno
se vean influenciadas por dicha reaccin, de una manera
positiva las ms cercanas, y negativa las ms alejadas.
Igualmente, a medida que la seal se aleja de la clula que
la produjo, esa influencia va progresivamente debilitndose.
La arquitectura de una red de neuronas artificial con
aprendizaje competitivo es la siguiente. Existen dos capas

121

A.2.
Apren
dizaje

Se resume en los siguientes pasos:


1) Se inicializan todos los parmetros
de la red. En el caso de las amplitudes,
pesos y umbrales, esta inicializacin
suele hacerse de manera aleatoria con
valores cercanos a cero. Para los
centros es, generalmente, preferible
inicializarlos aleatoriamente a patrones
de entrada o a la salida de un
algoritmo de clasificacin aplicado en
el espacio de entrada.
2) Se toma un patrn del conjunto de
patrones disponibles (X(n),S(n)) y se
calcula al salida de la red, Y(n), para el
patrn de entrad X(n).
3) Se evala el error e(n) cometido pro
la red para dicho patrn, con la

Tienen
dos
fases
de
operacin,
almacenamiento y recuperacin. Fase de
almacenamiento: se van a determinar los
valores que deben tomar los pesos de la red
para almacenar un conjunto de patrones, y en
la fase de recuperacin describe el
mecanismo para recuperar la informacin
almacenada a
partir de informacin
incompleta.
De acuerdo con la regla de Hebb para
almacenar patrones, el peso de la conexin
de la neurona j a la neurona i en la red de
Hopfield viene dado por :
p

w ji x j (k )xi (k ) i j
k 1

Fase de recuperacin

denominadas F1 y F2. La capa F1 es la llamada capa de


entrada y recibe los datos de entrada (seales de entorno).
La capa F2 es la capa de competicin y se encarga de
producir la salida.
Cada clula de la capa F1 est conectada con todas las
clulas de la capa F2 a travs de conexiones ponderadas
variables. Por su parte la capa F2, adems de recibir las
entradas de la capa F1 tiene conexiones laterales
inhibitorias entre todas las clulas de su capa, excepto
consigo misma, en que la conexin es excitatoria. Las
conexiones existentes en la capa F2 son fijas y el valor es
asignado en el momento de creacin de la red. Esta
arquitectura es un sistema de interaccin lateral en el que la
funcin de interaccin de cada neurona slo toma valores
positivos para un radio de cero, es decir, para la propia
neurona, y valores negativos constantes para el resto de
neuronas. Cada neurona se refuerza a s misma, realimenta
su valor de activacin para compensar las inhibiciones que
provienen del resto de la neuronas de su capa
Aprendizaje competitivo. Es un tipo de aprendizaje no
supervisado que sirve de base para varios modelos de
Redes de Neuronas Artificiales. El objetivo de estas redes
es categorizar los datos de
entrada. As los datos
parecidos deben ser clasificados como pertenecientes a la
misma categora. En estos modelos de red suele haber
una capa de clasificacin compuesta de tantas neuronas
como categoras pueda haber en los datos. Cada categora
est representada por un prototipo cuyas caractersticas
son una especie de compendio de las caractersticas de
los datos pertenecientes a esa misma categora. En la
capa de clasificacin, cada neurona corresponde a un
prototipo. El sistema debe relacionar cada neurona,
prototipo, con los datos de entrada que representa. Es
decir, es agrupa los datos de entrada en categoras, por
similitud, y se asigna a cada categora un prototipo, que
ms tarde ser utilizado para clasificar datos nuevos y

122

ecuacin:

Sea
r

e(n) =

(s
K 1

(n) y k (n)) 2

donde Y(n) = (y 1 (n),..., y r (n)) y S(n)


= (s 1 (n),..., s r (n)) los vectores de
salida de la red y salida deseada para
el
patrn
de
entrada
X(n),
respectivamente.
4) Se modifican los pesos, umbrales,
centros y amplitudes de la red.
5) Se repiten los pasos 2, 3 y 4 para
todos los patrones de entrenamiento.
6) Se repiten los pasos 2, 3, 4 y 5
hasta conseguir la convergencia, es
decir, hasta que la suma de los errores
para todos los patrones se estabilice,
segn la ecuacin:
N

E = 1/N

e( n )
n 1

en este momento se alcanza un


mnimo de dicha funcin.

x ( x1 , x2 ,..., xn ) un patrn de prueba,

diferente a los patrones almacenados en la


fase anterior.
Dicho patrn representa,
generalmente, una versin de algn patrn
almacenado x(k) con informacin incompleta
o ruido. Mediante esta fase, la red de
Hopfield va a recuperar el patrn almacenado
ms parecido al patrn de prueba x. Para
ello, sigue el siguiente procedimiento :
Se inicializan los estados de las n
neuronas de la red utilizando dicho patrn x,
es decir :
Se calculan los estados de la red en los
siguientes instantes de tiempo utilizando las
ecuaciones de s i (t 1) , sng vi (t 1) y de

vi (t 1) hasta conseguir un punto estable

o punto fijo de la red, entendiendo como


punto estable aquel en el que los estados de
todas las neuronas de la red permanecen
invariantes con el tiempo

desconocidos.
Cuando se recibe una entrada en la capa F!, sta se
propaga hasta la capa F2, cuyas neuronas tendrn un
valor de activacin proporcional al valor de la entrada
propagada. Esta proporcin vendr dada por los valores de
la conexiones entre F1 y F2 (W ij ). Una vez que las
neuronas de F2 han sido activadas por la capa F1, sta
deja de actuar, y la seal es propagada, de forma
asncrona, a travs de la capa F2, de manera que todas las
neuronas tratarn de impedir que las dems tengan un
valor de activacin alto,
gracias a las conexiones
inhibitorias con todas sus vecinas; a la vez que intentarn
tener ellas mismas un valor de activacin alto, gracias a las
conexiones reflexivas excitatorias.
El algoritmo que describe el funcionamiento de la red es el
siguiente :
1.Se recibe el estmulo en F1.
2.Se propaga la seal hasta F2 y se calcula el valor de
excitacin para cada neurona de F2.
3.Se inhiben las conexiones entre la capa F1 y la F2.
4.Se propaga la seal por la capa F2, calculndose los
nuevos valores de excitacin de las neuronas.
Cuando slo haya una clula (clula ganadora) con un
valor de salida mayor que cero, ir al paso 5.
4.Ir al paso 3.
5. Restablecer las conexiones entre las capas F1 y F2
Calcular los nuevos valores para los pesos de las
conexiones entre la capa F1 y la clula neurona ganadora
en el paso 3
La capa F2 se ha estabilizado cuando todas las salidas de
las neuronas tienen un valor de cero, excepto una, que
ser la que al principio ha recibido la entrada ms alta de la
capa F1, ya que ser la que habr inhibido en mayor grado
al resto y tambin habr reforzado a s misma en mayor
grado.
Las neuronas de la capa F2 compiten por la entrada, de

123

A3.
Limita
ciones
/Venta
jas

Estructura similar al Perceptrn


multicapa, pero con una nica capa
oculta; cada neurona de la capa oculta
posee un carcter local; es decir se
activa en una regin diferente del
espacio de patrones de entrada. Se
usa la funcin gausiana: funciones de
base radial en la capa oculta.
Estas
redes
tambin
son
aproximadores universales por lo que
son una posibilidad a utilizar para
optimizar procesos productivos.

Estas tienen la caractersticas de tener total o


parcialmente la recurrencia o bucle, incluyen
las que consideran el tiempo, las que son
asociativas como la de Hopfield, las que son
parcialmente recurrentes como las de Elman
y Jordan y las que tienen aprendizaje en
tiempo real, todas ellas por su particularidad
de funcionamiento son ms apropiadas para
usos distintos al que nos interesa de mejora
de la calidad de procesos, especialmente en
el diseo del proceso, que es lo fundamental.
Estas redes podran ser ms tiles para
identificar patrones, identificar caractersticas
e incluso ajustar procesos, previamente
diseados y para hacer mejoras en tiempo
real.

ah el nombre del mtodo. La neurona que gana la


competicin: neurona ganadora. Esta representa al
prototipo que se asigna al dato de entrada. La siguiente
vez el mismo dato de entrada har activarse an ms a su
prototipo relacionado, para cada dato de entrada se realiza
un ciclo de aprendizaje. Las conexiones entra la capa F1 y
la neurona ganadora son reforzadas. Este aprendizaje slo
modifica las conexiones de la neurona ganadora.
Redes del tipo no supervisado, que se han desarrollado a
partir de los estudios antes mencionados son las de
Mapas Autoorganizativos de Kohonen y las de Teora de la
Resonancia Adaptativa ART.
Este tipo de redes por la limitacin de no tener el patrn o
modelo a lograr (supervisor) es que no son de utilidad para
el objetivo que buscamos de mejora de la calidad a travs
del diseo de los procesos; en todo caso podran utilizarse
en un trabajo inicial de desarrollo de nuevos productos en
los que no se conozca lo que se va a obtener o lo que se
persigue y se toma en cuenta lo que se tienen, durante la
elaboracin del producto o desarrollo del proceso. Por otro
lado para el buen clculo de resultados con este tipo de
redes se requiere de la redundancia, que es no nuestro
caso.

En conclusin de lo revisado sobre las principales redes neuronales artificiales que en la actualidad se conocen, son el Perceptrn
Multicapa con aprendizaje de backpropagation, y las Redes Neuronales de Base Radial las ms adecuadas para desarrollar una
red neuronal artificial especfica para la mejora de la calidad de diseo de procesos, que d mejores resultados que los obtenidos
con los diseos experimentales y las RNA ya existentes, para los casos que se trabaje con varias variables dependientes e
independientes y en los que sus relaciones no sean lineales.

124

3.2. Desarrollo de una Arquitectura de Red Neuronal para Mejora de la


Calidad de procesos.
Teniendo en cuenta que el concepto mayoritariamente aceptado sobre calidad
es que la calidad la da el cliente, es que podemos considerar que en los casos
de mejora de la calidad debemos conocer que es lo que quieren los clientes, y
con ello se tiene la informacin que debe servir de patrn a lograr por las redes
neuronales que queremos construir. Es decir, se trata de un aprendizaje
supervisado. Para el desarrollo de la arquitectura de la RNA se ha trabajado en
3.2.1. la seleccin del Shell, en 3.2.2. el desarrollo del programa; en 3.2.3. lo
referente al Perceptrn Multicapa con Backpropagation y los mtodos
estadsticos en comparacin con la Red desarrollada y en 3.2.4. lo referente a
las Redes Neuronales de Base Radial y los mtodos estadsticos en
comparacin con la Red desarrollada
3.2.1. Seleccin del Shell a utilizar.
Se consider en el anlisis de la seleccin del shell apropiado para la
investigacin los siguientes programas de computacin:
a. MATLAB - NEURAL NETWORK TOOLBOX.
b. NEUROSHELL
c. NEUROSOLUTIONS
d. SPRINN

Los criterios considerados fueron:


1) Ser especializado en Redes Neuronales Artificiales.
2) Elaborado para aplicacin a diversos campos de actividad.
3) Trabajo con diversos tipos de Redes Neuronales, entre las que deben
estar Perceptrn Multicapa con aprendiaje Backpropagation y Redes
Neuronales de Funcin de Base Radial.
4) Capacidad de permitir al usuario elaborar programas de computacin,
que puedan interactuar con los que tiene el software.
5) Se haya aplicado a diversos trabajos de investigacin.
6) Presentacin de parmetros de las redes y de resultados
7) Interconectado con programa de simulacin.

125

Cada criterio se calific con tres niveles: 3 para lo mejor, 2 para nivel
intermedio, 1 para nivel reducido y 0 para no aplicacin.

A continuacin se presenta la tabla de seleccin desarrollada:


Tabla 12. Seleccin del Shell a utilizar
Shell
MATLAB
NEUROSHELL NEURO
SOLUTIONS
Criterio
1)Especializado
3
3
3
2)Diversos cam- 3
3
3
pos de actividad
3)Diversos Tipos 3
2
3
Redes
4)Programacin 3
2
1
5)Diversas
3
3
2
investigaciones
6)Presenta
3
2
2
parmetros de
las redes.
7)Interconewxin 3
2
1
con programa
simulacin
TOTAL
21
17
15

SPRINN

3
1
1
1
1
1

Como resultado de la evaluacin realizada se seleccion el Shell MatlabNeural Network Tooolbox; versin 7.2 de Matlab (R2006a), con el toolbox:
Neural networks; especialmente desarrollado por Mathworks para el trabajo con
redes neuronales.
3.2.2 Desarrollo del Programa de computacin.
a. REQUISITOS DEL PROGRAMA.
La RNA desarrollada en el presente trabajo, es una variacin de las RNA de
base Radial, donde la distancia Eucldea es modificada mediante el clculo de
la distancia de Mahalanobis. Donde se introduce el factor K en lugar de la
desviacin d. Siendo K la inversa de la matriz de la covariancia de los vectores
de entrada. Se trata de un ajuste al clculo de las distancias con el objeto de
obtener mejores resultados. Resultados que expresan mejor la relacin entre
las entradas y las salidas.

126

Por tanto en lugar de la expresin:

(r ) e

( x c ) 2
2 i2

Se utiliza la expresin:
( x c )T K ( x c )

(r ) e

donde K es:
K=[E(x-m)(x-m)T]-1
m= el vector medio calculado considerando todos los vectores de entrada.
T= smbolo de la transpuesta de la matriz.
C=los centros de la funcin de base radial.
K=Distancia de Mahalanobis.

Por tanto el programa desarrollado calcula los parmetros de la Red con base
a la Distancia de Mahalanobis, y entrenada la Red permite simular el valor de
salida, dado un valor de entrada.

b. BASE DE CONOCIMIENTO.
b.1. Arquitectura de la RNA de Funcin de Base Radial, seleccionada:
Nmero de capas: 3, una de entrada, una oculta y una de salida.
Nmero de neuronas de la capa de entrada: igual al nmero de vectores de
entrada.
Nmero de neuronas de la capa oculta: igual al nmero de neuronas de
entrada.
Nmero de neuronas de la capa de salida: igual al nmero de vectores de
salida.
Neuronas de la capa de entrada con vectores de entrada.

Neuronas de la capa oculta con funcin de transferencia: funcin de Gauss,


con Distancia de Mahalanobis entre centros y vectores de entrada (equivalen a
los pesos de entrada: w1) y con amplitudes (equivalen a los umbrales: b1)
Neuronas de la capa de salida: con funcin de transferencia lineal; que recibe
las salidas de la capa oculta y se ponderan por los pesos entre la capa oculta

127

(w2) y la capa de salida ms los umbrales de las neuronas de la capa de salida


(b2).

Tabla 13. Tabla de Arquitectura:


Entradas
Xi

pesos
W1=x1

Capa de
.entrada

Capa oculta
Distancia
Funcin
centros
radial
b1 Umbrales: amplitud

Capa
oculta, radial
Centros, Dist.

Pesos
W2

b2:umbrales

Capa de
salida, lineal
Pesos

Entrada 1

Entrada 2

Salida 1
1

2
2

.o o o

.o o o

.o o o

Entrada n

Salida
Sumatoria

Salida 2

Salida p

Figura 38. Modelo de la Red Neuronal Desarrollada

Teniendo en cuenta los datos entrada si son presentados como vector o como
matriz. En el primer caso se utiliza el programa 14 r y en el segundo el 15 r.
INICIO

INGRESAR DATOS
DE ENTRADA

SON
UN
VECTO

NO
SI

APLICAR
PROGRAMA 14r.
FASES 1 Y 2

APLICAR
PROGRAMA 15r
FASES 1 Y 2

FIN

FIGURA 39. FLUJOGRAMA DE SELECCIN DE PROGRAMA DE RED DESARROLLADA

b.2. PROGRAMA 14r : PARA DATOS DE ENTRADA Y SALIDA COMO UN


VECTOR.

128

FASE I. ENTRENAMIENTO DE LA RED


Dados los datos iniciales:
Valores de Entrada: p
Valores de Salida: t
Amplitud d (sc, en Matlab).

Se obtendr como salidas los valores de:


Peso de Entrada: w1
Umbral de entrada b1
Peso de Salida: w2
Umbral de salida: b2
Inversa de la matriz de covariancia: K

Diagrama de Flujo de Entrenamiento de la Red:

129

INICIO

P1.INGRESAR DATOS

P2.DETERMINAR DIMENSIONES
DE P Y T

P3. DETERMINAR PESOS W1

P4. CALCULAR UMBRALES B1

P5. CALCULAR LAS


DISTANCIAS Z

P6. CALCULAR SALIDAS CAPA


OCULTA A.

P7. CALCULAR MATRIZ


SEUDOINVERSA

P8. CALCULAR PESOS W2

P9. CALCULAR UMBRALES B2

P10. MOSTRAR RESULTADOS

FIN

FIGURA 40. ENTRENAMIENTO DE LA RED. PROGRAMA 14 r. FASE I.

PASO 1. INGRESAR LOS DATOS DE P Y T.

PASO 2. DETERMINAR LAS DIMENSIONES DE P Y T. Determinar


dimensiones del los vectores de entrada (p) vectores de salida (t)

130

PASO 3. DETERMINAR PESOS W1. Determinar valores de pesos iniciales w1

PASO 4. CALCULAR UMBRALES B1.Calcular los valores de los umbrales de


las neuronas de la capa oculta. b1.

PASO 5. CALCULAR LAS DISTANCIAS Z. Calcular las distancias de los pesos


w1 a los vectores de entrada p: Z, aplicando la distancia de Mahalanobis. Para
ello se calcula primero la distancia Eucldea, que se obtiene con un comando
de Matlab y se multiplica por la constante K que es la inversa de la matriz de
covariancia de los vectores de entrada.

PASO 6. CALCULAR SALIDAS CAPA OCULTA A. Calcular los valores de


salida de las neuronas de la capa oculta, mediante la funcin de Gauss
aplicada a los valores obtenidos por el producto entre la distancia calculada Z
(obtenidos en el paso 5) por los umbrales b1 (obtenidos en el paso 4)

PASO 7. CALCULAR MATRIZ SEUDOINVERSA .Calcular mediante el mtodo


de la seudo inversa, la matriz que contiene los pesos w2 entre la capa oculta y
la de salida y umbrales de la capa de salida b2. Para ello se iguala los valores
a los de la salida dados inicialmente (t). [w2, b2]*[A;ones]= t; y wb=t/[P;
ones(1,Q)].Donde A es el vector de salida de las neuronas de la capa oculta.
Por el mtodo de la seudo inversa se tiene: wb=A\T.

PASO 8 .CALCULAR LOS PESOS W2.Calcular los valores de los pesos de la


capa oculta a la capa de salida w2. Con base a la matriz obtenida en el paso
anterior.

PASO 9. CALCULAR UMBRALES B2. Calcular los valores del umbral de las
neuronas de la capa de salida b2.Con base a la matriz obtenida en el paso 7.

PASO 10. MOSTRAR RESULTADOS. Mostrar los parmetros de la Red.


Comandos en Matlab, del Programa:

131

Valores de Entrada: p,t,sc.


function [w1,b1,w2,b2,K] = newrbfcev14r(p,t,sc)
%Paso 1
[r,q] = size(p);
[s2,q] = size(t);
%Paso 2
w1 = p';
%Paso 3
b1 = ones(q,1)*sqrt(-log(0.5))/sc;
%Paso 4
m=sum(p)/q;
H=(p-m)*(p-m)';
K=pinv(H);
D=dist(w1,p);
Z=K*D;
%Paso 5
a1=radbas(Z.*(b1*ones(1,q)));
%Paso 6
x=t/[a1; ones(1,q)];
%Paso 7
w2=x(:,1:q);
%Paso 8
b2=x(:,q+1);

Valores de salida: w1,b1,w2,b2, K.

FASE II. SIMULACIN.


Dados los datos iniciales:
Valores de Entrada: pe
Peso de Entrada: w1
Umbral de entrada b1
Peso de Salida: w2
Umbral de salida: b2
Amplitud d (sc, en Matlab). Por default=1.

Se obtendr como salidas los valores de:


Salida de la red: ts

132

Diagrama de Flujo de Simulacin:


INICIO

P1.INGRESAR DATOS

P2.DETERMINAR DIMENSIONES
DE PE y W1

P3: r

~=

P4. CALCULAR LAS


DISTANCIAS Z

FIN

P5. CALCULAR SALIDAS CAPA


OCULTA A.

P6. CALCULAR SALIDA POR EL


PESO

P7. CALCULAR SALIDA ts

P8. MOSTRAR RESULTADOS

FIN

FIGURA 41. SIMULACIN DE LA RED. PROGRAMA 14r. FASE II.

PASO 1. INGRESAR DATOS. Ingresar parmetros de la Red calculados en la


fase I.

PASO 2. DETERMINAR LAS DIMENSIONES DE PE Y W1. Determinar


dimensiones de los valores de entrada (pe) cuya correspondiente salida se
busca y de W1 Pesos obtenidos en fase 1.

133

PASO 3. VERIFICAR DATOS. Se verifica que el nmero de columnas de W1


sea igual al nmero de filas de p, para poder continuar. En caso de no serlo se
enva mensaje de error y termina el programa.

PASO 4. CALCULAR LAS DISTANCIAS Z. Calcular las distancias de los pesos


w1 a los vectores de entrada pe: Z, aplicando la distancia de Mahalanobis;
cuya forma de clculo es similar a la fase 1.

PASO 5. CALCULAR SALIDAS CAPA OCULTA A. Calcular los valores de


salida de las neuronas de la capa oculta, mediante la funcin de Gauss
aplicada a los valores obtenidos por el producto entre la distancia calculada Z
(obtenidos en el paso 4) por los umbrales b1 (obtenidos en la fase I).

PASO 6. CALCULAR LA SALIDA POR EL PESO. Calcular el producto de los


pesos w2 entre la capa oculta y la de salida y las salidas de la capa oculta
(obtenida en el Paso 5).

PASO 7. CALCULAR LA SALIDA. Se obtiene sumando el valor obtenido en el


paso 6 al valor del umbral b2 que es dato de entrada.

PASO 8. MOSTRAR RESULTADOS. Mostrar la salida calculada de la Red

Comandos en Matlab, del Programa:


Valores de entrada:
Parmetros obtenidos en la fase I:
Peso de Entrada: w1
Umbral de entrada b1
Peso de Salida: w2
Umbral de salida: b2

Valor cuya salida se busca Pe. En el programa se puso p, por simplicidad.


function [ts] = simnewrbfcev14r(w1,b1,w2,b2,p)

134

%Paso 1.
[s,r] = size(w1);
[r2,q] = size(p);
%Paso 2.
if(r~=r2),error('matriz interna de dimensiones que no concuerdan.'),
end
%Paso 3.
m=sum(p)/q;
H=(p-m)*(p-m)';
K=pinv(H);
D=dist(w1,p);
Z=K*D;
a1=radbas(Z.*(b1*ones(1,q)));
ts=(w2*a1)+b2;

Nota: Como informacin complementaria se adjunta el programa de


Computacin de Matlab que permite calcular la Distancia Eucldea entre dos
puntos, y que se ejecuta a travs del Comando dist(x,y) de Matlab.

DATOS DE ENTRADA: W Y P.
function z = dist(w,p)
[S,R] = size(w);
[R2,Q] = size(p);
if (R ~= R2), error('Inner matrix dimensions do not
match.'),end
z = zeros(S,Q);
if (Q<S)
p = p';
copies = zeros(1,S);
for q=1:Q
z(:,q) = sum((w-p(q+copies,:)).^2,2);
end
else
w = w';
copies = zeros(1,Q);
for i=1:S
z(i,:) = sum((w(:,i+copies)-p).^2,1);
end
end
z = z.^0.5;

135

DATOS DE SALIDA: Distancias entre W y P: Z

INTERFASES DEL PROGRAMA 14r. Vista de interfase de Matlab con el


programa 14r:

Se aprecian las ventanas Workspace; Command History y Command Window:

EJEMPLO DE COMPORTAMIENTO DEL PROGRAMA DE COMPUTACIN.


COMPARACIN CON RED NEURONAL DE BASE RADIAL, TRADICIONAL
DEL PROGRAMA 14 r.
Teniendo como vector de Entrada: p=[ 4 5 6]; como vector de Salida t=[1.5 3.6
6.7];y con amplitud sc =1. Se entrena la Red y luego se trabaja con una entrada
de pe=4.5 y se busca su respectiva salida. Los comandos y resultados se
presentan a continuacin:

Con la Red Newrbe, utilizando Matlab, se obtiene:

136

>> p=[ 4 5 6];


>> t=[1.5 3.6 6.7];
>> sc=1;
>> net=newrbe(p,t);
>> pe=4.5;
>> ts=sim(net,pe)
ts =
2.0967
>> [w1,b1,w2,b2,K]=newrbfcev14r(p,t,sc);
>> [ts]=simnewrbfcev14r(w1,b1,w2,b2,pe)
ts =
2.7248

De lo anterior se aprecia que el resultado de la Red que trabaja con la


Distancia Eucldea se obtiene 2.0967 mientras que con el programa
desarrollado se obtiene 2.7248.
En el siguiente grfico y explicacin se aprecia el mejor desempeo del
resultado obtenido con el programa nuevo propuesto.
p
4.

3 .

t
1.

6 .

Si se aprecian los puntos se tiene que en el caso de p=4.5 corresponde al valor


medio entre 4 y 5; asimismo se ve que en t hay una tendencia a aumentar las
distancias frente a similares aumentos de p. As la distancia entre (3.61.5)>(6.7-3.6) ello significa que a un valor medio entre 4 y 5, debe corresponder
un valor que va ms a la derecha de la distancia media entre 1.5 y 3.6 (=2.55);
2.7248 est a la derecha de 2.55 mientras que 2.0967 a la izquierda. Es decir
que el clculo hecho con la distancia de Mahalanobis, con el programa
preparado da una mejor resultado que el que utiliza la distancia Eucldea.

137

b.3. PROGRAMA 15r: PARA DATOS DE ENTRADA Y SALIDA

COMO

MATRIZ.

FASE I. ENTRENAMIENTO DE LA RED


Dados los datos iniciales:
Matriz de Entrada: p
Matriz de Salida: t
Amplitud d (sc, en Matlab).

Se obtendr como salidas los valores de:


Peso de Entrada: w1
Umbral de entrada b1
Peso de Salida: w2
Umbral de salida: b2
Inversa de la matriz de covariancia: K.

Diagrama de Flujo de Entrenamiento de la Red:

138

INICIO

P1.INGRESAR DATOS

P2.DETERMINAR DIMENSIONES
DE P Y T

P3. DETERMINAR PESOS W1

P4. CALCULAR UMBRALES B1

P5. CALCULAR LAS


DISTANCIAS Z

P6. CALCULAR SALIDAS CAPA


OCULTA A.

P7. CALCULAR MATRIZ


SEUDOINVERSA

P8. CALCULAR PESOS W2

P9. CALCULAR UMBRALES B2

P10. MOSTRAR RESULTADOS

FIN

FIGURA 42. ENTRENAMIENTO DE LA RED.PROGRAMA 15r.FASE I

PASO 1. INGRESAR DATOS DE P Y T. Ingresar datos de P y T como matriz.

PASO 2. DETERMINAR LAS DIMENSIONES DE P Y T. Determinar las


dimensiones de la matriz de entrada (p) y matriz de salida (t)

139

PASO 3. DETERMINAR PESOS W1. Determinar valores de pesos iniciales w1

PASO 4. CALCULAR UMBRALES B1.Calcular los valores de los umbrales de


las neuronas de la capa oculta. b1.

PASO 5. CALCULAR LAS DISTANCIAS Z. Calcular las distancias de los pesos


w1 a los vectores de la matriz de entrada p: Z, aplicando la distancia de
Mahalanobis. Para ello se calcula primero la distancia Eucldea, que se obtiene
con un comando de Matlab y se multiplica por la constante K que es la inversa
de la matriz de covariancia de los vectores de la matriz entrada.

PASO 6. CALCULAR LAS SALIDAS DE LA CAPA OCULTA A. Calcular los


valores de salida de las neuronas de la capa oculta, mediante la funcin de
Gauss aplicada a los valores obtenidos por el producto entre la distancia
calculada Z (obtenidos en el paso 5) por los umbrales b1 (obtenidos en el paso
4)

PASO 7. MATRIZ SEUDOINVERSA .Calcular mediante el mtodo de la seudo


inversa, la matriz que contiene los pesos w2 entre la capa oculta y la de salida
y umbrales de la capa de salida b2. Para ello se iguala los valores a los de la
salida dados inicialmente (t). [w2, b2]*[A;ones]= t; y wb=t/[P; ones(1,Q)].Donde
A es la matriz de salida de las neuronas de la capa oculta. Por el mtodo de la
seudo inversa se tiene: wb=A\T.

PASO 8 .Calcular los valores de los pesos de la capa oculta a la capa de salida
w2.Con base a la matriz obtenida en el paso anterior.

PASO 9. Calcular los valores del umbral de las neuronas de la capa de salida
b2.Con base a la matriz obtenida en el paso 7.

PASO 10. MOSTRAR RESULTADOS. Mostrar los parmetros de la Red.


Comandos en Matlab, del Programa:

140

Valores de Entrada: p,t,sc.


function [w1,b1,w2,b2,K] = newrbfcev15r(p,t,sc)
%Paso 1
[r,q] = size(p);
[s2,q] = size(t);
%Paso 2
w1 = p';
%Paso 3
b1 = ones(q,1)*sqrt(-log(0.5))/sc;
%Paso 4
m=sum(p)/r;
copies=zeros(1,r);
M = m(1+copies,:),1;
H=(p-M)'*(p-M);
K=pinv(H);
D=dist(w1,p);
Z=K+D;
%Paso 5
a1=radbas(Z.*(b1*ones(1,q)));
Paso 6
x=t/[a1; ones(1,q)];
Paso 7
w2=x(:,1:q);
Paso 8
b2=x(:,q+1);

Valores de salida: w1,b1,w2,b2, K.

FASE II. SIMULACIN .


Dados los datos iniciales:
Valores de Entrada: pe
Peso de Entrada: w1
Umbral de entrada b1
Peso de Salida: w2
Umbral de salida: b2
Amplitud d (sc, en Matlab). Por default=1.

Se obtendr como salidas los valores de:


Salida de la red: ts

141

Diagrama de Flujo de Simulacin:


INICIO

P1.INGRESAR DATOS

P2.DETERMINAR DIMENSIONES
DE PE y W1

P3: r

~=

P4. CALCULAR LAS


DISTANCIAS Z

FIN

P5. CALCULAR SALIDAS CAPA


OCULTA A.

P6. CALCULAR SALIDA POR EL


PESO

P7. CALCULAR SALIDA ts

P8. MOSTRAR RESULTADOS

FIN

FIGURA 43. SIMULACIN DE LA RED. PROGRAMA 15. FASE II.

PASO 1. INGRESAR DATOS. Igresar parmetros de la Red calculados en la


fase I
PASO 2. DETERMINAR LAS DIMENSIONES DE PE Y W1. Determinar
dimensiones de los valores de entrada (pe) cuya correspondiente salida se
busca y de W1 Pesos obtenidos en fase I.

142

PASO 3. VERIFICAR DATOS. Se verifica que el nmero de columnas de W1


sea igual al nmero de filas de p. En caso de no serlo se enva mensaje de
error y termina el programa.

PASO 4. CALCULAR LAS DISTANCIAS Z. Calcular las distancias de los pesos


w1 a los de la matriz de entrada pe: Z, aplicando la distancia de Mahalanobis;
cuya forma de clculo es similar a la fase I.

PASO 5. CALCULAR LAS SALIDAS DE LA CAPA OCULTA A. Calcular los


valores de salida de las neuronas de la capa oculta, mediante la funcin de
Gauss aplicada a los valores obtenidos por el producto entre la distancia
calculada Z (obtenidos en el paso 4) por los umbrales b1 (obtenidos en la fase
I).

PASO 6. CALCULAR LA SALIDA POR EL PESO. Calcular el producto de los


pesos w2 entre la capa oculta y la de salida y las salidas de la capa oculta
(obtenida en el Paso 5).

PASO 7. CALCULAR LA SALIDA. Se obtiene sumando el valor obtenido en el


paso 6 al valor del umbral b2 que es dato de entrada.

PASO 8. MOSTRAR RESULTADOS. Mostrar la salida calculada de la Red.

Comandos en Matlab, del Programa:


Valores de entrada:
Parmetros obtenidos en la fase 1:
Peso de Entrada: w1
Umbral de entrada b1
Peso de Salida: w2
Umbral de salida: b2

143

Valor cuya salida se busca Pe. En el programa se puso p, por simplicidad.

function [ts] = simnewrbfcev15rr(w1,b1,w2,b2,p)


[s,r] = size(w1);
[r2,q] = size(p);
if(r~=r2),error('matriz interna de dimensiones que no concuerdan.'),
end
m=sum(p)/r;
copies=zeros(1,r);
M = m(1+copies,:),1;
H=(p-M)'*(p-M);
K=pinv(H);
D=dist(w1,p);
Z=K+D;
a1=radbas(Z.*(b1*ones(1,q)));
ts=(w2*a1)+(b2*ones(1,q));

INTERFASES DEL PROGRAMA 15r. Vista de interfase de Matlab con el


programa 15r:
Se aprecian las ventanas Workspace; Command History y Command Window:

144

EJEMPLO DE COMPORTAMIENTO DEL PROGRAMA DE COMPUTACIN.


COMPARACIN CON RED NEURONAL DE BASE RADIAL, TRADICIONAL
DEL PROGRAMA 15r
Teniendo como Matriz de Entrada p:
p=
Columns 1 through 12
75

75

75

40

40

40

75

75

75

40

40

40

45

45

45

45

45

45

25

25

25

25

25

25

235 235 235 235 235 235 235 235 235 235 235 235
45

45

45

25

25

25

25

25

25

25

25

25

25

25

25

25

25

25

10

10

10

10

25

45

45

45

10

10

25

25

Columns 13 through 24
75

75

75

40

40

40

75

75

75

40

40

40

45

45

45

45

45

45

25

25

25

25

25

25

145

205 205 205 205 205 205 205 205 205 205 205 205
45

45

45

10

10

10

25
3

25
3

10
25

25

25

25

25

45

10

25

25

25

25

3
10

25

25

25

25

25

45

45

25

25

como matriz de Salida t:


t=
Columns 1 through 7
64.3300 73.4300 70.9500 42.7700 41.1500 39.4900 71.6200
Columns 8 through 14
78.4400 73.9600 65.5100 62.4800 59.0500 63.0200 64.1200
Columns 15 through 21
62.6700 44.1200 46.4600 32.3300 68.5900 70.8900 71.5300
Columns 22 through 24
41.0400 44.0200 41.8900
Con sc=1, como amplitud;

CON LA RED NEWRBE DE MATLAB:


>> net=newrbe(p,t);
>> v=sim(net,p)
CON LA ENTRADA DE p SE OBTIENEN LOS VALORES DE t:
v=
Columns 1 through 7
69.5700 69.5700 69.5700 41.1367 41.1367 41.1367 74.6733
Columns 8 through 14

74.6733 74.6733 62.3467 62.3467 62.3467 63.2700 63.2700


Columns 15 through 21
63.2700 40.9700 40.9700 40.9700 70.3367 70.3367 70.3367
Columns 22 through 24
42.3167 42.3167 42.3167
CON 1 VECTOR DE pe SE OBTIENE UN VALOR DE t:
>> pe=[75;45;235;45;3;25;25];

146

>> v=sim(net,pe); v = 69.5700


Si pe1= [75;45;245;45;3;25;25];
>> v=sim(net,pe); v = 42.3167
CON LA RED NEWRBFCEV15r DESARRROLLADA PARA APLICAR CON
MATLAB COMO SHELL:
>> [w1,b1,w2,b2,K]=newrbfcev15r(p,t,sc);
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,p)
CON LA ENTRADA DE p SE OBTIENEN LOS VALORES DE t:
ts =
Columns 1 through 7
69.5700 69.5700 69.5700 41.1367 41.1367 41.1367 74.6733
Columns 8 through 14
74.6733 74.6733 62.3467 62.3467 62.3467 63.2700 63.2700
Columns 15 through 21
63.2700 40.9700 40.9700 40.9700 70.3367 70.3367 70.3367
Columns 22 through 24
42.3167 42.3167 42.3167
CON 1 VECTOR DE pe SE OBTIENE UN DE t:
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,pe)
ts = 69.5700
Si pe1= [75;45;245;45;3;25;25];
>> [ts]= 74.6733
Si se calcula la salida y con la ecuacin de regresin, ver 3.2.4.1., se obtiene
72.04. El clculo con la distancia de Mahalanobis, con la RND Desarrollada da
un mejor resultado que la distancia Euclidea; con Newrbe se obtiene 42.3167,
con la RND 74.6733 y con la ecuacin de regresin 72.04; estos dos ltimos
valores estn ceranos a lo correcto. En el Anexo se adjunta informe de Experto
Consultado, que corrobora las cualidades de la red desarrollada con el
programa y un listado completo de la entrada y salidas de Pogramas
newrbfcev15r y simnewrbfcev15rr.

3.2.3. Red Desarrollada comparada con Perceptrn Multicapa Backpropagation


y Anlisis Estadstico Tradicional, para valores deseados.

147

Datos
Caso sobre clculo de parmetros deseados de un proceso.
Se presenta datos de ejemplo del artculo Modified Desirability Functions for
Multiple Response Optimization de Del Castillo, et al, 1996, publicado en el
Journal de Quality Technology, vol.28,N 3; que trata sobre parmetros para
una faja metlica transportadora para calentamiento y adhesin de conductores
de circuitos integrados en placas de plstico. El calentamiento se da en un
proceso continuo a travs de una corriente de aire caliente a temperatura (x1),
de la faja metlica a la temperatura (x2), y de un bloque de calentamiento a alta
temperatura (x3). Se busca obtener la placa de plstico con los circuitos
adheridos, pero las placas deben tener determinadas temperaturas. Si se
sobrepasa demasiado dichas temperaturas (valores objetivos) las placas se
pueden daar. Estas condiciones de temperatura deben alcanzar las placas en
diversos puntos (valores objetivos) son: Y1, Y2, Y3, Y4, Y5, Y6.
Los datos de entrada X y salida Y se presentan a continuacin en la tabla 14:
Tabla 14. Datos caso Diseo de Experimentos, Del Castillo, et al.
X1

40

120

40

120

40 120

40 120

80

80

80

80

80

80

X2

200

200

450

450

325 325

325 325

200

450 200 450

325 325 325

X3

250

250

250

250

150 150

350 350

150

150 350 350

250 250 250

Y1

139

140

184

210

182 170

175 180

132

206 183 181

172 190 180

Y2

103

125

151

176

130 130

151 152

108

143 141 180

135 149 141

Y3

110

126

133

169

122 122

153 154

103

138 157 184

133 145 139

Y4

110

117

147

199

134 134

143 152

111

176 131 192

155 161 158

Y5

113

114

140

169

118 118

146 150

101

141 139 175

138 141 140

Y6

126

131

147

171

115 115

164 171

101

135 160 190

145 149 148

Los datos obtenidos se han hecho con base al diseo experimental


desarrollado por Box Behnken; para 3 factores y 2 niveles para cada factor. Del
Castillo et al, 1996 desarrollaron una nueva funcin de deseabilidad.

148

80

Luego de trabajar los datos con la Red Desarrollada, con la Red Perceptrn
Multicapa con aprendizaje backpropagation y teniendo en cuenta lo obtenido
por Del Castillo, et al, se obtuvo los resultados que se presentan en la tabla 15.

Tabla 15. Comparacin Red Desarrollada - Perceptrn Multicapa con


Backpropagation y Anlisis Estadstico Tradicional, para valores deseados.
Con Datos del artculo Modified Desirability Functions for Multiple
Response Optimization de Del Castillo, et al, publicado en el Journal de
Quality Technology, vol.28,N 3
Indicadores

Anlisis

Red Desarrollada, Perceptrn

Estadstico

4.2.2.

Multicapa

con Backpropagation

Tradicional, Del
Castilo, et al
Error

al

No hacen este

simular

la

clculo

de

96.86

40.30

24.31

666.00

entrada 1
Error
simulacin
global**
Red

Directa

3 capas;

3 capas;

RD. N capas;

15

c.entrada

neuronas

capa

de

entrada

neuronas 3 neuronas c.entrada


3

neuronas

capa

15 neuronas capa oculta

oculta

oculta
RD N capas;
N

neuronas

Inversa

RI. N capas;

3 capas;

6 neuronas capa 6 neuronas capa salida

capa de salida
Red

3 capas;

salida
-

3 capas;
15

3 capas;
neuronas 6 neuronas c.entrada

149

neuronas

capa

c.entrada

de

neuronas

capa

15 neuronas capa oculta

entrada

oculta

RI. N capas;
N

neuronas

3 capas;

3 capas;

3 neuronas capa 3 neuronas capa salida

capa de salida

salida

Entradas

84.1500

70.0000

72.8493

optimizadas

450.0000

450.0000

469.2229

para

329.8000

350.0000

349.9482

valores

deseados
Salidas

com

186.9000

190.0000

189.0000

valores

173.0000

183.0000

171.3987

optimizados

170.1000

181.5000

171.5801

190.0000

185.5000

181.0353

170.9000

173.0000

163.6635

182.4000

177.0000

177.9065

*Suma de las diferencias de grados de 6 valores de temperatura deseados,


ver clculos detallados en 4.2.3.1 y 4.2.3.2. **Suma de errores al
cuadrado/n entradas
En esta tabla se puede apreciar el menor error obtenido por la Red
Desarrollada, 0 por simular la primera entrada y 24.31 por simular el conjunto
de los valores de entrada; mientras que con Perceptrn Mulcticapa con
backpropagation se tiene 40.3 y 666, respectivamente, y con el anlsis
estadstico tradicional, slo se calcula el error global 96.86. Los valores que se
obtienen de entradas optimizadas son bastante similares; por ello se puede
decir que el desempeo de las Redes es aceptable, siendo mejor la Red
Desarrollada. A continuacin se presenta el detalle de los clculos y
procedimientos seguidos para elaborar la Tabla 15.

3.2.3.1. Con el Anlisis Estadstico Tradicional.

150

Del Castillo et al, luego de aplicar su metodologa funciones de desabilidad


modificada para optimizacin multirespuesta; llega a las siguientes ecuaciones
(en trminos de funciones codificadas):

Y1 174.93 23.38 x 2 3.62 x3 19.00 x 2 x3


Y2 141.00 6.00 x1 21.02 x 2 14.12 x3
Y3 139.53 7.25 x1 16.00 x 2 19.75 x 2 x3
Y4 154.90 10.10 x1 30.60 x 2 6.30 x3 11.20 x12 11.30 x1 x 2
Y5 139.29 4.63x1 19.75 x 2 16.13x3 5.41x12 7.00 x1 x 2
Y6 146.86 4.87 x1 15.62 x 2 27.00 x3 3.98 x12 4.75 x1 x 2
Asimismo, aplicando sus ecuaciones para valores especficos que desea
obtener (190; 185; 185; 190; 185; 185) llega a obtener que sus valores de
entrada deben ser: (84.1500, 450.0000, 329.8000), lo que permite obtener
(186.9000, 173.0000, 170.1000, 190.0000, 170.9000, 182.4000).

3.2.3.2. Red Desarrollada: Explicacin de la Arquitectura, Interfase, Comandos


y Clculos
Con base a los datos de entrada y salida; se trabaja con la Red de Base Radial
Desarrollada para construir la red, la red Newrbfcev15r; con la arquitectura 1515-6 para la red directa y 15-15-3 para la red inversa.
La Interfase es Matlab Neural Networks, que se presenta a continuacin:

151

Comandos del procedimiento y resultado obtenido fue el siguiente:


>>%Construccin y Entrenamiento de Red. Para representar las x de
entrada se utiliza los vectores p y la Y de salida con los vectores t y se trabaj
con sc(amplitud)=1.
>> [w1,b1,w2,b2,K]=newrbfcev15r(p,t,sc);
>>%Simulacin:
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,p)
Obtenindose:
ts =
Columns 1 through 7
139.0000 140.0000 184.0000 210.0000 182.0000 170.0000 175.0000
103.0000 125.0000 151.0000 176.0000 130.0000 130.0000 151.0000
110.0000 126.0000 133.0000 169.0000 122.0000 122.0000 153.0000
110.0000 117.0000 147.0000 199.0000 134.0000 134.0000 143.0000
113.0000 114.0000 140.0000 169.0000 118.0000 118.0000 146.0000
126.0000 131.0000 147.0000 171.0000 115.0000 115.0000 164.0000

152

Columns 8 through 14
180.0000 132.0000 206.0000 183.0000 181.0000 180.6667 180.6667
152.0000 108.0000 143.0000 141.0000 180.0000 141.6667 141.6667
154.0000 103.0000 138.0000 157.0000 184.0000 139.0000 139.0000
152.0000 111.0000 176.0000 131.0000 192.0000 158.0000 158.0000
150.0000 101.0000 141.0000 139.0000 175.0000 139.6667 139.6667
171.0000 101.0000 135.0000 160.0000 190.0000 147.3333 147.3333
Column 15
180.6667
141.6667
139.0000
158.0000
139.6667
147.3333
Lo cual comparado con la matriz de valores de t, permite obtener una suma de
errores al cuadrado entre en nmero de vectores de entrada t (15) igual a
24.31.
>>%Aplicando la red para el primer conjunto de valores de p, se obtiene:
Pe1=[40; 200; 250];
[ts]=simnewrbfcev15rr(w1,b1,w2,b2,pe1)
ts =
139.0000
103.0000
110.0000
110.0000
113.0000
126.0000
Lo cual equivale a un error de cero(0).

>> Para valores deseados (siguiendo el proceso descrito en la metodologa):


>> %RED INVERSA: cambiar p por t y viceversa.
>>%Construccin y Entrenamiento de Red
>> sc=1;

153

>> [w1,b1,w2,b2,K]=newrbfcev15r(t,p,sc)
>>%Simulacin, corrida con valores deseados
>> pe=[190;185;185;190;185;185];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,pe)
>>%Obtencin de valores optimizados
>> ts
ts =
70.0000
450.0000
250.0000
>>%RED DIRECTA; volver a valores niciales de p y t.
>>%Construccin y Entrenamiento de Red
>> [w1,b1,w2,b2,K]=newrbfcev15r(p,t,sc)
>>% Simulacin, corrida con valores optimizados
>> pe=[70.0000; 450.0000; 250.0000];
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,pe)
>> ts
ts =
190.0000
183.0000
181.5000
185.5000
173.0000
177.0000
Clculo del Error con valores deseados.
Comparando los valores deseados y los obtenidos con las nuevas entradas se
tiene la tabla 16.

154

Tabla 16. Valores deseados y obtenidos con las nuevas entradas


Valores Deseados

Valores Obtenidos

Error

Valores

de

entrada, obtenidos
190

190.5000

0.0000

70.0000

185

183.0000

-2.0000

450.0000

185

181.5000

-3.5000

350.0000

190

185.5000

-4.5000

185

173.0000

-12.0000

185

177.0000

-8.000
-30.0*

*Suma Error Total


3.2.3.3. Perceptrn multicapa con aprendizaje backpropagation: Explicacin de
la Arquitectura, Interfase, Comandos y Clculos con Backpropagation
Para este caso se siguieron las recomendaciones del artculo de Lee-Ing Tong
y Kun-Lin Sheik A Novel mean of Applying Neural Networks to Optimize the
Multiresponde Problem, publicado en el Quality Engineering Vol. 13, N 1.
Con base a los datos de entrada y salida; se trabaja con Backpropagation BP;
3-6-6 para la red directa y con la arquitectura 6-6-3 para la red inversa.
ARQUITECTURA
Red Con datos iniciales
Para el caso del perceptrn multicapa con aprendizaje backpropagation se
tiene que se requiere de mnimo una capa oculta; por otro lado dada la
arquitectura propia del perceptrn multicapa, se tiene que deberan de haber
en la capa de entrada tantas neuronas como variables de entrada al proceso y
en la capa de salida tantas neuronas como caractersticas de calidad de la
salida que se desea obtener.
Por el tipo de algoritmo que tiene se requiere que la funcin de activacin de la
capa oculta permita optimizar y que la funcin de activacin de la capa de
salida sea lineal a fin de poder obtener valores reales y no slo dentro del
rango de 1 y -1.
Dada las caractersticas de las diversas funciones de activacin, se tiene que
las ms adecuadas para la capa oculta son la sigmoidal y la tangente
hiperblica; pero como la sigmoidal trabaja con un rango continuo entre 0 y 1,
mientras que la tangente hiperblica trabaja en el rango de -1 y 1, se considera
155

que esta ltima es la ms conveniente, ya que se pueden presentar casos en


los que se tengan valores negativos. Esto es una primera diferenciacin de los
Perceptrn Multicapa tpicos, que trabajan con la funcin sigmoidal.
Por otro lado, est el hecho de que las redes neuronales artificiales trabajan
con valores de entrada para obtener valores de salida dados; y lo que se varan
son los pesos y umbrales; sin embargo en nuestro caso lo que interesa cambiar
son los valores de entrada de tal manera que permitan obtener el ptimo
deseado por los clientes. Por tanto, se requiere seguir un proceso ajustado,
que se present en la metodologa, que es el siguiente:
Con valores deseados
Dados datos de entrada y de salida actuales, y datos deseados de salida:
Red Inversa: Para ello primero se encuenntra la RNA que con los datos de
salida actuales del proceso como entradas y con los datos de entrada como
supervisores (objetivo), que permita obtener los valores de salida; es la Red
Inversa. A esta Red obtenida se aplican los datos deseados de salida para
obtener los valores de entrada optimizados.
Red Directa: Para ello con los datos de entrada y salida actuales se obtiene la
Red respectiva que los relaciona, es la Red Directa. A esta Red obtenida se
aplican los datos de entrada optimizados (obtenidos con la Red Inversa),
obteniendose nuevos datos de salida que sean los ms cercanos a los datos
de salida deseados.
La Interfase es Matlab Neural Networks,s egn se presenta a continuacin:

156

Comandos del procedimiento y resultado obtenido fue el siguiente:


>> %RED INVERSA: cambiar p por t y viceversa.
>>%Preparacin de datos
>> [pn,ps1]=mapstd(p);
>> [ptrans,ps2]=mapstd(pn,0.000001);
>> [tn,ts]=mapstd(t);
>> [R,Q]=size(ptrans)
R=
6
Q=
15
>> iitst=5:5:Q;
>> iitr=[1:5:Q 2:5:Q 3:5:Q 4:5:Q];
>> test.P=ptrans(:,iitst); test.T=tn(:,iitst);
>> ptr=ptrans(:,iitr); ttr=tn(:,iitr);
>>%Construccin de Red

157

>> net=newff(minmax(ptr),[6 3],{'tansig' 'purelin'},'traingd');


>> net.trainParam.lr=0.01;
>> net.trainParam.epochs=3000;
>>%Entrenamiento de Red
>> [net,tr]=train(net,ptr,ttr,[],[],[],test);
TRAINGD-calcgrad, Epoch 0/3000, MSE 2.37536/0, Gradient 2.26181/1e-010
TRAINGD-calcgrad,

Epoch

3000/3000,

MSE

0.219477/0,

Gradient

0.0824798/1e-010
TRAINGD, Maximum epoch reached, performance goal was not met.
>> net.trainParam.epochs=1000;
>> [net,tr]=train(net,ptr,ttr,[],[],[],test);
TRAINGD-calcgrad, Epoch 0/1000, MSE 0.219477/0, Gradient 0.0824798/1e010
TRAINGD-calcgrad, Epoch 1000/1000, MSE 0.15487/0, Gradient 0.077184/1e010
TRAINGD, Maximum epoch reached, performance goal was not met.
>>%Simulacin
>> an= sim(net,ptrans);
>> a=mapstd('reverse',an,ts);
>> for i=1:3
[m(i),b(i),r(i)]=postreg(p(i,:),t(i,:));
end
>> r
r=
0.4628

0.9306

0.9716

>> %Corrida con valores deseados


>> pnew=[190;185;185;190;185;185];
>> pnewn=mapstd('apply',pnew,ps1);
>> pnewtrans=mapstd('apply',pnewn,ps2);
>> Y=sim(net,pnewtrans);
>> Ys=mapstd('reverse',Y,ts);
>>%Obtencin de valores optimizados
>> Ys

158

Ys =
72.8493
469.2229
349.9482

>>%RED DIRECTA; volver a valores niciales de p y t.


>> %preparacin de datos
>> [pn,ps1]=mapstd(p);
>> [ptrans,ps2]=mapstd(pn,0.000001);
>> [tn,ts]=mapstd(t);
>> [R,Q]=size(ptrans)
R=
3
Q=
15
>> iitst=5:5:Q;
>> iitr=[1:5:Q 2:5:Q 3:5:Q 4:5:Q];
>> test.P=ptrans(:,iitst); test.T=tn(:,iitst);
>> ptr=ptrans(:,iitr); ttr=tn(:,iitr);
>>%Construccin de Red
>> net=newff(minmax(ptr),[3 6],{'tansig' 'purelin'},'traingd');
>> net.trainParam.lr=0.01;
>> net.trainParam.epochs=3000;
>>%Entrenamiento de Red
>> [net,tr]=train(net,ptr,ttr,[],[],[],test);
TRAINGD-calcgrad, Epoch 0/3000, MSE 1.33643/0, Gradient 1.0066/1e-010
TRAINGD-calcgrad,

Epoch

3000/3000,

MSE

0.155164/0,

Gradient

0.0282053/1e-010
TRAINGD, Maximum epoch reached, performance goal was not met.
>> net.trainParam.epochs=1000;
>> [net,tr]=train(net,ptr,ttr,[],[],[],test);
TRAINGD-calcgrad, Epoch 0/1000, MSE 0.155164/0, Gradient 0.0282053/1e010

159

TRAINGD-calcgrad,

Epoch

1000/1000,

MSE

0.146765/0,

Gradient

0.0320263/1e-010
TRAINGD, Maximum epoch reached, performance goal was not met.
>>% Simulacin
>> an= sim(net,ptrans);
>> a=mapstd('reverse',an,ts);
>> for i=1:6
[m(i),b(i),r(i)]=postreg(a(i,:),t(i,:));
end
>> r
r=
0.8170

0.9288

0.9398

0.8423

0.9511

0.9353

>>%Corrida con valores optimizados


>> pnew2=[72.8493; 469.2229; 349.9482];
>> pnew2n=mapstd('apply',pnew2,ps1);
>> pnew2trans=mapstd('apply',pnew2n,ps2);
>> Y=sim(net,pnew2trans);
>> Ys=mapstd('reverse',Y,ts);
>> Ys
Ys =
189.0000
171.3987
171.5801
181.0353
163.6635
177.9065
Clculo del Error con valores deseados.
Comparando los valores deseados y los obtenidos con las nuevas entradas se
tiene la tabla 17.

160

Tabla 17. Valores deseados y obtenidos con las nuevas entradas PMC-BK
Valores Deseados

Valores Obtenidos

Error

Valores

de

entrada, obtenidos
190

189.0000

-1.0000

72.8493

185

171.3987

-13.6013

469.2229

185

171.5801

-13.4199

349.9482

190

181.0353

-8.9647

185

163.6635

-21.3365

185

177.9065

-7.0935
-65.4159*

*Suma Error Total

3.2.4. Red Desarrollada en comparacin con la Red de base radial Tipo GRNN;
la Red Perceptrn Multicapa con Backpropagation y algoritmo LevenbergMarquardt, y con el Anlisis Estadstico Tradicional.
Datos:
Se utiliz el ejemplo de Diseo de experimentos del artculo de Vasconcelos et
al, Design of Experiments. Improve Molded Part Quality, publicado en Quality
Progress, N 7 del 2003,

donde se busca establecer los parmetros de

proceso de un envase plstico elaborado por moldeo de inyeccin, cuyos


parmetros de proceso del diseo son los de la Tabla 18.
Tabla 18. Parmetros de proceso del Caso de Vasconcellos, et al.
Factores del proceso

Nivel bajo

Nivel alto

A. Velocidad de inyeccin (%)

40

75

B. Temperatura de moldeo C

25

45

C. Temperatura de mezcla C

205

235

D. Presin de trabajo, bar

25

45

E. Tiempo de trabajo

F. Tiempo de enfriamiento

10

25

G. Velocidad de eyeccin %

25

Luego de trabajar los datos con la Red Desarrollada, con la Red de base radial
Tipo

GRNN;

con

la

Red

Perceptrn

Multicapa

con

aprendizaje

161

backpropagationAlgoritmo de Levenberg-Marquardt y teniendo en cuenta lo


obtenido por Vasconcelos, et al, se obtuvo los resultados que se presentan en
la Tabla 19.
Tabla 19. Comparacin Red Desarrollada - Perceptrn Multicapa con
Backpropagation Algoritmo de Levenberg-Marquardt y Anlisis Estadstico
Tradicional, para valores deseados.
Con Datos del artculo, Design of Experiments. Improve Molded Part
Quality, de Vasconcelos et al, publicado en Quality Progress, N 7 del
2003. *
Indicadores

Red

Perceptrn

Anlisis

Desarrollada,

Multicapa

Estadstico

4.2.2.

con

Tradicional,

Backpropaga

Vasconcelos,

tion con L-M

et al

Error

al 0

simular

la

GRNN

2.07

0.300

9.16

13.96

12.27

3 capas

3 capas

RD. N capas; 24 neuronas

24 neuronas

7 neuronas

24 neuronas

7 neuronas

RD N capas; 3 capas

3 capas

3 capas

1 neurona

1 neurona

3 capas

3 capas

RI. N capas; 1 neurona

1 neurona

1 neurona

24 neuronas

7 neuronas

entrada p1
Error

de 9.16

simulacin
global
Red

Directa 3 capas,

neuronas 24 neuronas

capa

de

entrada

oculta

neuronas 1 neurona

capa de salida
Red

capa

Inversa 3 capas

neuronas 24 neuronas

de

162

entrada

coulta
RI. N capas; 3 capas

3 capas

3 capas

24 neuronas

7 neuronas

neuronas 24 neuronas

capa de salida
Entradas

96.4900

73.7378

61.5384

optimizadas

25.3424

30.3067

34.2308

para

valores

236.8544

227.1482

221.1538

deseados (85)

11.3201

31.0274

35.00

3.4994

2.7022

2.5

18.1457

16.7815;

16.9231

14.5591

14.7630.

15.7692

*Detalle de clculos ver en 4.2.4.1, 2, 3 y 4


En esta Tabla se aprecia el menor error de las dos Redes de Funcin de Base
Radial (0 en la simulacin de la primera entrada y 9.16 en el error global), con
respecto al Perceptrn Multicapa (2.07 y 13.96; respectivamente) y al Anlisis
Estadstico(0.300 y 12.27 respectivamente). Los valores de entradas
optimizadas son bastante similares, por tanto, nuevamente se puede decir que
la Red Desarrolada se desempea mejor. A continuacin se presenta el detalle
de los clculos y procedimientos seguidos para elaborar la Tabla 19.
3.2.4.1. Anlisis Estadstico Tradicional
El diseo de experimentos incluye 8 combinaciones a 2 niveles de acuerdo a
un diseo factorial fraccional 2III7-4 , haciendo 3 rplicas para cada tratamiento;
se mide la fuerza necesaria para abrir el sello del envase, lo datos se presentan
en la Tabla 20.

Tabla 20. Diseo Experimental del Caso de Vasconcellos, et al.


Corrida

FACTORES

FZA PARA ABRIR

Y1

Y2

Y3

64.33

73.43

70.95

-1

-1

-1

-1

42.77

41.15

39.49

-1

-1

-1

-1

71.62

78.44

73.96

-1

-1

-1

-1

65.51

62.48

59.05

163

-1

-1

-1

-1

63.02

64.12

62.67

-1

-1

-1

-1

44.12

46.46

32.33

-1

-1

-1

-1

68.59

70.89

71.53

-1

-1

-1

-1

41.04

44.02

41.89

Anlisis de resultados mediante el clculo de el efecto medio para identificar los


factores ms significativos, anlisis grfico con diagrama de pareto y ploteo de
efectos promedios, y con anlisis de variancia ANVA. La parte grfica no se
toma en cuenta debido a que no es muy exacta y por tanto no sirve para
nuestro propsito. Se obtuvo los resultados de la Tabla 21.
Tabla 21. Respuestas promedio y efecto de cada factor del proceso
Respuesta promedio y efecto de cada factor del proceso
Factor

RESPUESTA PROMEDIO
NIVEL

BAJO

DEL NIVEL

ALTO

EFECTO
DEL

FACTOR

FACTOR

46.69

69.46

22.77

62.42

53.74

-8.68

54.22

61.93

7.71

56.78

59.38

2.6

59.27

56.88

-2.39

60.32

55.84

-4.48

55.35

60.81

5.46

Los valores negativos significan que sube el nivel del factor y a pesar de ello
baja el efecto del factor; es as que para el factor B la temperatura de moldeo
sube de 25C a 45C y el efecto disminuye de 62.42 a 53.74. Similar ocurre con
los factores E y F. El ANVA da los resultados de la tabla 22.
Tabla 22. Anlisis de Variancia ANVA del caso de vasconcellos et al.
Fuente de Variacin

Suma de Cuadrados

Grados de Libertad

Cuadrado Medio

Fo

3110.84

3110.84

226.34*

452.23

452.23

32.90*

356.51

356.51

25.94*

40.46

40.46

2.94

164

34.27

34.27

2.49

120.15

120.15

8.74*

178.65

178.65

13*

Residuo/Error

219.90

16

13.74

Total

4513.01

23

*( valor de p <0.05)por que F-tabla(0.95,1,16)=4.49; CME = 13.74.

Por tanto los factores con efecto significativo son: A,B,C,F,G

El modelo de regresin se calcula as:


A 57.5
B 35
C 220
F 17.5
G 15
y 58.08 11.38
4.34
3.86
2.24
2.73

17.5
10
15
7.5
10

Donde: 58.08 es el valor medio de todos los efectos; para el factor A: 11.38 es
la mitad del efecto de A, 57.5 sale de (40+75) /2= 57.7 que es la media de la
suma de los valores del factor; 17.5 sale de (75-40) /2= 17.7 que es la media
de la diferencia de los valores del factor; de manera similar se hace para los
dems factores significativos.

Es as que con base a la ecuacin de regresin se puede hacer la primera


corrida y obtener el valor y de la regresin:
75 57.5
45 35
235 220
25 17.5
25 15
y 58.08 11.38
4.34
3.86
2.24
2.73

15
17.5
10

7.5
10

=69.47; ello se puede calcular para las dems corridas y se tiene la Tabla 23.

Tabla 23. Residuos/errores del caso de vasconcellos, et al.


Corrida

Y1

Y2

Y3

Yreg

e1=Y1-Yreg

e1=Y1-Yreg

e1=Y1-Yreg

64.33

73.43

70.95

69.47

-5.14

3.96

1.48

42.77

41.15

39.49

41.24

1.53

-0.09

-1.75

71.62

78.44

73.96

77.17

-5.55

1.27

-3.21

65.51

62.48

59.05

59.86

5.65

2.62

-0.81

63.02

64.12

62.67

60.78

2.24

3.34

1.89

165

44.12

46.46

32.33

43.47

0.65

2.99

-11.14

68.59

70.89

71.53

70.44

-1.85

0.45

1.09

41.04

44.02

41.89

42.21

-1.17

1.81

-0.32

La media de todos los errores al cuadrado es igual a 294.6336/24=12.2764

Los valores de los residuos se pueden presentar en una grfica de los residuos
vs. los valores de la regresin, y tambin en una de papel de probabilidad
normal. En ambos casos se puede chequear la validez del modelo, lo cual en
este caso es aceptable; asimismo, en el papel de probabilidad normal se
aprecia la normalidad, que aproxima a una recta; y el coeficiente de
determinacin es de R2= 0.935; lo cual indica que la prediccin es buena.

3.2.4.2. Con la Red Desarrollada.


Para el caso de la Red Neuronal de Base Radial desarrollada, se aplican los
mismos criterios que en 4.2.4.c., con base a los datos de entrada y salida; se
trabaja con la arquitectura 24-24-1 para la red directa.
Interfase: Matlab Neural Networks

166

Comandos del procedimiento y resultado obtenido fue el siguiente:


Si se utiliza el Red NEWRBFCEV15r, se tiene:
>> Construccin de Red NEWRBFCEV15r
>> [w1,b1,w2,b2,K]=newrbfcev15r(p,t,sc);
>> %Simulacin Para la primera entrada de datos:
>> Pe=[75;45;235;45;3;25;25];
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,Pe)
v=
69.5700
>> %valor similar al obtenido mediante Perceptrn Multicapa, Diseo de
Experimentos y la Red GRNN.

De igual manera se puede proceder para todas las dems entradas,


obtenindose las 24 salidas respectivas:

[ts]=simnewrbfcev15r(w1,b1,w2,b2,p)

167

ts =
Columns 1 through 7
69.5700 69.5700 69.5700 41.1367 41.1367 41.1367 74.6733
Columns 8 through 14
74.6733 74.6733 62.3467 62.3467 62.3467 63.2700 63.2700
Columns 15 through 21
63.2700 40.9700 40.9700 40.9700 70.3367 70.3367 70.3367
Columns 22 through 24
42.3167 42.3167 42.3167
Que permiten obtener los valores de prediccin con menor error que en los
otros casos. En este caso se repite lo de la Red GRNN, de facilidad y rapidez
de clculos con las Redes de Base Radial, y se puede calcular los valores para
todas las combinaciones y ya no slo con los valores de los 8 experimentos
(factorial fraccional), cosa impensable realizar con los otros mtodos; es as
que tenemos:
Factorial Completo.Comandos y procedimiento con factorial completo.
Red NEWRBFCEV15r.
La combinacin de todos los factores, y con ello 2 7=128 experimentos, que
seran los siguientes (el factorial completo); obtenindose los mismos
resultados.
>> sc=10;
>> [w1,b1,w2,b2,K]=newrbfcev15r(p,t,sc);
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,p);
ts =
Columns 1 through 7
69.5700 69.5700 69.5700 41.1367 41.1367 41.1367 74.6733
Columns 8 through 14
74.6733 74.6733 62.3467 62.3467 62.3467 63.2700 63.2700
Columns 15 through 21
63.2700 40.9700 40.9700 40.9700 70.3367 70.3367 70.3367
Columns 22 through 24
42.3167 42.3167 42.3167

168

>>Con el factorial completo


>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,d2);
ts =
Columns 1 through 7
42.3167 42.3167 42.3167 42.3167 42.3167 42.3167 42.3167
Columns 8 through 14
42.3167 42.3167 42.3167 42.3167 42.3167 42.3167 42.3167
Columns 15 through 21
42.3167 42.3167 42.3167 42.3167 42.3167 42.3167 42.3167
Columns 22 through 28
42.3167 42.3167 42.3167 42.3167 62.3467 42.3167 42.3167
Columns 29 through 35
42.3167 52.3317 42.3167 42.3167 42.3167 41.6433 42.3167
Columns 36 through 42
42.3167 42.3167 40.9700 42.3167 42.3167 42.3167 42.3167
Columns 43 through 49
42.3167 42.3167 42.3167 42.3167 42.3167 42.3167 42.3167
Columns 50 through 56
42.3167 41.1367 42.3167 42.3167 42.3167 41.7267 42.3167
Columns 57 through 63
42.3167 42.3167 42.3167 42.3167 42.3167 42.3167 42.3167
Columns 64 through 70
42.3167 42.3167 42.3167 42.3167 70.3367 42.3167 42.3167
Columns 71 through 77
42.3167 56.3267 42.3167 42.3167 42.3167 42.3167 42.3167
Columns 78 through 84
42.3167 42.3167 42.3167 74.6733 42.3167 42.3167 42.3167
Columns 85 through 91
74.6733 42.3167 42.3167 42.3167 42.3167 42.3167 42.3167
Columns 92 through 98
42.3167 42.3167 42.3167 42.3167 42.3167 42.3167 42.3167
Columns 99 through 105
42.3167 42.3167 42.3167 42.3167 42.3167 42.3167 52.7933

169

Columns 106 through 112


42.3167 42.3167 42.3167 52.7933 42.3167 42.3167 42.3167
Columns 113 through 119
42.3167 42.3167 42.3167 42.3167 42.3167 42.3167 42.3167
Columns 120 through 126
42.3167 42.3167 42.3167 42.3167 55.9433 42.3167 42.3167
Columns 127 through 128
42.3167 69.5700
>> U=max(ts)
U=
74.6733
En este caso a partir de los datos de un factorial fraccional, de 8 experimentos
se ha proyectado los resultados para las 128 combinaciones. En este caso en
el Matlab se trabajo con la Red de Base Radial Newrbfcev15r en el software
comando newrbfcev15r, al igual que en el anterior, y adems con un spread de
10 a fin de poder cubrir todo tipo de entradas.

Comandos y procedimiento con valores deseados y Red newrbfcev15r.


A continuacin se proceder a probar con deseabilidad; para nuestro ejemplo,
y al igual que antes, suponiendo que se trata de un envase para productos
farmacuticos y que el nivel de fuerza para abrirlo deba ser mayor, se
considera que un valor mayor sera mejor; pero tampoco demasiado alto; es as
que asumimos que se desea un valor de 85 (cosa que no se puede calcular
con el diseo de experimentos tradicional); se tendra lo siguiente:
>>%Aplicando la metodologa con valores de calidad deseados:
>> %Red Inversa: con las salidas como entradas
>> [w1,b1,w2,b2,K]=newrbfcev15r(p,t,sc);
>> [ts1]=simnewrbfcev15rr(w1,b1,w2,b2,t);

ts 1=
Columns 1 through 7
72.9809 74.6154 74.3609 40.0841 40.2833 39.9933 75.7472
45.9205 44.2860 33.1156 41.3361 32.5085 44.9646 26.1838
218.8712 236.3671 220.5289 231.8170 215.7643 234.9391 219.5381
170

47.3286 44.2838 33.1871 29.2381 37.1249 25.0155 26.1055


2.4279

3.0372

2.4997

2.0828

2.6294

2.0032

2.5048

16.7842 25.0720 25.4308 26.5237 24.6741 24.9827 16.2497


15.4089 25.5886 26.2392

2.7653

4.8825

5.0427 12.5327

Columns 8 through 14
74.9990 75.1893 39.1446 49.1605 39.9737 78.0787 78.6841
24.9995 25.3436 22.9373 32.6174 24.9595 43.3327 48.0131
235.0016 234.3487 240.3091 224.0130 235.0689 207.2298 214.0828
24.9986 25.3453 43.0827 47.5737 44.9779 41.2721 46.1221
3.0000

2.9821

2.1380

1.9314

2.0010

10.0004

9.9557 11.6683

5.0001

4.6894 27.7630 19.3287 25.0236

2.1148

2.4193

9.2760 10.0173 11.2412 16.5334


4.2424 11.6180

Columns 15 through 21
61.7515 39.4947 40.0094 39.9989 75.4963 74.4099 75.3948
36.8284 34.7619 45.0500 45.0007 25.8239 33.8973 26.7450
216.3000 202.8962 204.9682 205.0014 203.1458 220.4588 219.7484
44.2891 35.5751 24.9735 25.0018 25.7559 33.9058 26.7668
1.9888

3.0991

9.7121 16.5754

2.9998

3.0000

1.9542

2.5005

2.5001

9.9636 10.0007 24.5101 26.3425 17.2132

12.1078 17.2126 25.0348 25.0036 23.8826 27.4952 14.0872


Columns 22 through 24
39.8253 40.4962 39.8043
34.7541 36.6433 29.9880
220.3107 207.9416 211.3708
35.8241 32.8143 39.4628
2.4869

2.8799

2.8190

25.5881 17.6653 24.0373


4.5485 13.8395

6.7184

>>Entradas optimizadas. La red con el valor deseado (85), permite obtener


las nuevas entradas optimizadas para dicho valor deseado:
>> [ts2]=simnewrbfcev15rr(w1,b1,w2,b2,85);

ts2 =
96.4900
171

25.3424
236.8544
11.3201
3.4994
18.1457
14.5591
>> %Red Directa: con las nuevas entradas para obtener la red directa se tiene:
>>%Para los valores de t:
t=
Columns 1 through 7
64.3300 73.4300 70.9500 42.7700 41.1500 39.4900 71.6200
Columns 8 through 14
78.4400 73.9600 65.5100 62.4800 59.0500 63.0200 64.1200
Columns 15 through 21
62.6700 44.1200 46.4600 32.3300 68.5900 70.8900 71.5300
Columns 22 through 24
41.0400 44.0200 41.8900
>>%Simulando con t 24 y la simnewrbfcev15rr:
>> ts24
ts 24=
Columns 1 through 7
69.5700 69.5700 69.5700 41.1367 41.1367 41.1367 74.6733
Columns 8 through 14
74.6733 74.6733 62.3467 62.3467 62.3467 63.2700 63.2700
Columns 15 through 21
63.2700 40.9700 40.9700 40.9700 70.3367 70.3367 70.3367
Columns 22 through 24
42.3167 42.3167 42.3167

>>%Con base a lo anterior se construye la nueva red obtenindose ts20 (con


base a p) y ts24(con base a t)
>> ts20=[ 73.7378; 73.7378; 73.7378; 30.3067; 30.3067; 30.3067; 227.1482;
227.1482; 227.1482; 31.0274; 31.0274; 31.0274; 2.7022; 2.7022; 2.7022;

172

16.7815; 16.7815; 16.7815; 14.7630; 14.7630; 14.7630;14.7630; 14.7630;


14.7630];
>>ts24 = [64.3300;73.4300;70.9500;42.7700;41.1500;39.4900;71.6200;78.4400
;
73.9600;65.5100;62.4800;59.0500;63.0200;64.1200;62.6700;44.1200;46.4600;
32.3300; 68.5900;70.8900;71.5300;41.0400;44.0200;41.8900];
>> [w1,b1,w2,b2,K]=newrbfcev15r (ts20,ts24,sc);
>> %Es la nueva red para obtener 85 de salida, y lo hace con las entradas de
ts10 = 96.4900; 25.3424; 236.8544; 11.3201;

3.4994; 18.1457; 14.5591.

Las mismas que corresponden a las siguientes variables de entrada. Ver Tabla
24.
Tabla 24. Valores de factores para obtener un valor deseado
Factores del proceso

Nivel bajo

Nivel alto

Valores para
obtener 85

A. Velocidad de inyeccin (%)

40

75

96.4900

B. Temperatura de moldeo C

25

45

25.3424

C. Temperatura de mezcla C

205

235

236.8544

D. Presin de trabajo, bar

25

45

11.3201

E. Tiempo de trabajo

3.4994

F. Tiempo de enfriamiento

10

25

18.1457

G. Velocidad de eyeccin %

25

14.5591

Se puede ver que el desempeo de la Red de Base Radial Desarrollada, tanto


con la red directa, sin valores de deseabilidad como con el proceso con valores
deseados de calidad, tiene importantes ventajas y el proceso es relativamente
corto y adems la reduccin de errores es superior.
3.2.4.3. Red Tipo GRNN Red de Regresin Generalizada.
Para el caso de las Redes Neuronales de Base Radial, se tiene que lo ms
utilizado y recomendable para nuestro caso es el aprendizaje hbrido; es decir,
que tienen una fase inicial no supervisada y la siguiente, y ltima, supervisada.
Para la fase no supervisada, en la capa oculta no requieren aprendizaje similar
al del Perceptrn Multicapa, sino que bsicamente se requiere determinar los

173

centros y amplitudes, a nivel de su fase supervisada el aprendizaje puede ser


por mnimos cuadrados o por el mtodo de la matriz seudoinversa.
Se requiere por lo menos tantas neuronas de la capa oculta como variables de
entrada al proceso se tengan y por otro lado tantas neuronas en la capa de
salida como caractersticas de calidad de salida que se desea obtener.
Al igual que para el Perceptrn Multicapa, y por el tipo de algoritmo que tiene
se requiere que las funciones de activacin de la red oculta permita optimizar y
que la funciones de activacin de la capa de salida sea lineal a fin de poder
obtener valores reales y no slo dentro del rango de 1 y -1.
Dada las caractersticas de las diversas funciones de activacin, se tiene que
las ms adecuada es la funcin gausiana; la otras tambin utilizadas como la
funcin inversa cuadrtica y la funcin inversa multicuadrtica no tienen las
caractersticas propias de la funcin de gauss, por lo que se seleccion esta
funcin.
Dado el tipo de trabajo de mejora de la calidad que nos interesa, y que se
conoce con cierta aproximacin las variables, efectos en el caso del diseo de
experimentos y sus valores cercanos (niveles), se estableci el siguiente
procedimiento:
a. Se calculan los centros y amplitudes con base a los datos de entrada;
probndose inicialmente con centros similares o muy cercanos a los valores
de entrada. De ser compleja la determinacin se puede utilizar el algoritmo
de K- medias para determinar los centros.
b. Las amplitudes se determinan con base a las distancias eucldeas de los
centros, a los centros ms cercanos.
c. Se determinan los pesos y umbrales de la capa de salida con base a los
valores objetivos de calidad que se persiguen, aplicando el mtodo de
mnimos cuadrados o el de la matriz inversa, dependiendo de las
herramientas informticas con que se cuente. Se modifican los pesos y
umbrales hasta conseguir la convergencia.

Con esta red, se podr predecir el desempeo futuro del proceso, es decir,
dados unas entradas determina los valores de salida. Por otro lado tambin se
podr obtener valores de entrada del proceso que han sido optimizados. Con

174

base a lo antes mencioando se seleccion y aplic al Red de Fundicn de Base


Radial de tipo GRNN de Regresin Generalizada.
Con base a los datos de entrada y salida; se trabaja con la Red GRNN; con la
arquitectura 24-24-1 para la red directa.
Interfase: Matlab Neural Networks

Comandos del procedimiento y resultado obtenido fue el siguiente:


Si se utiliza el Red GRNN, se tiene:
>> Construccin de Red GRNN
>> net=newgrnn(p,t,sc);
>> %Simulacin Para la primera entrada de datos:
>> Pe=[75;45;235;45;3;25;25];
>> v=sim(net,Pe)
v=
69.5700
>> %valor similar al obtenido mediannte Perceptrn Multicapa y Diseo de
Experimentos

175

De igual manera se puede proceder para todas las dems entradas,


obtenindose:
v=sim(net,p)
v=
Columns 1 through 7
69.5700 69.5700 69.5700 41.1367 41.1367 41.1367 74.6733
Columns 8 through 14
74.6733 74.6733 62.3467 62.3467 62.3467 63.2700 63.2700
Columns 15 through 21
63.2700 40.9700 40.9700 40.9700 70.3367 70.3367 70.3367
Columns 22 through 24
42.3167 42.3167 42.3167
Que permiten obtener los valores de prediccin con menor error que en los
otros casos.
Dada la facilidad y rapidez de clculos con las Redes de Base Radial, se puede
calcular los valores para todas las combinaciones y ya no slo con los valores
de los 8 experimentos(factorial fraccional), cosa impensable realizar con los
otros mtodos; es as que tenemos:
Factorial Completo.Comandos y procedimiento con factorial completo.
Red GRNN.
La combinacin de todos los factores, y con ello 2 7=128 experimentos, que
seran los siguientes (el factorial completo):

p=
40

25 205

25

10

40

25 205

25

10

25

40

25 205

25

25

40

25 205

25

25

25

40

25 205

25

10

40

25 205

25

10

25

40

25 205

25

25

40

25 205

25

25

25

40

25 205

45

10

5
176

40

25 205

45

25

25

40

25 205

45

25

40

25 205

45

25

25

40

25 205

45

10

40

25 205

45

25

25

40

25 205

45

25

40

25 205

45

25

25

40

25 235

25

10

40

25 235

25

25

25

40

25 235

25

25

40

25 235

25

25

25

40

25 235

25

10

40

25 235

25

25

25

40

25 235

25

25

40

25 235

45

25

25

40

25 235

45

10

40

25 235

45

10

25

40

25 235

45

25

40

25 235

45

25

25

40

25 235

45

10

40

25 235

45

10

25

40

25 235

45

25

40

25 235

25

25

25

40

45 205

25

10

40

45 205

25

10

25

40

45 205

25

25

40

45 205

25

25

25

40

45 205

25

10

40

45 205

25

10

25

40

45 205

25

25

40

45 205

25

25

25

40

45 205

45

10

40

45 205

45

10

25

40

45 205

45

25

5
177

40

45 205

45

25

25

40

45 205

45

10

40

45 205

45

10

25

40

45 205

45

25

40

45 205

45

25

25

40

45 235

25

10

40

45 235

25

10

25

40

45 235

25

25

40

45 235

25

25

25

40

45 235

25

10

40

45 235

25

10

25

40

45 235

25

25

40

45 235

25

25

25

40

45 235

45

10

40

45 235

45

10

25

40

45 235

45

25

40

45 235

45

25

25

40

45 235

45

10

40

45 235

45

10

25

40

45 235

45

25

40

45 235

45

25

25

75

25 205

25

10

75

25 205

25

10

25

75

25 205

25

25

75

25 205

25

25

25

75

25 205

25

10

75

25 205

25

10

25

75

25 205

25

25

75

25 205

25

25

25

75

25 205

45

10

75

25 205

45

10

25

75

25 205

45

25

75

25 205

45

25

25

75

25 205

45

10

5
178

75

25 205

45

10

25

75

25 205

45

25

75

25 205

45

25

25

75

25 235

25

10

75

25 235

25

10

25

75

25 235

25

25

75

25 235

25

25

25

75

25 235

25

10

75

25 235

25

10

25

75

25 235

25

25

75

25 235

25

25

25

75

25 235

45

10

75

25 235

45

10

25

75

25 235

45

25

75

25 235

45

25

25

75

25 235

45

10

75

25 235

45

10

25

75

25 235

45

25

75

25 235

45

25

25

75

45 205

25

10

75

45 205

25

10

25

75

45 205

25

25

75

45 205

25

25

25

75

45 205

25

10

75

45 205

25

10

25

75

45 205

25

25

75

45 205

25

25

25

75

45 205

45

10

75

45 205

45

10

25

75

45 205

45

25

75

45 205

45

25

25

75

45 205

45

10

75

45 205

45

10

25

75

45 205

45

25

5
179

75

45 205

45

25

25

75

45 235

25

10

75

45 235

25

10

25

75

45 235

25

25

75

45 235

25

25

25

75

45 235

25

10

75

45 235

25

10

25

75

45 235

25

25

75

45 235

25

25

25

75

45 235

45

10

75

45 235

45

10

25

75

45 235

45

25

75

45 235

45

25

25

75

45 235

45

10

75

45 235

45

10

25

75

45 235

45

25

75

45 235

45

25

25

>> sc=10;
>> net=newgrnn(p,t,sc);
>> v=sim(net,p)
v=
Columns 1 through 7
69.5701 69.5701 69.5701 41.1379 41.1379 41.1379 74.6728
Columns 8 through 14
74.6728 74.6728 62.3449 62.3449 62.3449 63.2705 63.2705
Columns 15 through 21
63.2705 40.9703 40.9703 40.9703 70.3363 70.3363 70.3363
Columns 22 through 24
42.3172 42.3172 42.3172

>> v=sim(net,d2')

180

v=
Columns 1 through 7
42.0222 41.0489 42.3033 41.6576 42.0220 41.0481 42.3032
Columns 8 through 14
41.6524 42.3281 42.4350 42.3172 42.4350 42.3279 42.4331
Columns 15 through 21
42.3172 42.4331 46.3280 57.4582 41.4359 57.4582 46.3326
Columns 22 through 28
57.4578 41.4363 62.3107 61.9476 62.3449 55.9393 62.3108
Columns 29 through 35
61.9459 62.3449 55.9200 57.4578 40.9932 40.9703 41.2684
Columns 36 through 42
40.9736 40.9931 40.9703 41.2686 40.9736 42.2701 41.0335
Columns 43 through 49
42.3118 41.3160 42.2665 41.0329 42.3117 41.3155 41.1632
Columns 50 through 56
45.4883 41.1379 41.4146 41.1632 45.4820 41.1379 41.4147
Columns 57 through 63
45.9951 62.0359 41.4192 57.5975 45.9950 62.0354 41.4193
Columns 64 through 70
57.5991 69.3207 70.3292 70.2677 70.3363 69.3283 70.3292
Columns 71 through 77
70.2680 70.3363 63.3693 68.7155 64.6396 70.2381 63.3693
Columns 78 through 84
68.7155 64.6362 70.2381 74.6728 74.5768 74.6627 73.1732
Columns 85 through 91
74.6728 74.5772 74.6628 73.1773 74.5828 70.6352 73.4829
Columns 92 through 98
69.6324 74.5828 70.6366 73.4831 69.6324 63.3791 68.3937
Columns 99 through 105
64.9008 70.2240 63.3791 68.3893 64.9009 70.2238 63.2705
Columns 106 through 112
63.3969 63.2806 65.3633 63.2705 63.3974 63.2807 65.3692
Columns 113 through 119
181

74.5628 70.7298 73.1000 69.6315 74.5628 70.7299 73.1055


Columns 120 through 126
69.6316 69.9720 69.5718 69.5891 69.5701 69.9720 69.5718
Columns 127 through 128
69.5897 69.5701
>> u=max(v)
u =74.6728
En este caso a partir de los datos de un factorial fraccional, de 8 experimentos
se ha proyectado los resultados para las 128 combinaciones. En este caso en
el Matlab se trabajo con la Red de Base Radial GRNN: en el software comando
newgrnn, al igual que en el anterior, y adems con un spread de 10 a fin de
poder cubrir todo tipo de entradas.

Comandos y procedimiento con valores deseados y Red GRNN


A continuacin se proceder a probar con deseabilidad; para nuestro ejemplo,
y al igual que antes, suponiendo que se trata de un envase para productos
farmacuticos y que el nivel de fuerza para abrirlo deba ser mayor, se
considera que un valor mayor sera mejor; pero tampoco demasiado alto; es as
que asumimos que se desea un valor de 85 (cosa que no se puede calcular
con el diseo de experimentos tradicional); se tendra lo siguiente:
>>%Aplicando la metodologa con valores de calidad deseados:
>> %Red Inversa: con las salidas como entradas
>> net=newgrnn(t,p,sc);

>> v10=sim(net,t)

v10 =
Columns 1 through 7
65.9731 70.7157 69.6819 40.9308 40.5765 40.3492 69.9765
34.0366 32.3256 32.7982 37.5757 37.7098 37.8579 32.6701
221.3126 223.2927 222.6390 216.0503 216.0761 216.1091 222.8066
38.3858 34.7313 35.7388 32.8568 32.5659 32.3133 35.4621
2.3317

2.4898

2.4416

2.6165

2.6212

2.6237

2.4545

15.9115 17.2907 17.0344 20.2025 20.4105 20.5211 17.1157


182

17.4212 17.1444 17.3563 11.1520 10.9593 10.8700 17.3098


Columns 8 through 14
72.3627 70.9171 66.7726 64.5265 60.9248 64.9771 65.8218
31.4073 32.2256 33.8224 34.3676 34.9883 34.2713 34.0744
224.8539 223.4439 221.5165 220.9917 220.2618 221.0872 221.2767
32.9070 34.5233 37.9594 38.9538 39.4502 38.8037 38.4572
2.5869

2.5002

2.3476

2.3128

2.3069

2.3175

2.3292

17.4053 17.3289 16.1329 15.5865 15.2248 15.6764 15.8727


16.3771 17.0847 17.4608 17.3082 16.8672 17.3483 17.4117
Columns 15 through 21
64.6880 41.3743 42.6232 40.0365 68.5454 69.6550 69.9376
34.3337 37.4637 37.2450 38.8120 33.2483 32.8097 32.6873
221.0256 216.0564 216.1925 215.7789 222.1034 222.6244 222.7837
38.9027 33.1574 33.8742 31.2073 36.7235 35.7637 35.4991
2.3144

2.6096

2.5872

2.6400

2.3979

2.4405

2.4528

15.6175 19.9450 19.2950 19.9728 16.6866 17.0267 17.1053


17.3230 11.3969 12.0173 11.6905 17.4597 17.3601 17.3165
Columns 22 through 24
40.5578 41.3357 40.7185
37.7191 37.4722 37.6479
216.0784 216.0546 216.0617
32.5481 33.1327 32.6914
2.6214

2.6102

2.6194

20.4209 19.9669 20.3284


10.9501 11.3761 11.0341
>>Entradas optimizadas. La red con el valor deseado (85), permite obtener
las nuevas entradas optimizadas para dicho valor deseado:

>> v20=sim(net,85)
V20 =
73.7378
30.3067
227.1482
31.0274
183

2.7022
16.7815
14.7630
>> %Red Directa: con las nuevas entradas para obtener la red directa se tiene:
>>%Los nuevos valores de t:
>> t24
t 24=
Columns 1 through 7
64.3300 73.4300 70.9500 42.7700 41.1500 39.4900 71.6200
Columns 8 through 14
78.4400 73.9600 65.5100 62.4800 59.0500 63.0200 64.1200
Columns 15 through 21
62.6700 44.1200 46.4600 32.3300 68.5900 70.8900 71.5300
Columns 22 through 24
41.0400 44.0200 41.8900

>>%Simulando con t 24 y la GRNN:

>> v24
v 24=
Columns 1 through 7
69.5701 69.5701 69.5701 41.1379 41.1379 41.1379 74.6728
Columns 8 through 14
74.6728 74.6728 62.3449 62.3449 62.3449 63.2705 63.2705
Columns 15 through 21
63.2705 40.9703 40.9703 40.9703 70.3363 70.3363 70.3363
Columns 22 through 24
42.3172 42.3172 42.3172

>>%Con base a lo anterior se construye la nueva red obtenindose v20 ( con


base a p) y t24(con base a t)
>> v20=[ 73.7378; 73.7378; 73.7378; 30.3067; 30.3067; 30.3067; 227.1482;
227.1482;

227.1482; 31.0274; 31.0274; 31.0274; 2.7022; 2.7022; 2.7022;

184

16.7815; 16.7815; 16.7815; 14.7630; 14.7630; 14.7630;14.7630; 14.7630;


14.7630];

>>24 = [64.3300;73.4300;70.9500;42.7700;41.1500;39.4900;71.6200;78.4400;
73.9600;65.5100;62.4800;59.0500;63.0200;64.1200;62.6700;44.1200;46.4600;
32.3300;68.5900;70.8900;71.5300;41.0400;44.0200;41.8900];

>> net=newgrnn(v20,t24,sc);
>> %Es la nueva red para obtener 85 de salida, y lo hace con las entradas de
v10 =73.7378; 30.3067; 227.1482; 31.0274; 2.7022;

16.7815; 14.7630.

Obtenimdose un vaor de salidad de 74.67. Las mismas que corresponden a


las siguientes variables de entrada. Ver Tabla 25.

Tabla 25. Valores de factores para obtener un valor deseado, Red GRNN
Factores del proceso

Nivel bajo

Nivel alto

Valores para
obtener 85

A. Velocidad de inyeccin (%)

40

75

73.7378

B. Temperatura de moldeo C

25

45

30.3067

C. Temperatura de mezcla C

205

235

227.1482

D. Presin de trabajo, bar

25

45

31.0274

E. Tiempo de trabajo

2.7022

F. Tiempo de enfriamiento

10

25

16.7815;

G. Velocidad de eyeccin %

25

14.7630.

Se puede ver que el desempeo de las Redes de Base Radial, tanto con la red
directa, sin valores de deseabilidad como con el proceso con valores deseados
de calidad, tiene importantes ventajas y el proceso es relativamente corto y
adems la reduccin de errores es superior. Por tanto se procede a
continuacin a profundizar sobre el funcionamiento de la red de base radial.
Para ello se presenta el detalle de los clculos de la Red de Base Radial,

185

considerando las metodologas, con mnimos cuadrados y con matriz


seudoinversa.
En el Anexo 4. se presentan los clculos que se dan para una Red Neuronal
RN con funciones de base radial, tanto para el caso de

RN Diseo

Exacto(newrbe de Matlab) como en el de RN de Regresin Generalizada.

3.2.4.4. Perceptrn multicapa con aprendizaje backpropagation con algoritmo


Levenberg-Marquardt: Explicacin de la Arquitectura, Interfase, Comandos y
Clculos con Backpropagation
Explicacin del porqu se utliz el algoritmo Levenberg-Marquardt.
Se puede apreciar que los valores obtenidos con la red multicapa con
aprendizaje backpropagation no es muy cercana a los valores deseados y por
otro lado que se han tenido que hacer un conjunto de transformaciones; es
decir los clculos son bastante trabajosos. Ello se puede mejorar con las
diversas variantes de backpropagation BP, es decir, con variaciones a las
funciones de transferencia y al algoritmo de aprendizaje.
Es as que se tienen las siguientes posibilidades de funciones de optimizacin
que pueden trabajar con BP:
Gradiente Bsico Descendente (El que hemos usado en 3.2.3.a)
MODIFICACIONES HEURISTICAS
Gradiente Bsico Descendente con momentum
Tasa de aprendizaje variable VLBP
OTRAS TECNICAS DE OPTIMIZACION NUMERICA
Gradiente Conjugado
Levenberg-Marquardt
Mtodo Newton,
De la informacin revisada, sobre el funcionamiento de las redes neuronales y
su uso, se tiene que las Redes de Gradiente Descendente tiene es el algoritmo
mas simple pero tienen el inconveniente que su convergencia es muy lenta.
En la Redes con modificaciones heursticas se tienen que no llegan a valores
muy exactos porque trabajan con criterios heursticos, globales.

186

De las tcnicas de optimizacin numrica con el mtodo Quasi Newton tiene


que es muy complicado su clculo porque requiere obtener la matriz Hessiana,
que implica el clculo de la segunda derivada, lo cual es una desventaja frente
a los dems mtodos de optimizacin. Asimismo, de la informacin diversa
sobre las variantes de Gradiente Conjugado( scaled, Powell-Beale, FlectcherPowell, Polak-Ribiere) se tiene que no tienen un desempeo tan adecuado
para la aproximacin de funciones (que es lo que buscamos) como las Redes
que usan el algoritmo de

Levenberg-Marquardt.

En la informacin que

proporciona Matlab en sus diversos manuales se aprecia la ventaja del


algoritmo de Levenberg-Marquardt. Por otro lado Hagan et al, 1996, sostienen
que estas Redes se adaptan bien cuando el ndice de desempeo es el
cuadrado medio del error, que es justamente lo que se usa para evaluar los
diseos de experimentos para fijar parmetros de procesos. En la prctica este
algoritmo es una variacin del mtodo de Newton, con la diferencia, que ha
sido diseado para minimizar funciones que son sumas de cuadrados de otras
funciones no lineales. Por tanto este, tipo de red se ha seleccionado para el
tipo de

clculos que requerimos de establecer parmetros que permitan

optimizar procesos.
Con base a los datos de entrada y salida; se trabaja con Backpropagation BP
con algoritmo Levenberg-Marquardt; con la arquitectura 6-6-3 para la red
directa.
Interfase: Matlab Neural Networks

187

Comandos del procedimiento y resultado obtenido fue el siguiente:


Si se utiliza el algoritmo Levenberg-Marquardt:, y considerando slo los
factores significativos, se tiene:
>> [pn,ps1]=mapstd(p);
>> [ptrans,ps2]=mapstd(pn,0.000001);
>> [tn,ts]=mapstd(t);
>> [R,Q]=size(ptrans)
R=
7
Q=
24
>> iitst=3:3:Q;
>> iitr=[1:3:Q 2:3:Q];
>> test.P=ptrans(:,iitst); test.T=tn(:,iitst);
>> ptr=ptrans(:,iitr); ttr=tn(:,iitr);
>> net=newff(minmax(ptr),[7 1],{'tansig' 'purelin'},'trainlm');

188

>> net.trainParam.lr=0.01;
>> net.trainParam.epochs=3000;
>> [net,tr]=train(net,ptr,ttr,[],[],[],test);
TRAINLM-calcjx, Epoch 0/3000, MSE 2.51586/0, Gradient 4.43813/1e-010
TRAINLM-calcjx, Epoch 7/3000, MSE 0.0257978/0, Gradient 4.51195e-015/1e010
TRAINLM, Minimum gradient reached, performance goal was not met.
>> an= sim(net,ptrans);
>> a=mapstd('reverse',an,ts);
>> for i=1:1
[m(i),b(i),r(i)]=postreg(a(i,:),t(i,:));
end
>> r
r=
0.9706
>> pnew=[75;45;235;45;3;25;25];
>> pnewn=mapstd('apply',pnew,ps1);
>> pnewtrans=mapstd('apply',pnewn,ps2);
>> Y=sim(net,pnewtrans);
>> Ys=mapstd('reverse',Y,ts);
>> Ys
Ys =
68.8800; valor cercano al obtenido con diseo de experimentos.
>> Para los 24 valores se tiene
>> pn=mapstd('apply',p,ps1);
>> pntrans=mapstd('apply',pn,ps2);
>> Y=sim(net,pntrans);
>>Ys=mapstd('reverse',Y,ts);
>> Ys
Ys =
Columns 1 through 7
68.8800 68.8800 68.8800 41.9600 41.9600 41.9600 75.0300
Columns 8 through 14

189

75.0300 75.0300 63.9950 63.9950 63.9950 63.5700 63.5700


Columns 15 through 21
63.5700 45.2900 45.2900 45.2900 69.7400 69.7400 69.7400
Columns 22 through 24
42.5300 42.5300 42.5300
Con el algoritmo general de Backpropagation, y sino se aplica el algoritmo de
Levenberg-Marquardt ; para los mismos datos, se obtiene:
>> Ys
68.8822; valor similar al obtenido con RNA con Backpropagation con algoritmo
algoritmo de Levenberg-Marquardt. Por tanto el error si no se usa LevenbergMarquardt es de : -4.5522, 4.5478 y 2.0678 dando una suma total de 2.0634; y
si se usa el error es de:-4.55, 4.55 y 2.07 dando una suma total de 2.07.

Con valor deseado:


A continuacin se proceder a probar con deseabilidad; para nuestro ejemplo,
suponiendo que se trata de un envase para productos farmacuticos y que el
nivel de fuerza para abrirlo deba ser mayor, se considera que un valor mayor
sera mejor; pero tampoco demasiado alto; es as que asumimos que se desea
un valor de 85 (cosa que no se puede calcular con el diseo de experimentos
tradicional); trabajando con los factores significativos, se tendra lo siguiente:
>> Red Inversa
>> %cambiando p por t y viceversa:
>> [pn,ps1]=mapstd(p);
>> [ptrans,ps2]=mapstd(pn,0.000001);
>> [tn,ts]=mapstd(t);
>> [R,Q]=size(ptrans)
R=
1
Q=
24
>> iitst=3:3:Q;
>> iitr=[1:3:Q 2:3:Q];
>> test.P=ptrans(:,iitst); test.T=tn(:,iitst);

190

>> ptr=ptrans(:,iitr); ttr=tn(:,iitr);


>> net=newff(minmax(ptr),[1 5],{'tansig' 'purelin'},'trainlm');
>> net.trainParam.lr=0.01;
>> net.trainParam.epochs=3000;
>> [net,tr]=train(net,ptr,ttr,[],[],[],test);
TRAINLM-calcjx, Epoch 0/3000, MSE 1.52185/0, Gradient 0.735645/1e-010
TRAINLM-calcjx, Epoch 6/3000, MSE 0.894444/0, Gradient 2.60874e-012/1e010
TRAINLM, Minimum gradient reached, performance goal was not met.
>> an= sim(net,ptrans);
>> a=mapstd('reverse',an,ts);
>> for i=1:5
[m(i),b(i),r(i)]=postreg(a(i,:),t(i,:));
end
>> r
r=
0.0861 -0.0861

0.0861

0.0861

0.0861

>> pnew=[85];
>> pnewn=mapstd('apply',pnew,ps1);
>> pnewtrans=mapstd('apply',pnewn,ps2);
>> Y=sim(net,pnewtrans);
>> Ys=mapstd('reverse',Y,ts);
>> Ys
Ys =
61.5385
34.2308
221.1538
16.9231
15.7692
%Para filas 4 y 5 se puede considerar el promedio. Es decir fila 4: 2.5 y fila
5:35.
>> Red Directa
>> %cambiando p por t y viceversa:

191

>> [pn,ps1]=mapstd(p);
>> [ptrans,ps2]=mapstd(pn,0.000001);
>> [tn,ts]=mapstd(t);
>> [R,Q]=size(ptrans)
R=
5
Q=
24
>> iitst=3:3:Q;
>> iitr=[1:3:Q 2:3:Q];
>> test.P=ptrans(:,iitst); test.T=tn(:,iitst);
>> ptr=ptrans(:,iitr); ttr=tn(:,iitr);
>> net=newff(minmax(ptr),[5 1],{'tansig' 'purelin'},'trainlm');
>> net.trainParam.lr=0.01;
>> net.trainParam.epochs=3000;
>> [net,tr]=train(net,ptr,ttr,[],[],[],test);
TRAINLM-calcjx, Epoch 0/3000, MSE 2.40105/0, Gradient 4.01543/1e-010
TRAINLM-calcjx, Epoch 5/3000, MSE 0.534856/0, Gradient 1.51558e-015/1e010
>> an= sim(net,ptrans);
>> a=mapstd('reverse',an,ts);
>> for i=1:1
[m(i),b(i),r(i)]=postreg(a(i,:),t(i,:));
end
>> r
r=
0.1117 -0.0861

0.0861

0.0861

0.0861

>> pnew2=[ 61.5385 34.2308 221.1538 16.9231 15.7692];


>> pnew2n=mapstd('apply',pnew2,ps1);
>> pnew2trans=mapstd('apply',pnew2n,ps2);
>> Y=sim(net,pnew2trans);
>> Ys=mapstd('reverse',Y,ts);
>> Ys
Ys =
192

68.6721

Se puede ver que el desempeo de backpropagation, incluso con el


aprendizaje del algoritmo Levenberg-Marquardt, tanto con la red directa, sin
valores de deseabilidad como con el proceso con valores deseados de calidad,
con relacin al metodologa tienen algunas ventajas sin embargo el proceso es
largo y adems la reduccin de errores tiene limitaciones, an, por tanto se
procede a continuacin a probar y analizar la red de base radial. En el Anexo 3,
se presenta el detalle de los clculos del Perceptrn Multicapa con aprendizaje
Backpropagation.

3.3. Prueba de Comparacin de la Red Neuronal desarrollada con otras


Arquitecturas de Redes Neuronales de Funcin de Base Radial y con tcnicas
estadsticas tradicionales de mejora de la calidad de procesos
Para la comparacin de la Red Neuronal desarrollada con Redes Neuronales
de Funcin de Base Radial y con tcnicas tradicionales de mejora de la calidad
de procesos, se han tomado tres casos, que se presentan a continuacin.

a.

Del texto Diseo y Anlisis de Experimentos de Montgomery, D sobre


Diseo Factorial 2K, Captulo 9, Ejemplo 9-2 sobre la taza de filtracin de
un producto qumico; en la actualidad se tiene una tasa de 75 gal/h y se
tarta de reducir; los factores son: A Temperatura, B Presin, C
Concentracin de Reactivos y D Rapidez de mezclado, se trabajan con 2
niveles: 1 y 2, se presenta los resultados en la Tabla 26.

Tabla 26. Diseo Experimento y salida de caso de Montgomery


N corrida

Factor A

Factor B

Factor C

Factor D

Tasa filtrac

45

71

48

65

68

60

gal/h

193

80

65

43

10

100

11

45

12

104

13

75

14

86

15

70

16

96

Donde se llega a una ecuacin de regresin del proceso de filtracin para la


corrida 1, de 46.22 cuando el valor observado es 45, es decir un error de 1.22
b. Del texto Understanding Industrial Designed Experiments de Schmidt, R y
Launsby , R. sobre Diseo de Experimentos con factores y niveles, sobre
Moldeado por Inyeccin de una parte plstica; Caso Estudio 8-23, que
presenta los datos de la Tabla 27

Tabla 27. Niveles de los Factores del Caso de Schmidt


FACTORES
A.

Velocidad

NIVEL 1
de 1

NIVEL 2
2

inyeccin
B Tiempo enfriamiento

40 seg

50 seg

C. Zonas de barril

1, Baja temperatura

2, Alta temperatura

D. Temperatura molde

100

150

E. Presin de proceso

200

1100

F. Contra presin

50

150

Con los siguientes resultados, aplicando Mtodos Taguchi un AO L8, se


obtienen la Tabla 28.

194

Tabla 28. Resultados de Experimento de Caso de Schmidt


Ensayo Longitud

Ancho

000*

005

000

000

005

375

560

570

585

590

075

090

070

065

065

650

640

640

640

645

045

050

045

045

045

545

545

545

550

540

100

105

105

110

105

630

625

625

635

635

105

110

105

120

100

555

560

560

555

560

045

055

065

050

050

580

550

550

540

545

150

140

155

150

145

600

585

585

590

585

055

065

055

055

060

565

565

565

565

560

*se presentan diez milsima; siendo el valor 14.5, en longitud y 9.38 en ancho.
Obtenindose los siguientes resultados con base a los efectos:
Longitud: A12, B12, C1,D1 , E1; F 1 o 2
Ancho: A1,B1 2, C12, D1, E2, F 1 o 2.
Final: A1, B1, C1, D1, E1, F1 2.
c. Del texto Taguchi Techniques for Quality Engineering de Ross, P., sobre
Diseo de Experimentos con factores y niveles, sobre soldadura de punto;
Apndice G, que presenta los datos de la Tabla 29.

Tabla 29. Niveles de los Factores del Caso de Ross


FACTORES

NIVEL 1

NIVEL 2

A. Prog. Soldado

B Grosor de sellado

3 mm

5 mm

C.

Secuencia

de 1: 1-2-3-4-5

2: 1-5-2-4-3

de 20 mm

30 mm

E. Ancho de reborde

10 mm

15 mm

F. Grosor L

.75 mm

1.00 mm

G. Grosor I

1.00 mm

1.5 mm

soldado
D.

Espaciamiento

soldado

195

Con los siguientes resultados, aplicando Mtodos Taguchi un AO L8, se


obtienen la Tabla 30.
Tabla 30. Resultados de Experimento de Caso de Ross
Ensayo Lado Izquierdo

Lado Derecho

100*

97

76

87

80

82

71

59

68

58

61

66

62

60

73

51

56

56

52

56

79

72

74

65

67

81

82

78

78

74

96

102

116

111

108

103

106

109

124

99

75

89

73

79

67

75

88

68

71

67

95

102

89

88

84

97

100

85

94

80

109

115

107

109

110

113

111

94

106

106

98

125

90

109

108

74

94

70

103

110

*Desviacin en mmx100
Obtenindose el respectivo ANVA y un estimado de la media de 59.65 y la
mejor combinacin A1,B1,G2, que corresponde a la segunda corrida.
Aplicando las RN Desarrolalda y las de Base Radial Exacta (newrbe) y de
Regresin Generalizada (GRNN), para los 3 casos seleccionados se tiene lo
siguiente:

3.3.1. Para el experimento a, se lleg a los resultados que se presentan en la


Tabla 31.

Tabla 31. Comparacin de Red Desarrollada con Redes Neuronales de


Funcin de Base Radial.
Con Datos del Del texto Diseo y Anlisis de Experimentos de
Montgomery, D. sobre Diseo Factorial 2K, Captulo 9, Ejemplo 9-2 sobre la
taza de filtracin de un producto qumico *
Indicadores

Red

Red de F.B. Red

de

F.B. Anlisis

Desarrollada,

Radial

Radial

Estadsticos

4.2.2.

GRNN

NEWRBE

Tradicionales,
Montgomery

Error

al 0

simular

la

2.9556

1.22

196

entrada p1
Error

de 0

11.0169

3 capas

3 capas

RD. N capas; 4 neuronas

4 neuronas

4 neuronas

16 neuronas

16 neuronas

RD N capas; 3 capas

3 capas

3 capas

1 neurona

1 neurona

3 capas

3 capas

RI. N capas; 1 neurona

1 neurona

1 neurona

16 neuronas

16 neuronas

RI. N capas; 3 capas

3 capas

3 capas

4 neuronas

4 neuronas

22.44

simulacin
global
Red

Directa 3 capas,

neuronas 16 neuronas

capa

de

entrada

oculta

neuronas 1 neurona

capa de salida
Red

Inversa 3 capas

neuronas 16 neuronas

capa

de

entrada

oculta

neuronas 4 neuronas

capa de salida
Entradas

1.0389

1.0000

1.0389

optimizadas

0.9121

1.2361

0.9121

valores 1.9601

1.0000

1.9601

1.7639

0.9141

para

deseados (35)

0.9141

*Detalle de clculos ver en 4.3.1. 1, 2, 3 y 4.

En esta Tabla se aprecia el menor error de las Redes Desarrollada y NEWRBE


frente a la GRNN y al Anlisis Estadstico. Los valores de entradas optimizadas
son bastante similares entre la Red Desarrollada y la NEWRBE, por tanto, se
puede decir que la Red Desarrollada y la NEWRBE se desempean

197

ligeramente mejor frente a la Red GRNN y mucho mejor que el Anlsis


Estadstico Tradicional..

3.3.1.1. Con la Red Desarrollada


Se aplicaron los datos a la Red Desarrollada, red newrbfcev15r en el Shell de
Matlab Neural Networks con la interfase que se presenta a continuacin y se
obtuvieron los resultados siguientes:
>>%Construccin de red y simulacin:
>>sc=1;
>> [w1,b1,w2,b2,K]=newrbfcev15r(pea',tea',sc);
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,pea')
ts =
Columns 1 through 7
45.0000 71.0000 48.0000 65.0000 68.0000 60.0000 80.0000
Columns 8 through 14
65.0000 43.0000 100.0000 45.0000 104.0000 75.0000 86.0000
Columns 15 through 16
70.0000 96.0000
>> %En la simulacin se obtienen todos los valores de salida con error 0.
>> %Caso de simular dado un valor de entrada:
>> Pea1=[1;1;1;1];
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,Pea1)
ts =
45.0000
>> %Con valores deseados, t=35
>> %Inversa
>> [w1,b1,w2,b2,K]=newrbfcev15r(tea',pea',1);
>> [ts1]=simnewrbfcev15r(w1,b1,w2,b2,35)
>> Entrada optimizada
ts1 =
1.0389
0.9121
1.9601
0.9141
198

Interfase de Red Desarrollada para 4.2.3.a.1.

3.3.1.2 . Con Red NEWRBE


Se aplicaron los datos a la Red NEWRBE en el Shell de Matlab Neural
Networks y se obtuvieron los resultados siguientes:
>>%Construccin de red y simulacin:
>> neta=newrbe(pea',tea');
>> v=sim(neta,pea')
v=
Columns 1 through 7
45.0000 71.0000 48.0000 65.0000 68.0000 60.0000 80.0000
Columns 8 through 14
65.0000 43.0000 100.0000 45.0000 104.0000 75.0000 86.0000
Columns 15 through 16
70.0000 96.0000

199

>> %En la simulacin se obtienen todos los valores de salida con error 0.
>> %Caso de simular dado un valor de entrada:
>> pea1=[1 1 1 1];
>> v=sim(neta,pea1')
v=
45.0000
>> %Con valores deseados, t=35 gal/hr
>> %Inversa
>> net=newrbe(tea',pea');
>> v10=sim(net,35)
v10 =
1.0389 ;

0.9121;

1.9601;

0.9141

>>% As se obtuvieron las netradas optimizadas para obtenre 35 gal/hr de


salida.
3.3.1.3 . Con Red GRNN
Se aplicaron los datos a la Red GRNN en el Shell de Matlab Neural Networks y
se obtuvieron los resultados siguientes:
>>%Construccin de red y simulacin:
>> netag=newgrnn(pea',tea');
>> v=sim(netag,pea')
v=
Columns 1 through 7
61.8025 69.3086 62.7160 69.8395 66.8642 70.3580 68.3951
Columns 8 through 14
71.7160 64.9753 76.0247 65.7284 76.9383 70.1358 76.8642
Columns 15 through 16
71.0494 78.2840
>> %En la simulacin se obtienen valores muy distintos a los esperados, error
muy elevado.
>> %Caso de simular dado un valor de entrada:
>> v=sim(netag,pea1')
v=
61.8025

200

>>%Error muy elevado= 61.8025-45.0000=16.8025


>>%Como no se desempea bien la red con sc=1; se prob sc=0.5
>> sc=0.5;
>> netag=newgrnn(pea',tea',sc);
>> v=sim(netag,pea')
v=
Columns 1 through 7
47.9556 70.2789 50.5435 66.4850 67.3418 62.7663 76.3252
Columns 8 through 14
67.1861 48.1651 94.6073 49.7752 97.8364 73.3056 85.0499
Columns 15 through 16
70.7644 92.6136
>> v=sim(netag,pea1')
v=
47.9556
>>%Desempeo mucho mejor; error de: 47.9556-45.0000=2.9556
>> %Con valores deseados, t=35 gal/hr
>> %Inversa
>> net=newgrnn(tea',pea');
>> sc=5;
>> net=newgrnn(tea',pea',sc);
>> v10=sim(net,35)
v10 =
1.0000
1.2361
1.0000
1.7639
3.3.1.4. Con Anlisis Estadstico Tradicional
Se trata de un diseo factorial 2k, cuyo anlisis de variancia desarrollado en el
texto de Montgomery es el siguiente:

201

Tabla 32. Anlisis de variancia de caso sobre velocidad de filtracin


Fuente

de Suma

de Grados

de Media

de Fo

variacin

cuadrados

libertad

Cuadrados

1870.56

1870.56

83.36*

390.06

390.06

18.38*

855.56

855.56

38.13*

AC

1314.06

1314.06

58.56*

AD

1105.56

1105.56

49.27*

CD

5.06

5.06

<1

ACD

10.56

10.56

<1

Error

179.52

22.44

Total

5730.94

15

*Significativo al nivel de 1%
Error al proyectar el primer valor: 46.22-45.00=1.22

En el presente caso se aprecia la superioridad de las RN con funcin de base


radial, sobre el diseo de experimentos, obtenindose, con la Red Desarrollada
y con la Red Newrbe el valor de 45, error de cero; con la Red de Regresin
Generalizada con un sc Spread de 0.5 el valor de 47.9556 (error de 2.9556), y
con el anlisis estadstico el error es de 1.22; es decir, la Red Newrbe se
comporta mejor. Para el caso de obtener el valor deseado, se prob con 35
gal/h, y se llega a valores de los factores, siendo lo ms confiable los de la Red
Desarrollada y la Newrbe, que dan valores iguales y que son para el factor A:
1.0389; el factor B: 0.9121; el factor C:1.9601; el factor D:0.9141. En el caso de
los Anlisis Estadsiticos Tradicionales, se aprecia sus limitaciones.

3.3.2. Para el experimento b, se lleg a los resultados que se presentan en la


Tabla 33.

Tabla 33. Comparacin de Red Desarrollada con Redes Neuronales de


Funcin de Base Radial.

202

Del texto Understanding Industrial Designed Experiments de Schmidt, R y


Launsby , R. sobre Diseo de Experimentos con factores y niveles, sobre
Moldeado por Inyeccin de una parte plstica; Caso Estudio 8-23.*
Indicadores

Red

Red de F.B. Red de F.B. Anlisis

Desarrollada,

Radial

Radial

Estadsticos

4.2.2.

GRNN

NEWRBE

Tradicionales,
Schmidt

Launsby ,
Error

al 0.0011

simular

la 0.0004

0.0011

Compara

0.0004

promedios

Compara

entrada p1
Error

de 0

simulacin

promedios

global
Red

Directa 3 capas,

3 capas

3 capas

RD. N capas; 8 neuronas

8 neuronas

8 neuronas

8 neuronas

8 neuronas

RD N capas; 3 capas

3 capas

3 capas

2 neuronas

2 neuronas

3 capas

3 capas

RI. N capas; 2 neurona

2 neurona

2 neurona

8 neuronas

8 neuronas

RI. N capas; 3 capas

3 capas

3 capas

6 neuronas

6 neuronas

neuronas 8 neuronas

capa

de

entrada

oculta

neuronas 2 neuronas

capa de salida
Red

Inversa 3 capas

neuronas 8 neuronas

capa

de

entrada

oculta

neuronas 6 neuronas

capa de salida
Entradas

D:100

100

100

203

optimizadas

C:1

valores A:1

deseados (0 y B:50

40

50

800)

E:1100

200

1100

F:150

50

50**

para

No respondi
*Detalle de clculos ver en 4.3.2. 1, 2, 3 y 4.
**Seleccionado por menor impacto, por ser presin, pero eran indistintos los
2 niveles.

De la revisin de los valores de la tabla se aprecia que el desempeo de las


Redes Desarrollada y NEWRBE son mejores al GRNN y al Anlisis Estadstico.
GRNN no da valores optimizados; y NEWRBE equivoca sus resultados en el
factor B.

En esta Tabla se aprecia el error muy similar de las Redes Desarrollada y


NEWRBE y GRNN; el Anlisis Estadstico desarrolla un trabajo principalmente
cualitativo de seleccin de factores con base a promedios. Los valores de
entradas optimizadas de la Red Desarrollada tienen un mejor desempeo que
la NEWRBE, y la Red GRNN no pude realizar este tipo de clculo. Por tanto, se
puede decir que la Red Desarrollada se desempea ligeramente mejor que la
Red NEWRBE y ambas, mucho mejor que la Red GRNN.

Para este caso se debe mencionar que se aplica el Arreglo octogonal AOL8 de
Taguchi, pero con 6 factores; que tiene el siguiente diseo:

Factores

Salidas

Largo

Ancho

100

40

200

50

536

100

50

1100 150

73

643

100

3,1

40

200

150

46

545

100

3,1

50

1100

50

105

630

150

3,1

40

1100

50

108

558

150

3,1

50

200

150

53

553
204

150

40

1100 150

150

50

200

50

148

589

58

564

Los valores buscados son largo 0, que corresponde a 14,5000 y ancho 800,
que corresponde a 9.3800. En este caso se busca determinar la mejor
combinacin que permita obtener, los valores buscados. El autor obtuvo:
D1(100); C1(1), E2(1100); A1(1), B2(50), F1(50). F1=50 se prefiere por menor
impacto, por ser presin, el otro valor es de 150, ver 4.3.2.4.
3.3.2.1. Con la Red Desarrollada
Se aplicaron los datos a la Red Desarrollada, red newrbfcev15r en el Shell de
Matlab Neural Networks con la interfase que se presenta a continuacin y se
obtuvieron los resultados siguientes:
>>%Construccin de red y simulacin:
>>sc=1;
>> [w1,b1,w2,b2,K]=newrbfcev15r(peb',teb',sc);
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,peb')
>> [w1,b1,w2,b2,K]=newrbfcev15r(peb',teb',sc);
>> [ts1]=simnewrbfcev15rr(w1,b1,w2,b2,peb')
ts1 =
Columns 1 through 7
2.0000 73.0000 46.0000 105.0000 108.0000 53.0000 148.0000
536.0000 643.0000 545.0000 630.0000 558.0000 553.0000 589.0000
Column 8
58.0000
564.0000

Interfase de la Red Desarrollada:

205

>>%Con la primera entrada peb1 se poprb obtener la salida respectiva.


>> peb1=[100;1;1;40;200;50];
>> [ts1]=simnewrbfcev15rr(w1,b1,w2,b2,peb1)
ts1 =
1.9989
535.9996
>>%Que es prcticamente el valor esprado de 2 y 536.
>>%Con valor deseado; suponiendo que se busca obtener 0 y 800.
>> %Con la Red Inversa, se tiene.
>> [w1,b1,w2,b2,K]=newrbfcev15r(teb',peb',sc);
>> teb1=[0 800];
>> [ts1]=simnewrbfcev15r(w1,b1,w2,b2,teb1')
ts1 =
1.0e+003 *
0.1000
0.0010

206

0.0010
0.0500
1.1000
0.1500
>>%Que son los valores de entrada optimizados para obtener 0 y 800 de
salida, >> %y corresponde a los factores D,C,A,B,E,F, respectivamente.
3.3.2.2. Con la Red NEWRBE
>>Construccin de la red y simulacin
>> netb=newrbe(peb',teb');
>> v=sim(netb,peb')
v=
Columns 1 through 7
2.0000 73.0000 46.0000 105.0000 108.0000 53.0000 148.0000
536.0000 643.0000 545.0000 630.0000 558.0000 553.0000 589.0000
Column 8
58.0000
564.0000
>>%Con la primera entrada peb1 se poprb obtener la salida respectiva.
>> peb1=[100;1;1;40;200;50];
>> v=sim(net,peb1)
v=
1.9989
535.9996
>> %Para obtener un valor deseado exacto, buscar entradas optimizadas.
>> %newrbe, inversa
>> net=newrbe(teb',peb');
>> teb1=[000 800];
>> v10=sim(net,teb1')

v10 =
100.0000
1.0000
1.0000
40.0000
207

200.0000
50.0000
>> %Que corresponde a los factores D,C,A,B,E,F, respectivamente.
3.3.2.3. Con la Red NEWGRNN
>>Construccin de la red y simulacin
>> netbg=newgrnn(peb',teb');
>> v=sim(netbg,peb')
v=
2

73

46 105 108

53 148

58

536 643 545 630 558 553 589 564


>>%Con la primera entrada peb1 se poprb obtener la salida respectiva.
>> peb1=[100;1;1;40;200;50];
>> v=sim(net,peb1)
v=
2
536
>> %Para obtener un valor deseado exacto, buscar entradas optimizadas.
>> %newgrnn, inversa
>> net=newgrnn(teb',peb');
>> teb1=[000 800];
>> v10=sim(net,teb1')
v10 =
0
0
0
0
0
0
>>%No obtiene una respeuesta esperada, razonable. No se desempea bien.
Por >>%tanto, se procedi a modificar los sc, se porb con sc=0.5 y 5.0
>> sc=0.5;
>> net=newgrnn(teb',peb',sc);
>> teb1=[000 800];

208

>> v10=sim(net,teb')
v10 =
1.0e+003 *
Columns 1 through 7
0.1000

0.1000

0.1000

0.1000

0.1500

0.1500

0.1500

0.0010

0.0010

0.0020

0.0020

0.0010

0.0010

0.0020

0.0010

0.0010

0.0031

0.0031

0.0031

0.0031

0.0010

0.0400

0.0500

0.0400

0.0500

0.0400

0.0500

0.0400

0.2000

1.1000

0.2000

1.1000

1.1000

0.2000

1.1000

0.0500

0.1500

0.1500

0.0500

0.0500

0.1500

0.1500

Column 8
0.1500
0.0020
0.0010
0.0500
0.2000
0.0500
>> v10=sim(net,teb1')
v10 =
0
0
0
0
0
0
>> sc=5;
>> net=newgrnn(teb',peb',sc);

>> v10=sim(net,teb')
v10 =
1.0e+003 *
Columns 1 through 7
0.1000

0.1000

0.1021

0.1000

0.1500

0.1479

0.1500

0.0010

0.0010

0.0020

0.0020

0.0010

0.0011

0.0020
209

0.0010

0.0010

0.0031

0.0031

0.0031

0.0031

0.0010

0.0400

0.0500

0.0404

0.0500

0.0400

0.0496

0.0400

0.2000

1.1000

0.2000

1.1000

1.1000

0.2000

1.1000

0.0500

0.1500

0.1500

0.0500

0.0500

0.1484

0.1500

Column 8
0.1500
0.0020
0.0010
0.0500
0.2000
0.0517
>> v10=sim(net,teb1')
v10 =
0
0
0
0
0
0

3.3.2.4. Con Anlisis Estadstico Tradicional


El autor del texto, aplica un Arreglo Ortogonal de los Mtodos Taguchi, el AO
L8 con 6 factores, luegode la experimentacin respectiva se obtieen los
resultados que se mostraron en la tabla inicial. Seguidamente construye la
Tabla de Promedios de los efectos, buscando los mejores de resultados de
ancho y largo, los cuales se presentan en la siguiente tabla.

Tabla 34. Tabla de resultados, de mejor desempeo para largo y ancho


Factor*

Longitud

Ancho

100

100

1 2

200

1100

210

12

12

50

12

12

*Orden de factores, es el que se presenta en texto original


Finalmente, luego del anlisis de aspectos diversos, entre ellos el econimico,
s decide por la mejor combinacin: D1(100); C1(1), E2(1100); A1(1), B2(50),
F1(50). F1=50 se prefiere por menor impacto, por ser presin , el otro valor es
de 150.
En el presente caso se vuelve a apreciar la superioridad de las RN con funcin
de base radial, sobre el diseo de experimentos, obtenindose, con la Red
Desarrollada y con la Newrbe los valores similares a los objetivos, error de
cero; y con la Red de Regresin Generalizada GRNN, da los valores similares
con error cero. Sin emabargo,para el caso de obtener el valor deseado, se
prob con los valores objetivo de largo y ancho, y se llega a valores de los
factores con la Red Desarrollada y con la Newrbe, ms no as con los de la
Red Newgrnn. En el caso de los Anlisis Estadsiticos Tradicionales, se aprecia
sus limitaciones, sin embargo es de destacar que los aspectos cualitativos de
criterio en mabos casos se pueden aplicar.

3.3.3. Para el experimento c, se lleg a los resultados que se presentan en la


Tabla 35.

Tabla 35. Comparacin de Red Desarrollada con Redes Neuronales de


Funcin de Base Radial.
Del texto Taguchi Techniques for Quality Engineering de Ross, P., sobre
Diseo de Experimentos con factores y niveles, sober soldadura de punto;
Apndice G.*

211

Indicadores

Red

Red de F.B. Red de F.B. Anlisis

Desarrollada, Radial

Radial

Estadsticos

4.2.2.

NEWRBE

Tradicionales,

GRNN

Ross
Error al simular 0

1.9803

No calcula;

la entrada p1

1.0770

Compara

promedios de
efectos
Error

de 0

Red Directa RD. 3 capas,

3 capas

3 capas

N 8 neuronas

8 neuronas

8 neuronas

capa 8 neuronas

8 neuronas

8 neuronas

RD N capas; N 3 capas

3 capas

3 capas

neuronas

2 neuronas

2 neuronas

Red Inversa RI. 3 capas

3 capas

3 capas

N 2 neurona

2 neurona

2 neurona

capa 8 neuronas

8 neuronas

8 neuronas

RI. N capas; N 3 capas

3 capas

3 capas

neuronas

6 neuronas

6 neuronas

77.47

simulacin
global

capas;

neuronas
de

entrada

oculta

capa 2 neuronas

de salida

capas;

neuronas
de

entrada

oculta

capa 6 neuronas

de salida
Entradas

A:2

optimizadas

B:5

valores C:1

de D:20

20

20

E:15

15

15

F:1

para

deseados
salida (0 y 0)

212

G:1

No

No calcula

No calcula

No
respondi
Error con mejor 0
corrida

(64.4-

54.2)
Error con salida 0
mnima

respondi

aceptable(51,51)
Error con salida 0

Slo acierta

mxima

2 salidas de

aceptable(73,73)

*Detalle de clculos ver en 4.3.3. 1, 2, 3 y 4.

De la revisin de los valores de la tabla se aprecia que el desempeo de las


Redes Desarrollada y NEWRBE son mejores al GRNN y al Anlisis Estadstico.
En la simulacin de la primera entrada Las Redes Desarrolalda y NEWRBE
tienen error 0, mientras que la Red GRNN da errores de (1.9803, 1.0770) y la
red GRNN no da valores de entradas optimizadas para las salidas (0,0) ni para
(51,51) y da 5 valores errados para (73,73).
En esta Tabla se aprecia el error muy similar de las Redes Desarrollada y
NEWRBE y GRNN en error con mejor corrida y cuadrado medio del error; el
Anlisis Estadstico desarrolla un trabajo principalmente cualitativo de seleccin
de factores con base a promedios y tambin da mejor corrida. Por tanto, se
puede decir que la Red Desarrollada y la Red NWERBE se desempean mejor
que la Red GRNN y que el Anlisis Estadstico Tradicional no realiza clculos
con valores deseados.
3.3.3.1. Con la Red Desarrollada
Se aplicaron los datos a la Red Desarrollada, red newrbfcev15r en el Shell de
Matlab Neural Networks con la interfase que se presenta a continuacin y se
obtuvieron los resultados siguientes:
>>%Construccin de red y simulacin:

213

>> %Datos de entrada, considerando AO L8 y valores promedios de salida.


>> pec
pec =
1.0000

3.0000

1.0000 20.0000 10.0000

0.7500

1.0000

1.0000

3.0000

1.0000 30.0000 15.0000

1.0000

1.5000

1.0000

5.0000

2.0000 20.0000 15.0000

1.0000

1.5000

1.0000

5.0000

2.0000 30.0000 10.0000

0.7500

1.0000

2.0000

3.0000

2.0000 20.0000 10.0000

0.7500

1.5000

2.0000

3.0000

2.0000 30.0000 15.0000

1.0000

1.0000

2.0000

5.0000

1.0000 20.0000 15.0000

1.0000

1.0000

2.0000

5.0000

1.0000 30.0000 10.0000

0.7500

1.5000

>> tec
tec =
88.0000 67.6000
64.4000 54.2000
71.4000 78.6000
106.6000 108.2000
76.6000 73.8000
91.6000 91.2000
110.0000 106.0000
106.0000 90.2000

Interfase para aplicar la Red Desarrollada:

214

>> sc=1;
>> [w1,b1,w2,b2,K]=newrbfcev15r(pec',tec',sc);
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,pec')
ts =
Columns 1 through 7
88.0000 64.4000 71.4000 106.6000 76.6000 91.6000 110.0000
67.6000 54.2000 78.6000 108.2000 73.8000 91.2000 106.0000
Column 8
106.0000
90.2000
>>%Con el primer valor de entrada
>> pec1=[ 1.0000

3.0000

1.0000 20.0000 10.0000

0.7500

1.0000];

>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,pec1')
ts =
88.0000
67.6000

215

>> %Para obtener el valor deseado


>> %Red Inversa
>> [w1,b1,w2,b2,K]=newrbfcev15r(tec',pec',sc);
>>Con el mejor valor propuesto por el autor; segunda corrida: 64.4 y 54.2
>>tec3=[64.4;54.2];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,tec3)
ts =
1.0003
3.0005
1.0000
29.9974
15.0000
1.0000
1.4999
>>Que

corresponde

lo

obtenido

por

el

autor,

la

combinacin:

>>A1,B1,C1,D2,E2,F2,G2.
> >%Con el ms bajo de los valores aceptados que es 51- 51 y el ms
>> % alto de los valores aceptados es 73 -73; ello implica entradas de:
>> tec1=[51 51];
>> tec2=[73 73];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,tec1')
ts =
2.0000
5.0000
1.0000
19.9999
15.0001
1.0000
1.0000

>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,tec2')
ts =
2.0000
4.9998
216

1.0001
19.9999
14.9997
1.0000
1.0000
>>%Este tipo de clculos no se puede hacer con el Anlsis Estadstico
Tradicional.
>>%Asimismo, con la salida tec4= [0 0], se obtiene la siguiente combinacin
>> tec4=[0;0];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,tec4)
ts =
2.0000
5.0000
1.0000
19.9999
15.0001
1.0000
1.0000

3.3.3.2. Con la Red NEWRBE


Construccin de la Red y simulacin:
>> netc=newrbe(pec',tec');
>> v=sim(netc,')
>> v=sim(netc,pec')
v=
Columns 1 through 7
88.0000 64.4000 71.4000 106.6000 76.6000 91.6000 110.0000
67.6000 54.2000 78.6000 108.2000 73.8000 91.2000 106.0000
Column 8
106.0000
90.2000
>> Simulacin con el primer valor de entrada:
>> v=sim(netc,pec1')

217

v=
88.0000
67.6000
>> %Para obtener un valor deseado exacto
>> %Newrbe inversa
>> netc=newrbe(tec',pec');
>> v=sim(netc,tec')
v=
Columns 1 through 7
1.0000

1.0000

1.0000

1.0000

2.0000

2.0000

2.0000

3.0000

3.0000

5.0000

5.0000

3.0000

3.0000

5.0000

1.0000

1.0000

2.0000

2.0000

2.0000

2.0000

1.0000

20.0000 30.0000 20.0000 30.0000 20.0000 30.0000 20.0000


10.0000 15.0000 15.0000 10.0000 10.0000 15.0000 15.0000
0.7500

1.0000

1.0000

0.7500

0.7500

1.0000

1.0000

1.0000

1.5000

1.5000

1.0000

1.5000

1.0000

1.0000

Column 8
2.0000
5.0000
1.0000
30.0000
10.0000
0.7500
1.5000
> >%Con el ms bajo de los valores aceptados que es 51- 51 y el ms
>> % alto de los valores aceptados es 73 -73; ello implica entradas de:
>> tec1=[51 51];
>> tec2=[73 73];

>> v=sim(netc,tec1')
v=
2.0000
5.0000
1.0000
218

19.9999
15.0001
1.0000
1.0000
>> v=sim(netc,tec2')
v=
2.0000
4.9998
1.0001
19.9999
14.9997
1.0000
1.0000

>>%Probando con el mejor valor del experimento, la segunda corrida, se tiene:


>> tec3=[64.4 54.2];
>> v=sim(netc,tec3)
v=
1.0000
3.0000
1.0000
30.0000
15.0000
1.0000
1.5000
>>%Justo lo mismo que obtuvo Roos: A1, B1, C1, D2, E2, F2, G2.
>>%Si queremos un error de [0,0] y conocemos la red inversa, podemos
obtener:

>> tec1=[0 0];

>> v=sim(netc,tec1')
v=
2.0000
219

5.0000
1.0000
19.9999
15.0001
1.0000
1.0000
>>%Que corresponde a la combinacin A2, B2, C1, D1, E2, F2, G1; resultado
>>que no se puede obtener con los Mtodos Taguchi.

3.3.3.3. Con la Red NEWGRNN


Construccin de la Red y simulacin:
>> netcg=newgrnn(pec',tec');
>> v=sim(netcg,pec')
v=
Columns 1 through 7
86.0197 69.1248 78.1051 106.4958 78.5803 86.8752 103.2949
68.6770 60.6272 83.3596 105.0733 72.7230 84.7729 101.2404
Column 8
106.1042
93.3267
>> %primer valor.
>> pec1=[ 1.0000

3.0000

1.0000 20.0000 10.0000

0.7500

1.0000];

>> v=sim(netcg,pec1')
v=
86.0197
68.6770
>>Red Inversa
>> netcg=newgrnn(tec',pec');

>> v=sim(netcg,tec')
v=
Columns 1 through 7
1.0000

1.0000

1.0000

1.0000

2.0000

2.0000

2.0000

3.0000

3.0000

5.0000

5.0000

3.0000

3.0000

5.0000
220

1.0000

1.0000

2.0000

2.0000

2.0000

2.0000

1.0000

20.0000 30.0000 20.0000 29.9999 20.0000 30.0000 20.0001


10.0000 15.0000 15.0000 10.0001 10.0000 15.0000 14.9999
0.7500

1.0000

1.0000

0.7500

0.7500

1.0000

1.0000

1.0000

1.5000

1.5000

1.0000

1.5000

1.0000

1.0000

Column 8
2.0000
5.0000
1.0000
30.0000
10.0000
0.7500
1.5000
> >%Con el ms bajo de los valores aceptados que es 51- 51 y el ms
>> % alto de los valores aceptados es 73 -73; ello implica entradas de:
>> tec1=[51 51];
>> tec2=[73 73];
>> v=sim(netcg,tec1')
v=
1.0e-025 *
0.0073
0.0220
0.0073
0.2196
0.1098
0.0073
0.0110

>> v=sim(net,tec2')
v=
2.0000
3.0000
2.0000
20.0000
221

10.0000
0.7500
1.5000
>>%Probando con el mejor valor del experimento, la segunda corrida, se tiene:
>> tec3=[64.4 54.2];
>> v=sim(net,tec3)
v=
1.0000
3.0000
1.0000
30.0000
15.0000
1.0000
1.5000
>>%Justo lo mismo que obtuvo Roos: A1, B1, C1, D2, E2, F2, G2.
>>%Si queremos un error de [0,0] y conocemos la red inversa, podemos
obtener:
>> tec4=[0 0];
>> v=sim(netcg,tec4)
v=
0;

0;

0;

0;

0;

0;

3.3.2.4. Con Anlisis Estadstico Tradicional


El autor del texto, aplica un Arreglo Ortogonal de los Mtodos Taguchi, el AO
L8 con 7 factores, luego de la experimentacin respectiva se obtieen los
resultados que se mostraron en la tabla inicial. Seguidamente construye la
Tabla de Promedios de los efectos y Anlisis de Variancia, buscando los
mejores de resultados a la izquierda y derecha de la soldadura, la misma que
se presenta en la siguiente tabla.

222

Tabla 36. Tabla de resultados, de mejor desempeo lado izquierdo y derecho


de soldadura
Fuente
variacin

de Suma
cuadrados

de Grados
de

Media

de Fo

Cuadrados

libertad
A

3537.81

3537.81

45.66

12.18

8988.81

8988.81

116.02

31.37

42.06

42.06

0.54

510.06

510.06

6.58

72.19

72.19

0.93

768.81

768.81

9.92

2.43

7411.25

7411.25

95.66

25.81

Error

4958.38

64

77.47

Total

28409.38

1.52

Luego del anlisis de aspectos diversos, entre ellos el factor ruido, se obtiene la
estimacinde la media = A1 B1 G2 2T = 59.65; y se decide por la mejor
combinacin: A1(1); B1(3); C1(1); D2(30); E2(15); F2(1); G2(1.5); y la mejor
combinacin est en la segunda corrida.

En el presente caso se vuelve a apreciar la superioridad de las RN con funcin


de base radial, sobre el diseo de experimentos, obtenindose, con la Red
Desarrollada y Newrbe las que dan los valores similares a los objetivos, error
de cero; y con la Red de Regresin Generalizada, da los valores cercanos a los
valores objetivos. Para el caso de obtener el valor deseado, se prob con los

223

valores objetivos de desviacin cero, y se llega a valores de los factores con la


Red Deseada y Newrbe, ms no as con los de la Red Newgrnn. Ver Tabla 35.

224

3.4. Aplicacin de la Red Neuronal Desarrollada a un caso de mejora de la


calidad de diseo de procesos.
En este caso se aplic la RN de Funcin de Base Radial al proceso que se
presenta en el documento: How to Formulate the Ultimate Margarita: A Tutorial
on Experiments with Mixtures, escrito por Montgomery,D y Bowles, M. y
publicado en el Quality Engineering, volumen 10(2), pginas 239-253.
Se trata de la optimizacin de la formulacin de un producto, es decir, el
diseo del producto. Se tienen 4 ingredientes, o factores, y se busca la mejor
formulacin: A :Margarita Mix, B:Tequila, C: Triple Sec y D: Lime Juice. Las
salidas, variables de respuesta son: Y1: Nivel dentro de Ranking, de 1 a 15,
porque son 15 las corridas, muestras; e Y2: Nivel de agradable, calificado de 1
a 10, siendo 10 lo mejor. Los datos se presentan en la Tabla 37.

Tabla 37. Valores de los Factores y Respuestas del Caso de Montgomery y


Bowles
Corrida

Factores, Componentes %
A

Respuestas
Y1 Prom. Y2 Prom.
Ranking

Agradable

49

25

16

10

9.33

5.14

51

31

10

9.17

4.43

55

28

13

9.57

3.96

55

25

10

10

3.67

6.29

55

29

7.33

5.07

51

31

10

9.00

4.12

55

25

10

10

5.33

6.21

52

28

16

12.33

4.21

52

25

16

8.67

5.54

10

49

28

13

10

6.50

4.92

11

55

25

16

8.00

4.60

12

55

29

7.17

5.79

13

55

31

10

7.50

4.60

225

14

49

31

13

7.67

4.99

15

49

31

16

9.17

2.79

Para el trabajo del experimento se trabaj con los valores transformados a nivel
de seudocomponentes, haciendo la transformacin con la frmula:
Xi =(xi-Li)/(1- Li); siendo los Li para A:49; B:25;C:8;D:4; la Li=86.
Llegndose a los siguientes valores de las variables de entrada, factores, que
se presenta en la Tabla 38.

Tabla 38. Valores Transformados de los Factores


Corrida

Factores, componentes
A

0.0000

.5714

.4286

.1429

.4286

.4286

.4286

.2143

.3571

.4286

.1429

.4286

.4286

.2857

.2857

.1429

.4286

.4286

.4286

.1429

.4286

.2143

.2143

.5714

.2143

.5714

.2143

10

.2143

.3571

.4286

11

.4286

.5714

12

.4286

.2857

.2857

13

.4286

.4286

.1429

14

.4286

.3571

.2143

15

.4286

.5714

226

Se obtuvo como resultado la mezcla de: A. Margarita Mix: 55%, Tequila B:


25.67%, C Triple Sec: 9.33%, D Lima Juice: 10.0%
Aplicando las Redes Desarrollada, NEWRBE y consierando los resultados del
diseo de experimentos se lleg a los resultados que se presentan en la Tabla
39.

Tabla 39. Comparacin de Red Desarrollada con la Red NEWRBE y


Anlisis Estadsticos Tradicionales.
Del artculo How to Formulate the Ultimate Margarita: A Tutorial on
Experiments with Mixtures, escrito por Montgomery, D y Bowles, M.,
publicado en el Quality Engineering, volumen 10(2), pginas 239-253..*
Indicadores

Red

Red

de

F.B. Anlisis

Desarrollada,

Radial

Estadsticos

4.2.2.

NEWRBE

Tradicionales,
Montgomery

Error

al

simular

la 0

0.6

0.1

simulacin 0

0.6

entrada p1
Error de
global

0.1

Red Directa RD. N 3 capas,

3 capas

capas; N neuronas 15 neuronas

15 neuronas

capa de entrada y 15 neuronas

15 neuronas

oculta
RD

neuronas

capas;
capa

N 3 capas

3 capas

de 2 neuronas

2 neuronas

salida
Red Inversa RI. N 3 capas

3 capas

capas; N neuronas 2 neurona

2 neurona

capa de entrada y 15 neuronas

15 neuronas

oculta
RI.

neuronas

capas;
capa

N 3 capas

3 capas

de 4 neuronas

4 neuronas

227

salida
Entradas optimizadas A:55

51.8582

55.00

para

29.6904

25.67

deseados de salida C:10

8.3577

9.33

(4.7 y 5.9)

10.0938

10.00

valores B:25

D:10

*Detalle de clculos ver en 4.4.1. y 4.4.2.

3.4.1. Con la Red Desarrollada


Se aplicaron los datos a la Red Desarrollada, red newrbfcev15r en el Shell de
Matlab Neural Networks con la interfase que se presenta a continuacin y se
obtuvieron los resultados siguientes:
>>%Construccin de red y simulacin:
>> %Datos de entrada,
>> pet
pet =
49

25

16

10

51

31

10

55

28

13

55

25

10

10

55

29

51

31

10

55

25

10

10

52

28

16

52

25

16

49

28

13

10

55

25

16

55

29

55

31

10

49

31

13

49

31

16

228

>> tet
tet =
9.3300

5.1400

9.1700

4.4300

9.5700

3.9600

3.6700

6.2900

7.3300

5.0700

9.0000

4.1200

5.3300

6.2100

12.3300

4.2100

8.6700

5.5400

6.5000

4.9200

8.0000

4.6000

7.1700

5.7900

7.5000

4.6000

7.6700

4.9900

9.1700

2.7900

Interfase para aplicar la Red Desarrollada:

229

>> sc=1;
>> [w1,b1,w2,b2,K]=newrbfcev15r(pet',tet',sc);
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,pet')
ts =
Columns 1 through 7
9.3300

9.0850

9.5700

4.5000

7.2500

9.0850

4.5000

5.1400

4.2750

3.9600

6.2500

5.4300

4.2750

6.2500

Columns 8 through 14
12.3300

8.6700

6.5000

8.0000

7.2500

7.5000

7.6700

4.2100

5.5400

4.9200

4.6000

5.4300

4.6000

4.9900

Column 15
9.1700
2.7900

230

>> Simulando el primer valor de entrada


>>pet1=[49 25 16 10];
[ts]=simnewrbfcev15rr(w1,b1,w2,b2,pet1')
ts =
9.3300
5.1400
>> Con la red inversa para obtener valores deseados
>> sc=0.5;
>> [w1,b1,w2,b2,K]=newrbfcev15r(tet',pet',sc);
>> Con valor de salida optimizado:4.7 , 5.9
>> tet13=[4.7 5.9];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,tet13')
ts =
55.0000
25.0000
10.0000
10.0000
>> Con valor de salida:4 , 6
>> tet11=[4 6];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,tet11')
ts =
55.0000
25.0000
10.0000
10.0000

4.4.2. Con la Red NEWRBE

>> netpto=newrbe(pet',tet');
>> v=sim(netpto,pet')
v=
Columns 1 through 7
9.3300

9.0850

9.5700

4.5000

7.2500

9.0850

4.5000

5.1400

4.2750

3.9600

6.2500

5.4300

4.2750

6.2500
231

Columns 8 through 14
12.3300

8.6700

6.5000

8.0000

7.2500

7.5000

7.6700

4.2100

5.5400

4.9200

4.6000

5.4300

4.6000

4.9900

Column 15
9.1700
2.7900

%Con valores transfomados


>> v=sim(netptot,pett')
v=
Columns 1 through 7
9.3300

9.0850

9.5700

4.5000

7.2500

9.0850

4.5000

5.1400

4.2750

3.9600

6.2500

5.4300

4.2750

6.2500

Columns 8 through 14
12.3300

8.6700

6.5000

8.0000

7.2500

7.5000

7.6700

4.2100

5.5400

4.9200

4.6000

5.4300

4.6000

4.9900

Column 15
9.1700
2.7900

El resultado es idntico que sin transformacin, por tanto el uso de RN no


requiere la transformacin que se hacen con las tcnicas que aplican los
autores Montgomery y Bowles.

>> Simulando el primer valor de entrada


>>pet1=[49 25 16 10];
[ts]=simnewrbfcev15rr(w1,b1,w2,b2,pet1')
ts =
9.3300
5.1400
>> Con el valor de salida optimizado:4.7 y 5.9
>>tet13=[4.7 5.9];

>> net=newrbe(tet',pet');
232

>> v=sim(net,tet13')
v=
51.8582
29.6904
8.3577
10.0938

Pero calculando un ptimo, mejorado con relacin a los criterios que aplican
los investigadores Montgomery y Bowles (ellos aplican menor de 5 en el
ranking y mayor de 5 en nivel de agradable, por ejemplo, Menor de 4 en el
ranking y mayor de 6 en agradable), se obtiene:

>> netpto=newrbe(pet',tet');
>> tet1=[4 6];
>> netpto=newrbe(tet',pet');

>> v=sim(netpto,tet1')
v=
54.8727
25.6497
9.4778
9.9998
Es decir, se obtiene los valores siguientes: A: 54.8727; B: 25.6497;
C:9.4778; D:9.9998; que tambin es muy similar al resultado del trabajo
realizado por Montgomery y Bowles A: 55%, B: 25.67%, C:9.33%, D:10.0%;
con la diferencia que es mucho ms rpida su obtencin.

3.4.3. Con Anlisis Estadstico Tradicional


Montgomery-Bowles trabajaron con valores transformados, obteniendo las
siguientes ecuaciones de regresin, con valores transformados:
Para el nivel de aceptacin: Nivel= 6.091*A + 2.249*B + 4.073*C + 6.927*D;
con CME=0.10
Para el ranking: Ranking^2 =2.016*A + 4.415*B + 3.877*C + 1.713*D 4.306*BC; con CME=0.06
233

La metodologa que siguen los autores es la de trabajar con cada una de las
salidas por separado; elaborando las respectivas tablas de ANVA. Anlisis
de Variancia. En el caso de trabajar con las Redes Neuronales se obtienen
los mismos resultados que trabajando juntas las 2 variables de salida, por
tanto no se requiere hacer este paso adicional que si se hace con el
procedimiento que siguen los autores Montgomery y Bowles. El valor
mximo que llegan aplicando su metodologa corresponde a salidas de 4.7
en ranking y 5.9 en aceptacin.
Se puede apreciar que las corridas 4 y 7 son las mejores, lo cual es correcto
ya que son iguales y corresponden a A: 55%,B:25%,C:10% y D:10%;
teniendo en cuenta que lo mejor en la propuesta de clculo del trabajo de
Montgomery y Bowles, luego de diversas y tediosas transformaciones llegan
a A: 55%, B: 25.67%, C:9.33%, D:10.0%; que tambin se obtienen con Red
Desarrollada.

3.5. Aplicacin de la Red Neuronal seleccionada a un caso de mejora de la


calidad de un proceso.
En este caso se aplic la RN de Funcin de Base Radial al proceso que se
presenta en el documento: Improving Parafin Wax Yield Through Process
Optimization Using Taguchis Method of Experimentation, escrito por
Anand, K. y publicado en el Quality Engineering, volumen 6(1), pginas 3956.
Se trata del proceso de manufactura de cera de parafina, donde los factores
son: A. Temperatura en la vlvula de entrada de agua, B: Tiempo en min. a
la presin de 1100 lb/pul2, C: Tiempo en min. a la presin de 1550 lb/pul2,
D: Tiempo en min. a la presin de 1800 lb/pul2, E: Tiempo en min. a la
presin de 2100 lb/pul2. Las salidas son Y1: Rendimiento, e Y2: Contenido
de aceite de la cera, que se obtuvo de 2 muestras.
Los factores y niveles que se propusieron se presentan en la Tabla 40.

234

Tabla 40. Valores de los Factores y Niveles del Caso de Anand


FACTORES

N1

N2

N3

65

55

20

28

10

Obtenindose los resultados que se presentan en la Tabla 41.


Tabla 41. Resultados del Caso de Anand
N

FACTORES

Y1

65

20

10

65

20

65

28

65

28

65

Y2
1

63.00

2.80

3.05

64.79

2.85

3.19

61.77

2.70

3.10

10

60.93

2.70

2.90

28

10

60.00

2.55

2.80

65

28

61.65

2.90

3.10

65

20

63.27

2.95

3.19

65

20

10

62.82

2.76

3.15

55

20

10

67.89

3.53

3.73

10

55

20

72.02

3.28

3.45

11

55

28

75.13

3.45

3.20

12

55

28

10

70.10

3.28

3.06

13

55

28

10

67.67

3.12

2.95

14

55

28

72.40

3.12

3.25

15

55

20

70.47

3.19

3.32

16

55

20

10

66.67

3.40

3.25

Obtenindose una combinacin ptima de A2 (55),B2(28),C2(7),D2(3),E1(0)


y como resultado esperado: Y1=74.33 e Y2=3.2.

235

Aplicando las Redes Desarrollada, NEWRBE y considerando los resultados del


diseo de experimentos se lleg a los resultados que se presentan en la Tabla
42.

Tabla 42. Comparacin de Red Desarrollada con la Red NEWRBE y


Anlisis Estadsticos Tradicionales
Del artculo Improving Parafin Wax Yield Through Process Optimization
Using Taguchis Method of Experimentation, escrito por Anand, K. y
publicado en el Quality Engineering, volumen 6(1), pginas 39-56.*
Indicadores

Red

Red

de

F.B. Anlisis

Desarrollada,

Radial

Estadsticos

4.2.2.

NEWRBE

Tradicionales,
Anand

Error

al

simular

la 0

0.6

0.02

simulacin 0

0.6

entrada p1
Error de
global

0.02

Red Directa RD. N 3 capas,

3 capas

capas; N neuronas 16 neuronas

16 neuronas

capa de entrada y 16 neuronas

16 neuronas

oculta
RD

neuronas

capas;
capa

N 3 capas

3 capas

de 2 neuronas

2 neuronas

salida
Red Inversa RI. N 3 capas

3 capas

capas; N neuronas 2 neurona

2 neurona

capa de entrada y 16 neuronas

16 neuronas

oculta
RI.

neuronas

capas;
capa

N 3 capas

3 capas

de 5 neuronas

5 neuronas

salida
Entradas optimizadas A:55.0

55.0

para

27.9054

valores B:27.8941

No calcula

236

deseados de salida C:7.0145

7.0145

(80 y 1)

D:2.9906

2.9907

E:0

Entradas optimizadas A:55.0002

55.00

55

para

29.2070

28

deseados de salida C:6.8483

6.8432

(74.3 y 3.2)

D:3.1456

3.1458

E:0.1305

0.1306

valores B:29.2058

*Detalle de clculos ver en 4.5.1. y 4.5.2.

3.5.1. Con la Red Desarrollada


Se aplicaron los datos a la Red Desarrollada, red newrbfcev15r en el Shell de
Matlab Neural Networks con la interfase que se presenta a continuacin y se
obtuvieron los resultados siguientes:

>>%Construccin de red y simulacin:

>> %Datos de entrada,

>>pep =
65

20

10

65

20

65

28

65

28

10

65

28

10

65

28

65

20

65

20

10

55

20

10

55

20

55

28

55

28

10

55

28

10

55

28

1
237

55

20

55

20

10

>>tep =
63.0000

2.9250

64.7900

3.0200

61.7700

2.9000

60.9300

2.8000

60.0000

2.6750

61.6500

3.0000

63.2700

3.0700

62.8200

2.9550

67.8900

3.6300

72.0200

3.3650

75.1300

3.3250

70.1000

3.1700

67.6700

3.0350

72.4000

3.1850

70.4700

3.2550

66.6700

3.3250

Interfase para aplicar la Red Desarrollada:

238

>> sc=1;
>> [w1,b1,w2,b2,K]=newrbfcev15r(pep',tep',sc)
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,pep')
ts =
Columns 1 through 7
63.0000 64.7900 61.7700 60.9300 60.0000 61.6500 63.2700
2.9250

3.0200

2.9000

2.8000

2.6750

3.0000

3.0700

Columns 8 through 14
62.8200 67.8900 72.0200 75.1300 70.1000 67.6700 72.4000
2.9550

3.6300

3.3650

3.3250

3.1700

3.0350

3.1850

Columns 15 through 16
70.4700 66.6700
3.2550

3.3250

239

>>%Para obtener el primer valor de salida


>>pep1=[65 20 10 6 0];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,pep1')
ts =
63.0000
2.9250
>> max(ts)
ans =
Columns 1 through 7
63.0000 64.7900 61.7700 60.9300 60.0000 61.6500 63.2700
Columns 8 through 14
62.8200 67.8900 72.0200 75.1300 70.1000 67.6700 72.4000
Columns 15 through 16
70.4700 66.6700
>> max(max(ts))
ans =
75.1300
>> % Corresponde a Y2=3.3250;
>>%Con la matriz inversa
>> [w1,b1,w2,b2,K]=newrbfcev15r(tep',pep',sc)
>> % Si se desea obtener el mayor rendimiento, por ejemplo 80%, y la menor
cantidad de aceite en la cera, por ejemplo 1%, tep11=[80 1];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,tep11')
ts =
55.0000
27.8941
7.0145
2.9906
-0.0109
Que equivale a: los siguientes valores de los factores A=55.00; B=27.8941;
C=7.0145; D=2.9906; y E=0. Ello corresponde a los niveles A2,B2,C2,D2,E1

240

Si se considera el ptimo del autor, 74.3 y 3.2, se obtiene:


>> tepop=[74.3 3.2];
>> [ts]=simnewrbfcev15rr(w1,b1,w2,b2,tepop')
ts =
55.0002
29.2058
6.8483
3.1456
0.1305
Ello tambin corresponde a los niveles A2,B2,C2,D2,E1

3.5.2. Con la Red NEWRBE


Se aplicaron los datos a la Red NEWRBE en el Shell de Matlab Neural
Networks y se obtuvo lo siguiente:
>> netpso=newrbe(pep',tep');
>> v=sim(netpso,pep')
v=
Columns 1 through 7
63.0000 64.7900 61.7700 60.9300 60.0000 61.6500 63.2700
2.8250

2.7750

2.7000

2.6250

2.7250

2.9250

2.8550

Columns 8 through 14
62.8200 67.8900 72.0200 75.1300 70.1000 67.6700 72.4000
3.1450

3.4050

3.3650

3.3650

3.2000

3.1200

3.1550

Columns 15 through 16
70.4700 66.6700
3.2950

1.7000

>> max(v)
Y1= 75.1300, que corresponde a Y2=3.3650

>>%Para obtener el primer valor de salida.


>> pep1=[65 20 10 6 0];

>> v=sim(net,pep1')
241

v=
63.0000
2.9250
>> % Si se desea obtener el mayor rendimiento, por ejemplo 80%, y la menor
cantidad de aceite en la cera, por ejemplo 1%.
>> %Con la red inversa
>> net=newrbe(TEP',PEP');
>> TEP1=[80 1];
>> V=sim(net,TEP1')
V=
55.0000
27.9054
7.0131
2.9907
-0.0099

Que equivale a: los siguientes valores de los factores A=55.00; B=27.9054;


C=7.0131; D=2.9907; y E=0. Ello corresponde a los niveles A2,B2,C2,D2,E1
Si se considera el ptimo del autor, 74.3 y 3.2, se obtiene:
>>tepop=[74.3 3.2];
>> v=sim(net,tepop')

v=
55.0002
29.2070
6.8482
3.1458
0.1306
Ello tambin corresponde a los niveles A2,B2,C2,D2,E1
3.5.3. Con Anlisis Estadstico Tradicional
Anand trabaj con cada una de las salidas por separado; elaborando las
respectivas tablas de ANVA. Anlisis de Variancia. En el caso de trabajar con
las Redes Neuronales se obtienen los mismos resultados que trabajando juntas
las 2 variables de salida, por tanto no se requiere hacer este paso adicional que
242

si se hace con el procedimiento que siguen Anand. El valor mximo que llegan
aplicando su metodologa corresponde a salidas de 74.3 en Y1 rendimiento y
3.2 en contenido de aceite en la cera. Obteniendo las siguientes ecuaciones de
regresin:
Para el rendimiento: Y1= Efecto promedio A2B2C2 + Ef. Prom. E1- Media
Total; con CME=0.60
Para el contenido ed aceite Y2 = Efecto promedio A2 +Ef.Prom. B2 Media
Total; con CME=0.02
Se puede apreciar que las corridas 11 es la mejor, lo cual es correcto ya que
corresponden a A2: 55, B2:28, C2:7, D2:3 y E1=0 teniendo en cuenta que lo
mejor en la propuesta de clculo del trabajo de Anand, luego de diversas y
tediosas operaciones al nivel ptimo de A2 B2 C2 D2 y E1; que tambin se
obtienen con la Red Desarrollada y con al NEWRBE.

Aqu nuevamente se aprecia la superioridad de uso de las Redes Neuronales


con Funcin de Base radial, tanto NEWRBE como la Desarrollada, que tienen
aprendizaje hbrido, no supervisado para la capa de oculta y supervisado para
la capa de salida; en la medida que permiten obtener valores diversos de
acuerdo a la entrad que se aplique a la Red.

243

CAPTULO IV
ANLISIS DE RESULTADOS
1. En conclusin de lo revisado sobre las redes neuronales artificiales RNA
Perceptrn, Adaline, Perceptrn Multicapa, RNA de Funcin de Base
Radial, RNA Recurrentes y RNA de Aprendizaje no Supervisado, son las
RNA Perceptrn Multicapa con aprendizaje de backpropagation, y las
Redes Neuronales de Base Radial (ver tablas 10 y 11) las ms adecuadas
para desarrollar una red neuronal artificial especfica para la mejora de la
calidad de diseo de procesos, que d mejores resultados que los
obtenidos con los diseos experimentales y las RNA ya existentes, para los
casos que se trabaje con varias variables dependientes e independientes y
en los que sus relaciones no sean lineales. Tanto la RNA Perceptrn
Multicapa con aprendizaje backpropagation como las RNA de Funcin de
Base Radial se caracterizan por ser aproximadores universales, ello explica
porque responden mejor, ya que pueden aproximar cualquier funcin
continua sobre un conjunto compacto de Rn. Las RNA Perceptrn Multicapa
con aprendizaje backpropagation son aproximadores de carcter global;
mientras que las RNA de Funcin de Base Radial son aproximadores de de
carcter local.

2. Las caractersticas principales de la Red Neuronal Artificial de Base Radial,


Desarrollada, son:
a. Arquitectura con tres capas: capa de entrada, capa oculta y capa de salida.
La capa de entrada tiene neuronas que reciben las seales del exterior, que
la transmiten a la siguiente capa: capa oculta, sin realizar ningn proceso.
Las conexiones de la capa de entrada a la oculta no estn asociadas a
algn peso. Las conexiones de la capa oculta a la de salida si van
asociadas a un peso. La capa oculta tiene igual nmero de neuronas que
vectores de entrada y la capa de salida con igual nmero de vectores que
salidas requeridas.

244

Capa de
.entrada

Capa
oculta

Capa de
salida

Entrada 1

Salida 1

Entrada 2

2
2

Salida 2

.o o o

.o o o

.o o o

Entrada n

n
Centro-Entr-K:
Distancias
Mahalanobis

Pesos w2
Funcin
Gauss
y umbral b1

Salida p

Funcin
Lineal y
umbral b2

Figura 44. Red Neuronal de Base Radial

b. En la capa oculta el aprendizaje es no supervisado, en cada neurona se da


una activacin local: se aplica una funcin de base radial que es la de
Gauss. En dicha activacin ingresa el vector de entrada y se calcula su
distancia del centro (el peso en la prctica de la neurona de capa oculta).
Se calculan las distancias de Mahalanobis entre dichos centros (pesos) y
los valores de entrada. Dichas distancias son las distancias eucldeas
ajustadas por la constante K que es la inversa de la matriz de la covariancia
de los vectores de entrada. A las distancias de mahalanobis, se suman los
umbrales para luego aplicar la funcin de activacin. Su ecuacin es :

(r ) e

2 d x ci K x ci
i

Donde K es la matriz inversa de la covariancia de los vectores de entrada:

K E x mx m

T 1

Siendo: x los vectores de entrada, c los vectores que definen los centros de
la funcin de base radial y m el vector medio tomado del conjunto de los
vectores de entrada.
di= desviacin o amplitud de la funcin de base radial
La Funcin Gaussiana, que es la base de la propuesta es:

(r ) e

r
2

245

c. En la capa de salida se da un aprendizaje supervisado aplicando mnimos


cuadrados para obtener los valores de salida de la red, buscando que el
error de la salida de la red con relacin al vector inicialmente dado como
dato de salida sea lo ms pequeo. Su ecuacin es:
pesos:

ik

(n) wik (n 1) 1 (sk (n) yk (n))i (n)

umbrales:
u k (n) u k (n 1) 1 (s k (n) y k (n))

para k = 1,2,..., r y para i = 1,...,m


Siendo:
wik= los pesos de la capa oculta a la capa de salida.
uumbrales de la capa de salida.
si=salida deseada, de los datos
yk(n)= salidas de la capa de salida.

d. La activacin de las neuronas de salida para el patrn de entrada viene


dada por la siguiente expresin:
yk(n) = wiknu para k = 1,2,,r

Siendo:
wik= los pesos de la capa oculta a la capa de salida.
nes la salida de la capa oculta
uumbrales de la capa de salida.
yk(n)= salidas de la capa de salida.

3. La RNA Desarrollada corresponde a una RNA de funcin de base radial del


tipo de Diseo Exacto. Que es una variante de las RNA de funcin de base
radial, que se caracteriza por:

a. Para construir la RNA se inicia con los valores de P y T.


b. Con base a P y T se calcula pesos (centros), que son iguales a los vectores
de entrada; y los para umbrales de la capa oculta, se considera el valor de
0.8326/SPREAD, siendo el spread (amplitud) por defecto igual a uno, y que

246

puede variar de acuerdo al tipo de datos y distancia entre los centros. Se


aplica la Funcin de Base Radial de gauss a las distancias de Mahalanobis
entre los centros y los vectores de entrada.

c. Luego de obtener la salida de la capa oculta, se determinan los pesos de la


capa oculta a la capa de salida y los umbrales de la capa de salida. Se
determinan siguiendo el mtodo de mnimos cuadrados, o el de la matriz
seudoinversa, para resolver la ecuacin:
Para la Seudoinversa:
Wb = A(1)+T;
donde A(1) es la salida de la capa oculta y T es la salida dada como dato
inicial.
Para mnimos cuadrados:
El aprendizaje supervisado que se da entre la capa oculta y la de salida se
aplican las ecuaciones de 2c.
4. El Shell seleccionado para realizar los trabajos fue el de Matlab Neural
Networks, debido a las facilidades que ofrece para programar y para
trabajar con comandos de diversos aplicativos desarrollados en Matlab.
Asimismo, es de destacar, la existencia de diversos trabajos en la literatura
sobre redes neuronales elaborados utilizando Matlab y tambin, la
existencia de diversos manuales y guas para utilizar Matlab con redes
neuronales.

5. La metodologa a seguir para obtener la RNA de la Funcin de Base Radial


de Diseo Exacto Desarrollada comprende los siguientes pasos generales :

5.1. RNA de FBR Funcin de Base Radial, Directa.


Dados pares de datos de entrada y de salida reales; que son
independientes de la Red.

d. Se calculan los centros y amplitudes con base a los datos de entrada.


Inicialmente se prueba con los centros iguales o muy cercanos a los valores

247

de entrada. De ser compleja la determinacin se puede utilizar el algoritmo


de K- medias para determinar los centros, de agrupaciones.
e. Las amplitudes se determinan con base a las distancias de Mahalanobis de
los centros a los vectores de entrada.
f. Se determinan los pesos y umbrales de la capa de salida con base a los
valores objetivos de calidad que se persiguen, aplicando el mtodo de
mnimos cuadrados o el de la matriz inversa, dependiendo de las
herramientas informticas con que se cuente; en nuestro caso se trabaj
con el Shell de Matlab Neural networks. Se modifican los pesos y umbrales
hasta conseguir la convergencia.
Con esta red, se puede predecir el desempeo futuro del proceso, es decir,
dados unas entradas determinar los valores de salida. Por otro lado tambin se
puede obtener valores de entrada del proceso que han sido optimizados en
funcin de una salida deseada.
Con esta metodologa, se puede predecir el desempeo futuro del proceso, es
decir, dados unas entradas determina los valores de salida.

5.2. RNA de FBR Funcin de Base Radial, Inversa.


Se construye de manera similar a la Red de FBR Directa, pero
considerando las Entradas como Salidas y viceversa.

5.3. Redes de FBR Funcin de Base Radial para poder determinar valores de
entrada que permitan obtener una salida deseada (Calidad deseada).

Son dos Redes, una Inversa y otra Directa; construidas como sigue:

a. Dados pares de datos de entrada y de salida reales; valores que son


independientes de la Red.
b. Construir una RNA Inversa que tiene los datos de salida reales (iniciales)
como entradas y los datos de entrada reales como salida (supervisores u
objetivo); es decir, se obtiene una Red Inversa.
c. Obtenida la red inversa (entrenada) se aplican los datos de salida
(deseados calidad deseada) para obtener los valores de entrada

248

optimizados. Es decir se obtienen los valores que deben tener las entradas
para obtener la calidad deseada.
d. Construir una RNA Directa que tiene los datos de entrada reales como
entradas y los datos de salida reales como salida; es decir, se obtiene la
Red Directa con los datos iniciales.
e. Obtenida la Red Directa, all se pueden aplicar los datos obtenidos en c.
(valores de entrada optimizados), para obtener la salida deseada (calidad
deseada).
Con esta metodologa se tienen los valores de entrada del proceso que han
sido optimizados, dadas una salidas deseadas. Ello de acuerdo a lo que
esperan los clientes, para el caso de la calidad.

6. La RNA Perceptrn Multicapa con aprendizaje Backpropagation tuvo un


buen desempeo, dentro de todas sus variantes la que mejor trabaj fue la
de aprendizaje con el algoritmo Levenberg-Marquardt (vert tablas 14 y 17),
tanto con la red directa, sin valores de deseabilidad como con el proceso
con valores deseados de calidad. Con relacin a la metodologa se
apreciaron algunas ventajas; sin embargo, el proceso es largo y adems la
reduccin de errores tiene limitaciones. Por otro lado, por su forma de
elaboracin no se puede volver a obtener parmetros iguales con los
mismos datos de entrada-salida, ya que se empiezan con pesos al azar, los
cuales se van ajustando.

7. El desempeo de las RNA de Funcin de Base Radial fue mejor que las
dems RNA, dentro de ellas las de Diseo Exacto, tanto la Red NEWRBE
como la RNA Desarrollada. Dicho desempeo fue mejor que las RNA de
Regresin Generalizada GRNN; en especial por tener menor error. La Red
Desarrollada tuvo mejor desempeo que la Red NEWRBE de Matlab Neural
Networks.
8. El detalle de los clculos de las RNA con Funcin de Base Radial, del tipo
de Diseo Exacto Desarrollada es:

249

DETALLE DE CLCULOS CON REDES NEURONALES CON FUNCIONES


DE BASE RADIAL
Encontrar la red neuronal: de Funcin de Base Radial con aprendizaje hbrido;
capa oculta aprendizaje no supervisado y capa de salida con aprendizaje
supervisado que permite obtener la salida T dados las entradas P.
CLCULO DE LOS PESOS DE LA CAPA OCULTA
En la capa se crean tantas neuronas como vectores de entrada P. Los valores
para este tipo de red son los de la transpuesta de los vectores de entrada P.
CLCULO DEL UMBRAL DE LA CAPA OCULTA
En la capa se crean tantos umbrales como neuronas se tiene en la capa. Los
valores para este tipo de red son los que permite que cuando se calcula la
funcin de transferencia (funcin de base radial) se obtenga 0.5 bajo la curva,
por tanto sus valores son iguales entre si y son de 0.8326 en cada caso
(radbas (0.8326)=0.5).
CLCULO DE SALIDA DE CAPA OCULTA a1:
a1 = f1 dist. Mahalanobis) ; donde f1 es la funcin de Gauss. Por otro lado
dist. Mahalanobis, es la distancia entre los centros y los valores de entrada P,
ajustada con la constante K que es la inversa de la matriz de la covariancia de
los vectores de entrada. En este caso, en la prctica, los centros son los pesos
de la capa.
El clculo la distancia de Mahalanobis, restando cada valor del peso menos la
entrada P, este valor se multiplica por su transpuesta y se ajusta con la
constante K. La constante K que se calcula mediante la diferencia entre los
vectores de entrada y el vector medio de todos los vectores de entrada; ello se
multiplica por su transpuesta y para el resultado se calcula la matriz inversa.
Se calcula la sumatoria, elemento a elemento de las matrices de umbrales y
dist de Mahalanobis (Ver ecuaciones de este captulo en el numeral 2.b.)
Seguidamente se calcula la funcin de Gauss de los valores obtenidos.
As se obtiene la matriz completa de salidas de la capa oculta.

CLCULO DE PESOS Y UMBRAL DE LA CAPA DE SALIDA


Para ello se toman en cuenta las igualdades siguientes: [net.lw{2,1} b{2}] * [A;
ones) = T ; y que wb =T/[P; ones (1,Q)].

250

Y resolviendo por el mtodo de la seudoinversa. Se calcula w=A1\T'


Obtenindose los valores de los pesos y umbral respectivamente.

9. Se ha trabajado con 7 casos de Diseo de Experimentos y en todos la RNA


Desarrollada ha dado mejores resultados.
a. Del artculo de Del Castillo et al,,Modified Desirability Functions for Multiple
Response Optimization, publicado en el Journal de Quality Tecnology,
vol.28,N3 de 1996. En la Tabla 15 se aprecia el mejor desempeo de la
Red Desarrollada, que tiene error de cero al simular la primera entrada y
24.31 por simular el conjunto de los valores de entrada; mientras que con
Perceptrn Mulcticapa con backpropagation tiene errores de 40.3 y 666,
respectivamente, y con el anlisis estadstico tradicional, slo se calcula el
error global obteniendo 96.86. Los valores de entradas optimizadas que se
obtienen son bastante similares, por lo que donde se puede concluir en el
mejor desempeo de la Red Desarrollada, con relacin a la Red Neuronal
Perceptrn Multicapa con aprendizaje Backpropagation y el diseo de
experimentos tradicional, ello tanto en los casos en que se tienen entradas y
se buscan salidas, como para los casos en que se tienen salidas deseadas
y se buscan las entradas que permitan obtener dichas salidas, valores
deseados.
b. Del artculo de Vasconcelos et al, Design of Experiments. Improve Molded
Part Quality, publicado en Quality Progress, N 7 del 2003. En la Tabla 19
se puede ver que el desempeo de las Redes de Base Radial (la
Desarrollada y la de Tipo GRNN), tanto con la red directa, sin valores de
deseabilidad como con el proceso con valores deseados de calidad, tiene
importantes ventajas y el proceso es relativamente corto y adems la
reduccin de errores es superior. Es as que ambas Redes de base radial
tienen errores de simulacin para la primera entrada de cero y global de
9.16; mientras que la Red de Tipo GRNN tiene errores de 2.07 y 13.96,
respectivamente; y con el Anlisis Estadstico Tradicional los errores son de
0.300 y 12.27, respectivamente. Por tanto, la arquitectura de la Red
Desarrollada que es la de Redes Neuronales con Funciones de Base
251

Radial, con aprendizaje hbrido; aprendizaje no supervisado en la capa de


entrada, con funcin de base radial de Gauss y con aprendizaje
supervisado en la capa de salida, con funcin de mnimos cuadrados, es la
ms conveniente. Asimismo, se encontr que la distancia entre los errores
de la Red Desarrollada y la que produce el Perceptrn Multicapa se acorta
cuando usa el algoritmo de Levenberg-Marquart; ya que la diferencia entre
los errores se acorta de 666/24.31 (Tabla 15) a 13.96/9.16 (Tabla 19).
c.

Del Texto: Diseo y Anlisis de Experimentos de Montgomery, D sobre


Diseo Factorial 2K, Captulo 9, Ejemplo 9-2 sobre la taza de filtracin de un
producto qumico. En la Tabla 31 se aprecia la superioridad de las RN con
funcin de base radial de tipo Exacto (la desarrollada y la NEWRBE) , sobre
la de tipo GRNN y sobre el diseo de experimentos. Las Redes de Tipo
Exacto (Desarrollada y NEWRBE) dan errores de 0 para simular la primera
entrada y de 0 a nivel global; mientras que la Red tipo GRNN tienen errores
de 2.9556 y 11.0169 respectivamente; y mediante al Anlisis Estadstico
Tradicional se tienen errores de 1.22 y 22.44, respectivamente. Con relacin
a las entradas optimizadas para obtener 35 gal/h de velocidad de filtracin
se aprecia diferencia entre los resultados de las Redes de tipo Exacto y las
de tipo GRNN; en el caso de las primeras todos los factores son del nivel 1
excepto el tercero que es de nivel 2, y en la GRNN todos los factores son
nivel 1 excepto el cuarto que es de nivel 2.

d. Del texto Understanding Industrial Designed Experiments de Schmidt, R y


Launsby , R. sobre Diseo de Experimentos con factores y niveles, sobre
Moldeado por Inyeccin de una parte plstica; Caso Estudio 8-23. En la
tabla 33 se aprecia la superioridad de las RN con funcin de base radial,
Red Desarrollada y Red Newrbe, sobre la de Tipo GRNN y sobre el diseo
de experimentos. Las Redes Desarrollada y Red Newrbe dan errores de
0.0011 y 0.0004 para simular la primera entrada y de cero para; y con la
Red de Regresin Generalizada, da error de 0 tanto para simular la primera
entrada como la global. Para el caso de obtener el valor deseado, se prob
con los valores objetivo de largo y ancho, y se llega a valores de los seis

252

factores con la Red Desarrollada y con la Red Newrbe, ms no as con los


de la Red Newgrnn; esta ltima Red da 0 de valor para los 6 parmetros.
e. Del texto Taguchi Techniques for Quality Engineering de Ross, P., sobre
Diseo de Experimentos con factores y niveles, sobre soldadura de punto;
Apndice G. En la Tabla 35 se aprecia la superioridad de las RN con
funcin de base radial, Red Desarrollada y Red Newrbe, sobre la del Tipo
GRNN y el diseo de experimentos. La Red Desarrollada y la Red Newrbe
dan errores de 0 para la simulacin de la primera entrada y para la
simulacin global, y con la Red GRNN de Regresin Generalizada, da
errores de 1.9803 y 1.0770 para la simulacin de la primera entrada y de 0
para la simulacin global. Para el caso de obtener el valor deseado, se
prob con los valores ptimo del diseo de experimentos y las tres Redes
probadas dan error de cero; sin embargo, cuando se prueba con al salida
mnima (51,51) la Red Tipo GRNN no arroja resultados, mientras que la
Red Desarrollada y la Newrbe dan cero de error; en el caso de la salida
mxima (73,73) la Red Desarrollada y la Newrbe dan errores de cero
(aciertan las 7 salidas) y la de Tipo GRNN slo acierta 5 de las 7 salidas .
f. Del artculo How to Formulate the Ultimate Margarita: A Tutorial on
Experiments with Mixtures, escrito por Montgomery,D y Bowles, M. y
publicado en el Quality Engineering, volumen 10(2), pginas 239-253. En la
tabla 39 se aprecia que la Red Desarrollada y la Red Newrbe dan errores
de cero para la simulacin de la primera entrada y para la simulacin global,
mientras que con el Anlisis de Experimentos Tradicional los errores son
0.6 y 0.1, para la simulacin de la primera entrada y para la global.

Asimismo, con relacin a las entradas optimizadas para obtener un ptimo,


Montgomery y Bowles

luego de un largo proceso de transformaciones

llegan a una combinacin de factores: A: 55%, B: 25.67%, C:9.33%,


D:10.0%, ello para un nivel de 4.7 y 5.9 (menor de 5 en ranking y mayor de
5 en agradable); mientras que con al Red Desarrollada se obtiene para un
nivel mejorado de menor de 5 en el ranking y mayor de 6 en agradable la
combinacin de A:55, B:25, C:10 y D:10. En el caso de la Red Newrbe la
253

combinacin es de: A:51.8582, B:29.6904, C:8.3577 y D:10.0938. En este


caso se puede ver que el desempeo de la Red Desarrollada es
ligeramente mejor que la de Tipo Newrbe.
g. Del artculo Improving Parafin Wax Yield Through Process Optimization
Using Taguchis Method of Experimentation, escrito por Anand, K. y
publicado en el Quality Engineering, volumen 6(1), pginas 39-56. En la
tabla 42 se aprecia que la Red Desarrollada y la Red Newrbe dan errores
de cero para la simulacin de la primera entrada y para la simulacin global,
mientras que con el Anlisis de Experimentos Tradicional los errores son
0.6 y 0.02, para la simulacin de la primera entrada y para la global.
Asimismo, con relacin a las entradas optimizadas para obtener un ptimo,
Anand, calcula la combinacin ptima para las entradas de 74.3 y 3.2;
obteniendo para los factores A:55, B:28, C:7, D:3 y E:0 ; la Red
Desarrollada obtienen valores de

A:55.0002, B:29.2058, C:6.8483,

D:3.1456 y E:0.1305, y la Red Newrbe: A:55.00, B:29.2070, C:6.8432,


D:3.1458 y E:0.1306. Para el caso de una salida superior a la anterior (80 y
1) el Anlisis de Experimentos Tradicional no calcula y con la Red
Desarrollada se obtienen A:55.0, B:27.8941, C:7.0145, D:2.9906 y E:0;
mientras que con la Red Newrbe se obtiene A:55.0, B:27.9054, C:7.0145,
D:2.9907 y E:0.

CONTRASTACIN DE HIPTESIS.
Por los resultados obtenidos se puede apreciar que ha quedado demostrada la
hiptesis planteada en la investigacin que sostiene que las Redes Neuronales
Artificiales con Funcin de Base Radial, que utilizan la distancia de
Mahalanobis, que es la Red Desarrollada, aplicadas a los diseos de
experimentos para mejora de la calidad de procesos dan mejores resultados
que los obtenidos mediante los mtodos de anlisis estadsticos tradicionales y
del Perceptrn Multicapa con aprendizaje Backpropagation.

254

CAPITULO V
DISCUSIN DE RESULTADOS

Al comparar las cualidades de las Redes Neuronales Artificiales RNA y el


Anlisis Estadstico Tradicional, que para nuestro caso especfico de mejora de
calidad de procesos es el Diseo de Experimentos Factorial DEF; debe tenerse
presente que el diseo de experimentos factorial se fundamenta, como lo
sostiene Lawson, Madrigal y Erjavec (1992), en que cuando se quiere predecir
los resultados es necesario expresar el comportamiento de la variable
dependiente por medio de una ecuacin matemtica. As, para el caso de un
factorial 2k, este modelo es:
Y bo b1 X 1 b2 X 2 ... bk X k b12 X 1 X 2 b13 X 1 X 3 ... bk 1,k X k i X k b123 X 1 X 2 X 3 ...

Donde Y es el valor estimado de Y, Xi es el valor codificado del factor i y las


incgnitas son los valores b, coeficientes. Esta ecuacin se resuelve con un
conjunto de ecuaciones, tantas como incgnitas o informacin exista; dicho
conjunto de ecuaciones es justamente el diseo de experimentos. Cuando se
trabaja con los diseos de experimentos fraccionados, se requiere menos
ecuaciones (experimentos) debido a que hay valores pequeos que se no se
toman en cuenta, y ello es parte del error. En general podemos apreciar que los
clculos se basan en algoritmos lineales y por ello tienen limitaciones para
obtener los parmetros de calidad de un proceso debido a que en la mayora
de los casos la relacin entre las diversas variables no es lineal. Con relacin a
los Mtodos Taguchi,

Kuehl(2001)

sostiene que el anlisis que realizan

procede en forma sencilla con el anlisis de varianza para la razn seal de


ruido que determina los factores de control que afectan esta razn, luego
contina con el anlisis de variancia para la media de Y, que comprueba qu
factores de control tienen impacto en la respuesta media, y por lo tanto, los
niveles de los factores que se deben establecer para lograr la respuesta
buscada; es decir, la parte de los mtodos Taguchi que se ocupa de diseo de
parmetros (Ingeniera de Calidad) se basa en relaciones fundamentalmente
lineales.

255

Por otro lado la Red Neuronal Artificial RNA por su forma de construccin
permite obtener relaciones no lineales. Es as que Wasserman (1993) sostiene
Las RNA realizan esencialmente la misma funcin: aceptan un conjunto de
inputs y producen un correspondiente conjunto de outputs, mediante una
operacin llamada vector de interrelacin. Todas las aplicaciones de RNA son
casos especiales del vector de interrelacin. Isasi y Galvan (2004) sostienen
la habilidad del perceptrn multicapa para aprender a partir de un conjunto de
ejemplos, aproximan relaciones no lineales, filtran ruido en los datos, etc. hace
que sea un modelo adecuado para abordar problemas reales, sin que esto
indique que sean los mejores aproximadores universales. Es decir, los
diversos mtodos de aprendizaje de las RNA, permiten desarrollar relaciones
muy complejas con base a las capas de neuronas, funciones de activacin,
umbrales, los ciclos de aprendizaje y los algoritmos de aprendizaje; as por
ejemplo, para el caso de los pesos, umbrales y funciones de activacin, son
tpicos los algoritmos de aprendizaje que sigue el Perceptrn Multicapa con
aprendizaje backpropagation. Donde, segn Isasi y Galvan (2004) los pesos
(w) y umbrales (u) de la capa de salida se calculan con los siguientes
algoritmos:
pesos:

wCji 1 (n) wCji1 (n 1) iC (n)a Cj 1 (n) ; para j = 1,2,...,n C 1 ; i = 1,2,..., n C


umbrales:

u Cji (n) uiC (n 1) iC (n) ; para i = 1,2,..., n C


donde:

iC (n) ( si (n) yi (n)) y i (n)(1 yi (n))


donde:
w=pesos de cualquier capa, vara segn subndices.
u=umbrales de cualquier capa, vara segn subndices.
C=se refiere a la capa de salida, que equivale al nmero de capas de la red.
c=se refiere a capa oculta cualquiera
n=se refiere al nmero de patrn de entrada
=razn o taza de aprendizaje.

256

=constante creada para simplificar el clculo.


a=activacin, vara segn subndices.
s=salida deseada para el patrn n de entrada.
y=vector de salida de la red.
Con base a este tipo de algoritmos se calculan los valores de salida de la red
neuronal, donde se aprecia el tipo de relaciones siguientes:
yi =

C
i

nC 1

= f ( wCji 1a Cj 1 uiC ) para i = 1,2, ..., n C


j 1

donde las funciones de transferencia f que existen en las neuronas por lo


general son no lineales. Entre otras se utilizan por ejemplo, funciones
sigmoideas, tangentes hiperblicas, radiales como la de Gauss, funciones de
optimizacin no lineal y otras.
Asimismo, en las funciones de base radial se utiliza como funcin de
transferencia de las neuronas de la capa oculta la funcin de Gauss:

(r ) e

r 2
)
2

y ello permite tener una serie de caractersticas adicionales.


Por tanto desde un inicio se puede apreciar que por definicin las RNA tienen
la ventaja que buscan desarrollar funciones no lineales, por lo general. En todo
caso las funciones lineales se pueden comportar como un caso especial del
caso general no lineal de las RNA.
Por otro lado tenemos, que hay RNA que por construccin son aproximadores
universales, es decir, que permite obtener una relacin entre datos de entrada
y salida s o s, aunque con distinto nivel de aproximacin. Todo ello se ha
podido apreciar en los siete casos presentados en el Captulo III, numerales
3.2, 3.3, 3.4. y 3.5., donde en todos los casos las RNA y en especial la RNA
Desarrollada

se

comport

mejor

que

los

Anlisis

de

Experimentos

Tradicionales, es as, que los errores obtenidos se presentan en la siguiente


Tabla.

257

Tabla 43. Errores obtenidos en los casos analizados.


Caso

Error

al Red

simular

Desarro-

entrada 1

llada
Anlisis

3.2.3.

3.2.4.

3.3.1

3.3.2.

3.3.3

3.4

3.5

0.0011

0.0004

No

0.300

1.22

Slo*

No

0.6

0.6

de Exp. hace

compara

calcula 0.1

0.2

Tradic.

promedios

0.6

0.6

0.1

0.2

este
clculo

Error

de Red

24.31

9.16

simulacin Desarroglobal

llada
Anlisis

96.,86

12.27

22.44

Slo

de Exp.

compara

Tradic.

promedios

77.47

*En este caso no calcula el error, slo compara promedios y permite obtener niveles de
factores recomendados.

Lo que se aprecia en la Tabla 43, demuestra que lo que se plante en la


hiptesis es verdadero.

Por el tipo de funciones que estn en la base de la construccin de la Red


Desarrollada, es que prcticamente sus errores de simulacin son cero; hecho
que no ocurre con el diseo de experimentos, que da valores aproximados, con
un determinado error.

Con relacin a las ventajas de las RNA con FBR Funcin de Base Radial sobre
las RNA con Perceptrn Multicapa y Aprendizaje BackPropagation, al respecto
Isasi y Galvan (2004) sostienen que la principal diferencia entre las redes de
base radial y el Perceptrn Multicapa radica en la funcin de activacin de las
neuronas ocultas de la Red. Las primeras utilizan funciones de base radial y las
segundas funciones de activacin sigmoidales, entre otras. Por otro lado Rao y
Srinivas (2007) sostienen que las RNA de Funcin de Base Radial, que fueran

258

propuestas por Bromead y Lowe en 1988 y despus difundidas por Chen


(1991), tienen como base terica central la teora de interpolacin. La
interrelacin permite obtener como salida la funcin:
p
X Ci
f ( X ) wi

i 1
i

donde X E Rr, es la funcin de activacin que interrelaciona el intervalo real


no negativo semiinfinito a la lnea real, los Ci son valores de vectores llamados
centros, las son valores positivos de forma de parmetros para la activacin
de las funciones y Wi son escalares de los pesos de las conexiones entre los
nodos de la capa oculta a los nodos de salida. Es decir, las FBR son
justamente funciones que se desarrollan alrededor de un centro de all su
nombre; por lo tanto, son funciones de carcter local (aproximaciones locales),
por ejemplo, el caso ms usado es la funcin de activacin de Gauss, donde se
consideran las distancias eucldeas entre los centros y las entradas:
( x c ) 2

2
2

(r ) e

Mientras que en el caso del Perceptrn Multicapa tenemos funciones que


abarcan todo el espacio, yendo incluso hasta el infinito (aproximaciones
globales); por ejemplo, se utiliza la funcin sigmoidea:

f 1 ( x)

1
1 e x

Al respecto, Howlett y Jain (2001) sostienen Las redes de Funciones de Base


Radial estn ganando aceptacin en los ltimos aos. Esto es debido a sus
propiedades deseables para aplicaciones en clasificacin y aproximacin
funcional, acompaadas por un entrenamiento ms rpido que muchas otras
tcnicas de redes neuronales.

Como se puede apreciar, en el caso b. de Vasconcelos presentado en 3.2.4


(Tabla 19), el error al simular la primera entrada con el Perceptrn Multicapa el
error obtenido es de 2.07, mientras que en el de la RNA con FBR Desarrollada
dicho error es cero. En el caso del error global la Red Desarrollada da un error
de 9.16 y la del Perceptrn Multicapa mejorada con el algoritmo de Levenber259

Marquardt da un error de 13.96; ello porque las funciones de base radial por
ser de carcter local tienen mayor precisin en su aproximacin que las que
usa el perceptrn multicapa por tener una cobertura mucho ms grande; es as
que los cambios de pesos y umbrales, mecanismo de aprendizaje de las RNA
con FBR, se dan dentro de espacios ms reducidos, cosa que no ocurre con
las funciones que utiliza el perceptrn multicapa. Esta ventaja que apreciamos
en las RNA, en los ltimos aos se viene estudiando de manera muy intensa
en lo que se refiere a las funciones de optimizacin, es as que se vienen
desarrollando diversas funciones de optimizacin de base radial, y se vienen
aplicando en diversos campos, en especial en la estadstica. Sin embargo,
debe tenerse presente lo planteado por Isasi y Galvan (2004), que sostienen
cada una de las clases de aproximadores tienen sus propias caractersticas,
se conocen ciertas condiciones bajo las cuales un mtodo es preferible a otro,
pero en ningn caso se puede decir que un mtodo sea absolutamente mejor.
Sern las consideraciones prcticas de cada problema las que determinan la
eleccin de un aproximador u otro.

Con relacin al mejor desempeo de las RNA de FBR de Diseo Exacto, la


Red Desarrollada y la de Tipo Newrbe, frente a las RNA de FBR de Regresin
Generalizada GRNN, debe tener se presente lo que mencionan Howlett y Jain
(2001) que sostienen que Las investigaciones en Redes Neuronales de FBR
se han concentrado en mejorar los algoritmos de entrenamiento y las
variaciones de la arquitectura bsica para mejorar el desempeo de las redes.

Asimismo, Demuth, Beale y Hagan (2007) presentan las redes de base radial
Diseo Exacto (newrbe), Diseo Ms Eficiente(newrb), Probabilstica (PNN) y
de Regresin Generalizada (GRNN), por definicin se descartaron la red newrb
porque trabaja creando una neurona a la vez, es decir, considerando una
variable a la vez lo cual es distinto a lo que se busca con en el diseo de
experimentos, que todas las variables se consideren a la vez. Por otro lado,
tambin se descartaron las redes PNN comparan las distancias entre los
centros y los vectores de entrada, con base a lo cual se producen los vectores
260

de probabilidades, y en ellas, finalmente una funcin de transferencia


competitiva selecciona cada salida y la ubica, segn sea el caso, en una
determinada clase. Estas redes PNN se puede apreciar por definicin, que son
aproximadas y que bsicamente buscan clasificar, por tanto no son adecuadas
para el tipo de trabajo que se requiere para los diseos de experimentos. Por
otro lado Wasserman (1993) sostiene Las GRNN se basan en la teora de
regresin no lineal, tcnica estadstica bien establecida para estimacin de
funciones, que aproxima cualquier funcin arbitraria entre vectores de entrada y
salida, desarrollndose directamente la funcin de estimacin desde los datos
de entrenamiento..

Se puede apreciar que entre las RNA de base radial existen diversos tipos de
funciones y diversos mecanismos de aprendizaje. La ms utilizada y la que
mejores resultados a dado hasta la fecha es la funcin de Gauss, la que se
utiliza para las funciones de distribucin normal; es por ello que en la
investigacin utilizamos dos variantes de su aplicacin: la de Regresin
Generalizada GRNN y las de Diseo Exacto DE (la Red Desarrollada y la
Newrbe), con funcin de Gauss como funcin de transferencia. Habindose
encontrado un mejor desempeo en la Red Desarrollada y la Newrbe, es as
que en los casos de 3.3.1. Montgomery (1991), 3.3.2. Schmidt y Launsby(1994)
y 3.3.3. Ross (1988); se aprecia que el desempeo de la RNA de FBR de
Diseo Exacto (Desarrollada y Newrbe) es mejor; en los tres casos el error
global para los dos tipos de Red Radial es cero, mientras que para la Red
GRNN el 3.3.1 tiene error de 11.0169 y en los otros dos su error es de cero.
Con relacin a los errores de la primera entrada en 3.3.1. y 3.3.3. las Redes de
Diseo Exacto tienen errores de cero y la Red GRNN errores de 2.9556 en
3.3.1 y 1.9803 -1.0770 en 3.3.3. En el caso 3.3.2. GRNN da error de cero para
la simulacin de la primera entrada mientras que las otras redes dan 0.00110.0004, que prcticamente es cero. El error ms alto de las RNA FBR GRNN
se explica por lo que sostienen Demuth, Beale y Hagan (2007), que en la
primera capa con iguales a las redes Newrbe de diseo exacto, pero en la
segunda capa los pesos se adecuan a los valores de salida t dados
inicialmente como patrones iniciales (pares de vectores entrada-salida) lo cual
es distinto a las redes NEWRBE ya que stas ltimas trabajan con el error
261

entre las salidas (dadas inicialmente) y las salidas calculadas por la red,
aplicando mnimos cuadrados; a ello adems hay que agregar que las GRNN
no tienen umbral en la capa de salida, cosa que si se da en las Newrbe. Todas
estas ventajas de las Redes Newrbe se consideraron para el diseo de la Red
Desarrollada.

Lo antes mencionado da a las GRNN mucha velocidad en el clculo pero


pierden en exactitud, que en nuestro caso de Diseo de Experimentos, es lo
ms importante. Aqu, es interesante destacar la versatilidad de la red Newrbe
y al Red Desarrollada, para poder calcular los valores de entrada con la Red
Inversa; es as que aumentando la amplitud, a nivel de 10 para tener mayor
cobertura por parte de las RNA con los valores de entrada, y para una taza de
filtracin de 35 gal/h, se obtienen los valores respectivos de las 4 Variables. Si
se deja la amplitud en 1 y no se aumenta la amplitud no se podra obtener
valores que vayan ms all de los valores de entrada, ello por el algoritmo
respectivo de construccin de las RNA de FBR.

En el caso de 3.3.2. de igual manera se aprecia la ventaja de la red


Desarrollada y la Red Newrbe de Diseo Exacto sobre la GRNN y sobre el
diseo de experimentos, y por el tipo elaboracin de la GRNN que no toma en
cuenta el error de salida vs. el resultado de la red, es que las redes GRNN no
llegan a obtener los resultados que si se obtienen con la red Desarrollada y la
Red Newrbe. Nuevamente se produce lo del caso anterior 3.3.1. con respecto a
la amplitud; es decir, que se trabaj con amplitud de 10 para poder calcular el
diseo ptimo, que concuerda con el diseo de experimentos, pero con la
diferencia que da valores exactos.

En el caso de 3.3.3., tambin, se aprecia la ventaja de la Red Desarrollada y la


Red Newrbe de Diseo Exacto sobre la Red GRNN y sobre el diseo de
experimentos, y por el tipo elaboracin de la GRNN que no toma en cuenta el
error de salida vs. el resultado de la red, es que las redes GRNN no llegan a
obtener los resultados que si se obtienen con la Red Desarrollada y la Red
Newrbe. En este caso se obtienen los mismos resultados que con Mtodos
Taguchi obtuvo Ross, pero con la diferencia que se obtienen resultados para
262

todas las variables cosa que con Taguchi slo se obtuvo resultados para 3
variables, las ms significativas. Adems con las RNA se pudo calcular, con la
red inversa, los parmetros para obtener un valor superior de 0,0 de error, tanto
en la salida ancho como la salida longitud; es decir algo que no est dentro de
las posibilidades de los Mtodos Taguchi ni ningn sistema de Anlisis
Estadstico para el Diseo de Experimentos tradicional.

Los resultados obtenidos en 3.3. sobre la comparacin entre la RNA GRNN y


las RNA Desarrollada y Newrbe de Diseo Exacto DE, concuerdan con el
hecho de que la primera se ha diseado para ser aplicada con gran cantidad de
datos, pero es mucho ms rpida y por ello se puede incluso aplicar para
situaciones en lnea; distinto de la RNA DE Desarrollada y Newrbe que son
ms exactas y se han desarrollado para trabajar con conjuntos de datos
menores, que es en parte lo que se presenta en los trabajos de mejora de la
calidad.

La ms importante diferencia entre ambas est, como lo sostienen Demuth,


Beale y Hagan (2007), en que los pesos y umbrales de la capa de salida en las
DE se calculan con base a la salida de la capa oculta de base radial y al error
entre la salida de los datos y la salida que se obtiene de la red, mientras que en
la Red RGNN dichas caractersticas se toman con base a los valores de salida
(de los datos) datos inicialmente proporcionados con los correspondientes
datos de entrada, lo cual limita la aproximacin. Lo antes mencionado hace que
los clculos que se dan en la RNA DE sean ms complejos, y lentos, pero a la
vez se gana en exactitud, que es lo importante para nuestra aplicacin.

Con relacin a la determinacin de los centros, que se requieren para los


clculos en la capa oculta, Wasserman(1993) sostiene La ubicacin de los
centros de los campos de recepcin de las entradas es un tema crtico y all
hay muchas alternativas para su determinacin. Por ejemplo, un centro y la
neurona de la capa oculta correspondiente podra estar localizado en cada
vector de entrada del conjunto de entrenamiento. Al respecto Specht (1991)
citado por Wasserman plantea un simple y efectivo mtodo de conglomeracin
(clustering) donde un radio r es definido primero; el primer vector de
263

entrenamiento se convierte en el centro del primer cluster y as cada vector de


entrenamiento es considerado a su turno.. Por ello se opt como la forma de
trabajo para el clculo de los centros el utilizar los datos que nos den como
entradas, incluso todos, ya que por lo general son pocos, para la capacidad
que tienen las RNA. El poder trabajar con todos los datos de entrada permite
obtener mayor exactitud. Sin embargo de existir mayor complejidad porque hay
ms datos se puede usar el algoritmo de k medias; segn lo indican
Wasserman (1993) e Isasi y Galvan (2004) que busca minimizar las distancias
eucldeas, entre los patrones de entrada y el centro ms cercano, siguiendo el
algoritmo:
K

J
i 1

M
n 1

in

X ( n) C i

Donde N es el nmero de patrones,

es la distancia eucldea, X(n) es la

entrada y Min es la funcin de pertenencia. Al respecto hay diversos software


que se pueden utilizar para hacer esta simplificacin, entre ellos Matlab, SPSS,
e incluso hay softwares expresamente diseados para k-medias. Para los
casos que se trabajaron no fue necesario utilizar este algoritmo, y se considera
que en la mayora de los casos ser poco frecuente que existan tantos datos
que se requiera agrupar. En el caso de Diseo de Experimentos de
Vasconcelos (2003), presentado en 3.2.4. se trabaj con 8 grupos de datos
reduciendo el nmero de vectores de entrada de 24 a 8, y se obtuvieron
resultados iguales; es decir, en lugar de trabajar con las tres repeticiones del
experimento se trabaj con una sola y con las salidas se calcul el promedio, y
se aplic la Red Desarrollada y la Red Newrbe, obtenindose lo antes
mencionado. En el caso sobre diseo de productos de Montgomery y Bowles
(1997), presentado en 3.4., y en el de procesos de Anand (1993), presentado
en 3.5. se utilizaron como centros los valores de entrada y los resultados fueron
buenos tanto para la red directa que permite predecir los resultados con las
variables de entrada dadas; como para la red inversa que permite determinar
valores de entrada que permitan obtener valores de salida deseados de
calidad, que seran los que quieren los clientes.

264

Con relacin a las determinaciones relacionadas con la capa oculta: distancia


de los centros, se tienen que ella es parte fundamental del exponente de la
funcin de Gauss; lo que frecuentemente se utiliza es la distancia Eucldea.
Haykin (1994) menciona la definicin dada por Powell (1988) sobre las RNA
FBR que presenta la distancia normal, que sostiene que generalmente es la
Eucldea. Por otro lado, Haykin, con base a lo propuesto por Poggio y Girosi
(1990), y Bors y Pitas(2001) proponen la distancia normal ponderada, donde se
sostiene que Una funcin de base radial Gaussiana G x t i ci centrada en ti y
con una distancia normal ponderada con la matriz Ci puede ser expresada
como:

G x t i ci exp x t i
donde matriz inversa

x t
1

representa una multivariancia de la distribucin de

Gauss con vector medio t y matriz de covariancia . Asimismo, Wasserman


(1993) menciona el trabajo de Duda y Hart, para mejorar la exactitud de este
tipo de funcin, mediante el uso de la distancia de Mahalanobis, que tiene la
siguiente ecuacin
1

T
x ci K x ci
2

(r ) e

Donde K es la matriz inversa de la covariancia de los vectores de entrada:

K E x mx m

T 1

siendo x los valores de entrada, c los vectores que definen los centros y m el
vector medio tomado del conjunto de los vectores de entrada. Lo cual es similar
a lo mencionado por Haykin.
Dada la importancia del tema, en un primer momento se trabaj el caso de
Vasconcelos(2003), presentado en 3.2.4., debido a que Matlab no tienen este
tipo de red, fue necesario desarrollar nuestra propia funcin de clculo con el
uso del Shell de Matlab, Neural Networks; la red desarrollada se denomin
newrbfcev15r y simnewrbfcev15rr, que se presentaron en detalle en 3.2.2. y el
Anexo 1. La red se construye con el programa newrbfcev15r; es decir, dadas
entradas p,t y amplitud (sc) se obtienen los parmetros de la Red vectores de
pesos w1 y w2 , vectores de umbrales b1 y b2, y distancias de centros K. Una
vez construida la red se utiliza el programa simnewrbfcev15rr para calcular las

265

salidas para un valor especfico p de entrada que se tenga. Todo ello hemos
denominado como al Red Desarrollada, que es una Red de Funcin de Base
Radial de Diseo Exacto, con centros calculados aplicando la distancia de
Mahalanobis, a fin de obtener mayor exactitud en los clculos.

Aqu tambin, se puede mencionar la propuesta de Specht(1991) que propone


que las distancia calculada como:

Di1 xk k
h

que indica no presenta cambios significativos en los resultados y si reduccin


en los clculos requeridos; lo cual no es era ms conveniente para el objetivo
de nuestro trabajo.

Con relacin a los clculos del aprendizaje de la capa de salida con la matriz
seudoinversa o con mnimos cuadrados, es importante lo mencionado por Isasi
y Galvan (2004) que indican que Debido a que la salida de la red depende
linealmente de los pesos y umbrales, otro mtodo para el clculo de dichos
parmetros es el llamado mtodo de la seudo inversa (Broomhead y Lowe,
1988). Se trata de un mtodo que proporciona una solucin directa al problema
de optimizacin. Es decir se aplica la siguiente expresin matricial:

W G .S

donde W incluye tanto los pesos como los umbrales y G es una matriz que
contiene las salidas de la capa oculta y S las salidas.
Asimismo, Isasi y Galvan (2004), sostienen que en la fase supervisada (del
mtodo de aprendizaje hbrido de las Redes de Funcin de Base Radial) se
calculan los pesos y umbrales de la neurona de la red. En este caso, el objetivo
es minimizar las diferencias entre las salidas de la red y las salidas deseadas.
Por tanto un mtodo bastante simple y eficiente, que es el algoritmo e los
mnimos cuadrados. Para ello se aplican los algoritmos :
Para los pesos:
Wik (n) Wik (n 1) 1 ( s k (n) y k (n))i (n)

266

Para los umbrales:


u k (n) u k (n 1) 1 ( s k (n) y k (n))

Para k=1,2,r; y para i=1,2..m


El clculo de la seudoinversa es sumamente rpido cuando se cuenta con un
software apropiado de lo contrario se puede volver una tarea compleja. Por otro
lado el caso de los mnimos cuadrados es un procedimiento mucho ms
conocido y aproximado, pero con operaciones ms simples, aunque ms
laborioso. En los trabajos realizados encontramos ms prctico trabajar con la
seudoinversa, en la medida que se cont con el software apropiado.

Con relacin a la proyeccin de los resultados ms all de los valores


proporcionados a la RNA, se tiene que por el carcter de los algoritmos que se
utilizan en las RNA de funcin de base radial son aproximadores de carcter
local por lo que la interpolacin de los datos no se puede ir ms all de los
alrededores de los datos; sin embargo modificando el Spread o la amplitud de
las funciones de base radial de la capa oculta se puede ampliar la cobertura de
interpolacin, pero por supuesto, sin pensar que pueda ser interpolado para
valores muy distantes de los usados para el clculo; ello no es problema para
los trabajos de mejora de la calidad, donde por lo general se tiene informacin
inicial relacionada con valores cercanos a los que se busca. Por tanto el grado
de interpolacin que se requiere en los casos de mejora de la calidad es
atendido con las redes de funcin de base radial.

Al respecto se tiene lo que sostienen Isasi y Galvan (2004), Una vez


determinados los centros de las funciones de base radial, las amplitudes o
desviaciones de dichas funciones deben calcularse de manera que cada
neurona oculta se active en una regin del espacio de entrada y de manera que
el solapamiento de las zonas de activacin de una neurona a otra sea lo ms
ligero posible, para suavizar as la interpolacin. Wasserman (1993) llama a
las amplitudes como dimetro de la regin receptiva y plantea que estn
determinadas por el valor de la desviacin estndar y que puede tener un
efecto importante sobe la exactitud del sistema. Su objetivo es cubrir el espacio

267

de entrada con un campo de recepcin tan uniforme como sea posible. Si el


espacio entre los centros no es uniforme puede ser necesario que para cada
neurona de la capa oculta se tenga su propio valor de desviacin estndar. En
nuestro caso, dadas las caractersticas de los datos, en los casos que se
necesitaba interpolar ms all de los datos, se trabaj aumentando el spread o
amplitud de las funciones de base radial de la capa a fin de ampliar su
cobertura de interpolacin, pero sin esperar que se pueda ampliar la
interpolacin para valores muy distantes de los usados para el clculo; ello no
es problema para los trabajos de mejora de la calidad, donde por lo general se
tiene informacin inicial relacionada con valores cercanos a los que se busca.
Es as que en los casos 3.3.1. y 3.3.2. se trabaj con spread mayores que 1, se
prob, con base a los datos valores desde 2 hasta 10, para proyectar valores
fuera del mbito de los datos, obtenindose resultados satisfactorios, aunque
se pierde exactitud en la medida que se aleja del valor de amplitud de 1. Por
tanto el grado de interpolacin que se requiere en los casos de mejora de la
calidad es atendido con las redes de funcin de base radial.

268

CONCLUSIONES Y RECOMENDACIONES
CONCLUSIONES:
1. La Hiptesis Planteada es verdadera; es decir, las Redes Neuronales
Artificiales con Funcin de Base Radial, que utilizan la distancia de
Mahalanobis, aplicadas a los diseos de experimentos para mejora de la
calidad dan mejores resultados dan mejores resultados que los obtenidos
mediante los mtodos de anlisis estadsticos tradicionales y del Perceptrn
Multicapa con aprendizaje Backpropagation. Es as que se construy la
Red Desarrollada, que se present en 3.2.2. y en el Anexo 2, que permiti
demostrar lo planteado en la hiptesis.

2. Las caractersticas principales de la Red Neuronal Artificial de Funcin de


Base Radial Red Desarrollada, que fue construida son:

a. Arquitectura con tres capas


b. En la capa oculta el aprendizaje es no supervisado.
c. En la capa de salida se da un aprendizaje supervisado

3. La Red Desarrollada tiene como Funcin de Base Radial la Funcin de


Gauss, y pertenece a las Redes conocidas como de Diseo Exacto. Que es
una variante de este tipo de RNA, que se caracteriza por: centros, que son
iguales a vectores de entrada; y los umbrales de la capa oculta de 0.8326 y
por defecto con una amplitud de 1. Los pesos de la capa oculta a la capa de
salida y los umbrales de la capa de salida se determinan siguiendo el
mtodo de mnimos cuadrados, o el de la matriz seudoinversa

4. La metodologas para aplicar la RNA de Funcin de Base Radial de Diseo


Exacto Desarrollada, o simplemente Red Desarrollada, son:

a. RNA de FBR Funcin de Base Radial, Directa.


Con esta red, se podr predecir el desempeo futuro del proceso, es
decir, dadas unas entradas determina los valores de salida. Por otro lado
tambin se podr obtener valores de salida del proceso con base a valores
de entrada que han sido optimizados.
269

b. RNA de FBR Funcin de Base Radial, Inversa.


Con esta red, se puede obtener el valor de las entradas que permiten
alcanzar un valor ptimo de salida. Estas entradas para el valor ptimo,
luego se aplican a la red directa para obtener un valores optimizados de
salida y tambin para predecir el desempeo futuro del proceso de la red
directa. Los valores de entrada del proceso que han sido optimizados,
deben ser obtenidos dadas una salidas deseadas y ello debe ser de
acuerdo a lo que esperan los clientes, para el caso de la calidad.

c. Dentro de las RNA de Funcin de Base Radial, las de Diseo Exacto (Red
Desarrollada y Red Newrbe) tuvieron un desempeo mejor que la de
Regresin Generalizada; en especial por tener menor error.

d. Se ha trabajado con 7 casos de Diseo de Experimentos y en todos la Red


Desarrollada de Funcin de Base Radial fue la que dio mejores resultados.

RECOMENDEACIONES

1. Desarrollar nuevas investigaciones en este importante campo de aplicacin


de las Redes Neuronales Artificiales en las actividades de calidad,
especialmente en lo referente a ingeniera de calidad; aspectos como los de
diseo de productos, control y mejora de procesos y en los temas de
calidad requieren del uso de herramientas ms exactas.

2. Para la aplicacin de las metodologas de seis sigma, se debe recomendar


incluir entre sus principales herramientas el uso de las RNA.

270

3. Los diversos progresos que se dan en materia de optimizacin y lgica


difusa,

entre otros, ms lo referente a RNA debe constituirse en un futuro

cercano en un campo importante de desarrollo en el tema de calidad. Para


poder concretar su aplicacin a los diversos casos especficos se requieren
diversas investigaciones que pongan en uso prctico estas tcnicas, no slo
de manera separada sino que tambin de manera combinada. As por
ejemplo el uso de la lgica difusa para preparar los datos, para luego aplicar
RNA es un campo que requiere de muchos aportes.

4. La mejora del desempeo de las RNA de Funcin de Base Radial, tienen


otros aspectos por investigarse, entre ellos se tienen la aplicacin de
diversas funciones de base radial, la amplitud, la interpolacin a mayores
valores, el aprendizaje no supervisado, entre otros.

271

REFERENCIAS BIBLIOGRFICAS
BIBLIOGRAFA BSICA
1.-

BERTALANFFY, Von Ludwig. Teora General de los Sistemas. Editorial.


FCE. 1995.

2.-

BUNGE, Mario. La investigacin cientfica. Editorial Ariel. 4 edicin. 1999.

3.-

BUNGE, Mario. Vigencia de la filosofa. Editorial UIGV. 4 edicin. 1999.

4.-

CARRILLO, F. Cmo hacer la tesis y el trabajo de investigacin


universitario. Editorial Horizonte. 1995.

5.-

DESCARTES. Discurso del Mtodo. Editorial Alianza Editorial. 1980.

6.-

GAMUT. Introduccin a la lgica. Editorial EUDEBA. 2002.

7.-

HERNANDEZ, R; FERNNDEZ, C Y BAPTISTA, P. Metodologa de la


investigacin. Editorial McGrawHill. 1999.

8.-

HESSEN, J. Teora del conocimiento. Editorial Panamericana. 1999.

9.-

IMRE LAKATOS, La metodologa de los Programas de Investigacin


Cientfica. Alianza Editorial. 2003.

10.- KANT, I. Principios metafsicos de la ciencia de la naturaleza. Editorial


Tecnos. 1991
11.- KUHN, T. S. La estructura de las revoluciones cientficas. Editorial Fondo
de Cultura Econmica. 3 reimpresin.1996.
12.- PLATON. Apologa de Scrates. Editorial Mercurio. 1999.
13.- POPPER, K. Conjeturas y refutaciones. Editorial Paidos. 1972.
14.- POPPER, K. Escritos selectos. Editorial FCE. 1997.
15.- POPPER, K. Teora Cuntica y el cisma de la fsica. Editorial Tecnos.
1996.
16.- PUTMAN, H. El pragmatismo. Editorial Gedisa. 1992.
17.- QUINTANILLA, M. Tecnologa y Sociedad. Editorial UIGV. 1999.
18.- REA, B. Filosofa de la ciencia. Editores Amaru. 1993.
19.- RORTY, R. H. Esperanzo o conocimiento? Una introduccin al
pragmatismo. Editorial FCE. 1997.
20.- RUIZ, R ; AYALA, F. El Mtodo de las Ciencias. Epistemologa y
darwinismo. Editorial FCE. Mxico. 2000.

272

21.- RUSSEL, B. La perspectiva cientfica. Editorial Sarpe. 1983.


22.- TAFUR, R. La tesis universitaria. Editorial Mantaro. 1995.

BIBLIOGRAFA ESPECIALIZADA
1.-

ANAND,K. Artculo Improving Parafin Wax Yield throuhg process


optimization using Taguchiss Method of Experimentation. Quality
Engineering, 6(1), 1993.

2.-

ARAGON, Alberto. Tesis Doctoral Mtodos Evolutivos para el


aprendizaje de Redes Neuronales. Universidad de Burgos. 2002.

3.-

BESTERFIELD, D. Control de Calidad. Editorial Prentice Hall. 1995.

4.-

BOWLES, M Y MONTGOMERY, D. Artculo How to formulate the


ultimate Margarita: A tutorial on experiments with mixtures. Quality
Engineering 10(2). 1997.

5.-

CEVALLOS, Juan. Artculo Aplicacin de Redes Neuronales para


Optimizar Problemas Multirespuesta en Mejora de la Calidad, publicado
en Industrial Data, Volumen 7 N 2. 2004.

6.-

CHEN,S; COWAN,C Y GRANT,P. Artculo Orthogonal Least Squares


Learning

Algorithm

for

Radial Basis

Function

Networks.

IEEE

Transactions on Neural Networks, Vol. 2 N 2, Marzo 1991.


7.-

COX, M. Artculo A Neural Netwok Metoh for Modelling the Parameters


of a CUSUM Chart. Quality Engineering 17; 197-205. 2005.

8.-

CROSBY, P. La Calidad No Cuesta Editorial Continental. 1987.

9.-

DELGADO; A. Inteligencia Artificial y minirobots. Editorial Eccoe.1998.

10.- DEMING, E. Calidad, Productividad y Competitividad. La salida de la


crisis Ediciones Daz de Santos. 1989.
11.-

DEMUTH,H; BEALE, M Y HAGAN,M. MATLAB. Gua de Redes


Neuronales. 2007.

12.- FIGENBAUM, A. Control Total de la calidad. Editorial CECSA. 1996.


13.- FREEMAN, James A., SKAPURA, David M. Redes Neuronales.
Algoritmos, Aplicaciones y Tcnicas de Programacin. Editorial AddisonWesly Diaz de Santos.1993.

273

14.- GIARRATANO-RILEY. Sistemas Expertos. Principios y programacin.


Editorial Thomson. 2001.
15.- GUPTA, P. Six Sigma. Business Score Card. Editorial McGrawHill. 2007.
16.- GUTIERREZ, M. Administrar para la calidad. Editorial LIMUSA. 1994.
17.- HAGAN, Martn T., DEMUTH, Howard B., BEALE, Mark. Neural Network
Design. Editorial Thomson. 1996.
18.-

HAYKIN,

Simon.

Neural

Networks.

Editorial

Macmillan

College

Publishing Company. 1994.


19.-

HILERA Jos y MARTINEZ Vctor. Redes Neuronales Artificiales.


Editorial Alfaomega. 2000.

20.-

HOWLETT,R Y JAIN,L. Radial Basis Function. Netwoks 1. Editorial


Physica-Verlag. 2001.

21.-

HSIEH, K. Y Tong, L., Artculo Parameter Optimization for Quality


Response with Linguistic Ordered Category by employing Artificial
Neural Networks: A Case Study. Universidad Nacional de Chiao Tung.
Taiwn. .2000.

22.-

ISASI, Pedro y GALVAN, Ins. Redes de Neuronas Artificiales. Editorial


Pearson Prentice may. 2004.

23.-

ISHIKAWA, K. Qu es el control total de Calidad? La Modalidad


Japonesa. Editorial Norma. 1996.

24.- JURAN, J.M. Juran y el liderazgo para la calidad. Editorial Daz de


Santos. 1989.
25.-

KAUFFMANN, Arnold, GIL ALUJA, Jaime. Grafos Neuronales para la


Economa y la Gestin de Empresas. Editorial Pirmide. 1995.

26.-

KENETT, R. Y ZACKS, S. Estadstica Industrial Moderna. Diseo y


control de la calidad y confiabilidad. Editorial Thomson. 2000.

27.-

KONAK, A, KULTUREL KONAK, S, SMITH, A y NETTLESHIP, I.,


Artculo Estimation of shrinkage for near net-shape using a neural
network approach. Journal of Intelligent Manufacturing. Vol. 14,2. 2003.

28.-

KUEHL, Robert. Diseo de Experimentos. Editorial Thomson. 2001.

274

29.-

LAM, S., PETRI, L. y SMITH,A. Artculo Predicton and optimization of a


ceramic casting process using a hierarchical hybrid system of neural
networks anf fuzzy logic. IIE Transactions, vol. 32, 83-91. 2000.

30.-

LAWSON, John; MADRIGAL, Jos y ERJAVEC, John. Estrategias


experimentales para el mejoramiento de la calidad en la industria.
Editorial Iberoamrica. 1992.

31.-

LEGER, R., GARLAND, W. y POEHLMAN, W. Artculo Fault detection


and dignosis using statistical control charts and artificial neural
networks. Artificial Intelligent in Engineering. Vol. 12, 35-47. 1998.

32.-

MARTIN DEL BRIO, Bonifacio, SANZ MOLINA Alfredo. Redes


Neuronales y Sistemas Difusos. Editorial Alfaomega. 2002.

33.-

MONTAO, Juan. Tesis Doctoral Redes Neuronales Artificiales


aplicadas al Anlisis de Datos . Universitat de les illes Balears. 2002.

34.-

MONTGOMERY, Douglas. Diseo y anlisis de experimentos. Editorial


Limusa Wiley. 2004

35.-

NASEREDDIN, M. y MOLLAGHASEMI, M. Artculo The development of


a methodology for the use of neural networks an simulation modeling in
systems

design.

Proceeedings

of

the

1999 Winter

Simulation

Conference. 1999.
36.-

NILSSON, N. Inteligencia Artificial. Editorial McGRaw Hill. 2001.

37.-

POGGIO, T Y GIROSI, F. ArtculoRegularization Algorithms for Learning


that are Equivalent to Multilayer Networks. Science. Vol. 247.1989.

38.-

PRAT, Albert, TORT MARTORELL, Xavier, GRIMA, Pere y POZUETA,


Lourdes. Mtodos Estadsticos. Control y mejora de la calidad. Editorial
Alfaomega. 1999.

39.-

PRESSMAN, R. Ingeniera del Software. Un enfoque prctico. Editorial


McGrawHill. 5 edicin. 2002.

40.-

RAO,M. Y SRINIVAS,J. Neural Networks. Editorial Narosa. 2007.

41.-

ROSS, Philip. Taguchi Techniques for Quality Engineering. Editorial


McGrawHill. 1988.

275

42.-

RUSSELL, S y NORVIG, P. Inteligencia Artificial. Editorial Prentice


Hall. 1996.

43.-

SCHEEL, Carlos. Modelacin de la Dinmica de Ecosistemas. Editorial


Trillas. 2001.

44.-

SCHMIDT,S

LAUNSBY,R.

Understanding

Industrial

Designed

Experiments. Editorial Air Academy Press. 1994.


45.-

SCHMULLER, J. Aprendiendo UML. Editorial Prentice Hall.2002.

46.-

TAGUCHI, Genichi, Introduction to Quality Engineering.

Designing

Quality into Products and Proceses, Editorial Asian Productivity


Organization. 1990.
47.-

VASCONCELLOS A.; SODRE, S Y REKAB, K. Artculo Design of


Experiments. Improve Part Quality.2003.

48.-

WASSERMAN, P. Advanced Methods in Neural Computing. Editorial


Van Nostrand Reinhold. 1993.

49.-

ZORRIASSATINE, F. y TANNOCK, D. Artculo A review of neural


networks

for

statistical

process

control.

Journal

of

Intelligent

Manufacrturing. Vol.9, 209-224. 1998.

Direcciones electrnicas:
Direcciones electrnicas sobre calidad
www.asq.org
http://www.asq.org/manufacturing/why-quality/overview.html
www.QualityWBT.com
www.tandf.co.uk/journals/onlinesamples.asp
www.taylorandfrancis.com
www.spcstat.com
www.chartrunner.com
www.statgraphics.com
www.statssoft.com
www.amstat.org

Direcciones electrnicas sobre redes neuronales


www.computer.org
276

www.ieee-cis.org
www.gc.ssr.upm.es/inves/neural/ann2/anntutorial.html
http://www.ieee.org/theinstitute
http://technews.acm.org
http://www.acm.org/careernews/
http://portal.acm.org/cacm/current/
www.monografias.com/trabajos12/redneuro/redneuro.shtml
http://www.cs.utdallas.edu/
www.spectrum.ieee.org
www.pace.edu
www.nd.com
www.neuralware.com
ftp://ftp.sas.com/pub/neural/FAQ.html

277

ANEXO 1.
INFORME DE EXPERTO CONSULTADO SOBRE EL PROGRAMA DE
CMPUTO DE LA RED DESARROLLADA.

I. EL INFORME DEL EXPERTO SE PRESENTA EN LA SIGUIENTE PGINA.


EN DICHO SE APRECIA SU OPININ FAVORABLE.

278

ANEXO 2.
PROGRAMA Y LISTADO COMPLETO QUE PRODUCE EL PROGRAMA
DESARROLLADO DE CREACIN DE RED NEURONAL ARTIFICIAL Y DE
SIMULACIN PARA APLICAR EN MEJORA DE LA CALIDAD.
I. PROGRAMA DE CREACIN DE LA RED.
CON DISTANCIA EUCLDEA
Function [w1,b1,w2,b2 ] =designrbe(p,t,spread)
[r,q] = size(p);
[s2,q]= size(t);
w1=p;
b1=ones(q,1)*sqrt(-log(.5))/spread;
a1=radbas(dist(w1,p).*(b1*ones(1,q)));
x=t/1; ones(1,q)];
w2=x(:,1:q);
b2=x(:,q+1);
CON DISTANCIA MAHALANOBIS (PROGRAMA DESARROLLADO)
function [w1,b1,w2,b2,K] = newrbfcev15r(p,t,sc)
[r,q] = size(p);
[s2,q] = size(t);
w1 = p';
b1 = ones(q,1)*sqrt(-log(0.5))/sc;
m=sum(p)/r;
copies=zeros(1,r);
M = m(1+copies,:),1;
H=(p-M)'*(p-M);
K=pinv(H);
D=dist(w1,p);
Z=K+D;
a1=radbas(Z.*(b1*ones(1,q)));
x=t/[a1; ones(1,q)];
w2=x(:,1:q);
b2=x(:,q+1);

279

II. PROGRAMA DE DE SIMULACIN DE LA RED


CON DISTANCIA EUCLDEA
function [Y] = sim(w1,b1,w2,b2,K,p)
[s,r]= size(w1);
[r2,q] = size(p);
if(r ~= r2), error('matriz interna de dimensiones que no concuerdan.'),end
Z = zeros(s,q);
if (q<s)
p=p';
copies = zeros(1,s);
for j=1:q
Z(:,j) = sum((w1-p(j+copies,:)).^2,2);
end
else
copies = zeros(1,q);
w=w1';
for i=1:s
Z(i,:)=sum((w(:,i+copies)-p).^2),2);
end
end
Z=Z.^0.5;
a1=radbas(Z.*(b1*ones(1,q)));
Y1=w2*a1';
Y=Y1+b2;
CON DISTANCIA MAHALANOBIS (PROGRAMA DESARROLLADO)
function [ts] = simnewrbfcev15rr(w1,b1,w2,b2,p)
[s,r] = size(w1);
[r2,q] = size(p);
if(r~=r2),error('matriz interna de dimensiones que no concuerdan.'), end
m=sum(p)/r;
copies=zeros(1,r);
M = m(1+copies,:),1;
H=(p-M)'*(p-M);
K=pinv(H);
D=dist(w1,p);
Z=K+D;
a1=radbas(Z.*(b1*ones(1,q)));
ts=(w2*a1)+(b2*ones(1,q));

280

IIII. Listado completo de Entradas y Salidas de Pogramas newrbfcev15r y


simnewrbfcev15rr.
>> p
p=
Columns 1 through 12
75 75 75 40 40 40 75 75 75 40 40
45 45 45 45 45 45 25 25 25 25 25
235 235 235 235 235 235 235 235 235 235
45 45 45 25 25 25 25 25 25 45 45
3 3 3 2 2 2 3 3 3 2 2 2
25 25 25 25 25 25 10 10 10 10 10
25 25 25 5 5 5 5 5 5 25 25 25
Columns 13 through 24
75 75 75 40 40 40 75 75 75 40 40
45 45 45 45 45 45 25 25 25 25 25
205 205 205 205 205 205 205 205 205 205
45 45 45 25 25 25 25 25 25 45 45
2 2 2 3 3 3 2 2 2 3 3 3
10 10 10 10 10 10 25 25 25 25 25
5 5 5 25 25 25 25 25 25 5 5 5

40
25
235 235
45
10

40
25
205 205
45
25

>> t
t=
Columns 1 through 7
64.3300 73.4300 70.9500 42.7700 41.1500 39.4900 71.6200
Columns 8 through 14
78.4400 73.9600 65.5100 62.4800 59.0500 63.0200 64.1200
Columns 15 through 21
62.6700 44.1200 46.4600 32.3300 68.5900 70.8900 71.5300
Columns 22 through 24
41.0400 44.0200 41.8900

>> [w1,b1,w2,b2,K]=newrbfcev15r(p,t,sc)
w1 =
75 45 235 45 3 25 25
75 45 235 45 3 25 25
75 45 235 45 3 25 25
40 45 235 25 2 25 5
40 45 235 25 2 25 5
40 45 235 25 2 25 5
75 25 235 25 3 10 5
75 25 235 25 3 10 5
75 25 235 25 3 10 5
40 25 235 45 2 10 25
40 25 235 45 2 10 25
40 25 235 45 2 10 25

281

75
75
75
40
40
40
75
75
75
40
40
40

45
45
45
45
45
45
25
25
25
25
25
25

205
205
205
205
205
205
205
205
205
205
205
205

45
45
45
25
25
25
25
25
25
45
45
45

2
2
2
3
3
3
2
2
2
3
3
3

10
10
10
10
10
10
25
25
25
25
25
25

5
5
5
25
25
25
25
25
25
5
5
5

b1 =
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
0.8326
w2 =
1.0e+005 *
Columns 1 through 7
0
0
0
0 2.8031
0 -0.0536
Columns 8 through 14
0
0 0.0328
0
0 0.3293
0
Columns 15 through 21
0 3.1373
0
0 -0.2457
0
0
Columns 22 through 24
1.4155
0
0

282

b2 =
-7.4180e+005
K=
1.0e-003 *
Columns 1 through 7
0.2047 0.2047 0.2047
0.2047 0.2047 0.2047
0.2047 0.2047 0.2047
-0.0199 -0.0199 -0.0199
-0.0199 -0.0199 -0.0199
-0.0199 -0.0199 -0.0199
-0.2653 -0.2653 -0.2653
-0.2653 -0.2653 -0.2653
-0.2653 -0.2653 -0.2653
-0.0633 -0.0633 -0.0633
-0.0633 -0.0633 -0.0633
-0.0633 -0.0633 -0.0633
0.0274 0.0274 0.0274
0.0274 0.0274 0.0274
0.0274 0.0274 0.0274
-0.0060 -0.0060 -0.0060
-0.0060 -0.0060 -0.0060
-0.0060 -0.0060 -0.0060
0.1245 0.1245 0.1245
0.1245 0.1245 0.1245
0.1245 0.1245 0.1245
0.0374 0.0374 0.0374
0.0374 0.0374 0.0374
0.0374 0.0374 0.0374

-0.0199
-0.0199
-0.0199
0.0922
0.0922
0.0922
0.0104
0.0104
0.0104
-0.0685
-0.0685
-0.0685
-0.0264
-0.0264
-0.0264
-0.0060
-0.0060
-0.0060
-0.0009
-0.0009
-0.0009
0.0158
0.0158
0.0158

-0.0199
-0.0199
-0.0199
0.0922
0.0922
0.0922
0.0104
0.0104
0.0104
-0.0685
-0.0685
-0.0685
-0.0264
-0.0264
-0.0264
-0.0060
-0.0060
-0.0060
-0.0009
-0.0009
-0.0009
0.0158
0.0158
0.0158

-0.0199
-0.0199
-0.0199
0.0922
0.0922
0.0922
0.0104
0.0104
0.0104
-0.0685
-0.0685
-0.0685
-0.0264
-0.0264
-0.0264
-0.0060
-0.0060
-0.0060
-0.0009
-0.0009
-0.0009
0.0158
0.0158
0.0158

-0.2653
-0.2653
-0.2653
0.0104
0.0104
0.0104
0.3658
0.3658
0.3658
0.0758
0.0758
0.0758
-0.0318
-0.0318
-0.0318
0.0021
0.0021
0.0021
-0.1446
-0.1446
-0.1446
-0.0632
-0.0632
-0.0632

Columns 8 through 14
-0.2653 -0.2653 -0.0633
-0.2653 -0.2653 -0.0633
-0.2653 -0.2653 -0.0633
0.0104 0.0104 -0.0685
0.0104 0.0104 -0.0685
0.0104 0.0104 -0.0685
0.3658 0.3658 0.0758
0.3658 0.3658 0.0758
0.3658 0.3658 0.0758
0.0758 0.0758 0.1064
0.0758 0.0758 0.1064
0.0758 0.0758 0.1064
-0.0318 -0.0318 -0.0093
-0.0318 -0.0318 -0.0093
-0.0318 -0.0318 -0.0093
0.0021 0.0021 0.0171
0.0021 0.0021 0.0171
0.0021 0.0021 0.0171
-0.1446 -0.1446 -0.0510

-0.0633
-0.0633
-0.0633
-0.0685
-0.0685
-0.0685
0.0758
0.0758
0.0758
0.1064
0.1064
0.1064
-0.0093
-0.0093
-0.0093
0.0171
0.0171
0.0171
-0.0510

-0.0633
-0.0633
-0.0633
-0.0685
-0.0685
-0.0685
0.0758
0.0758
0.0758
0.1064
0.1064
0.1064
-0.0093
-0.0093
-0.0093
0.0171
0.0171
0.0171
-0.0510

0.0274
0.0274
0.0274
-0.0264
-0.0264
-0.0264
-0.0318
-0.0318
-0.0318
-0.0093
-0.0093
-0.0093
0.0984
0.0984
0.0984
0.0104
0.0104
0.0104
-0.0547

0.0274
0.0274
0.0274
-0.0264
-0.0264
-0.0264
-0.0318
-0.0318
-0.0318
-0.0093
-0.0093
-0.0093
0.0984
0.0984
0.0984
0.0104
0.0104
0.0104
-0.0547

283

-0.1446 -0.1446 -0.0510


-0.1446 -0.1446 -0.0510
-0.0632 -0.0632 -0.0189
-0.0632 -0.0632 -0.0189
-0.0632 -0.0632 -0.0189
Columns 15 through 21
0.0274 -0.0060 -0.0060
0.0274 -0.0060 -0.0060
0.0274 -0.0060 -0.0060
-0.0264 -0.0060 -0.0060
-0.0264 -0.0060 -0.0060
-0.0264 -0.0060 -0.0060
-0.0318 0.0021 0.0021
-0.0318 0.0021 0.0021
-0.0318 0.0021 0.0021
-0.0093 0.0171 0.0171
-0.0093 0.0171 0.0171
-0.0093 0.0171 0.0171
0.0984 0.0104 0.0104
0.0984 0.0104 0.0104
0.0984 0.0104 0.0104
0.0104 0.0843 0.0843
0.0104 0.0843 0.0843
0.0104 0.0843 0.0843
-0.0547 -0.0248 -0.0248
-0.0547 -0.0248 -0.0248
-0.0547 -0.0248 -0.0248
-0.0068 -0.0777 -0.0777
-0.0068 -0.0777 -0.0777
-0.0068 -0.0777 -0.0777
Columns 22 through 24
0.0374 0.0374 0.0374
0.0374 0.0374 0.0374
0.0374 0.0374 0.0374
0.0158 0.0158 0.0158
0.0158 0.0158 0.0158
0.0158 0.0158 0.0158
-0.0632 -0.0632 -0.0632
-0.0632 -0.0632 -0.0632
-0.0632 -0.0632 -0.0632
-0.0189 -0.0189 -0.0189
-0.0189 -0.0189 -0.0189
-0.0189 -0.0189 -0.0189
-0.0068 -0.0068 -0.0068
-0.0068 -0.0068 -0.0068
-0.0068 -0.0068 -0.0068
-0.0777 -0.0777 -0.0777
-0.0777 -0.0777 -0.0777
-0.0777 -0.0777 -0.0777
0.0253 0.0253 0.0253

-0.0510
-0.0510
-0.0189
-0.0189
-0.0189

-0.0510
-0.0510
-0.0189
-0.0189
-0.0189

-0.0547
-0.0547
-0.0068
-0.0068
-0.0068

-0.0547
-0.0547
-0.0068
-0.0068
-0.0068

-0.0060
-0.0060
-0.0060
-0.0060
-0.0060
-0.0060
0.0021
0.0021
0.0021
0.0171
0.0171
0.0171
0.0104
0.0104
0.0104
0.0843
0.0843
0.0843
-0.0248
-0.0248
-0.0248
-0.0777
-0.0777
-0.0777

0.1245
0.1245
0.1245
-0.0009
-0.0009
-0.0009
-0.1446
-0.1446
-0.1446
-0.0510
-0.0510
-0.0510
-0.0547
-0.0547
-0.0547
-0.0248
-0.0248
-0.0248
0.1483
0.1483
0.1483
0.0253
0.0253
0.0253

0.1245
0.1245
0.1245
-0.0009
-0.0009
-0.0009
-0.1446
-0.1446
-0.1446
-0.0510
-0.0510
-0.0510
-0.0547
-0.0547
-0.0547
-0.0248
-0.0248
-0.0248
0.1483
0.1483
0.1483
0.0253
0.0253
0.0253

0.1245
0.1245
0.1245
-0.0009
-0.0009
-0.0009
-0.1446
-0.1446
-0.1446
-0.0510
-0.0510
-0.0510
-0.0547
-0.0547
-0.0547
-0.0248
-0.0248
-0.0248
0.1483
0.1483
0.1483
0.0253
0.0253
0.0253

284

0.0253
0.0253
0.0960
0.0960
0.0960

0.0253
0.0253
0.0960
0.0960
0.0960

0.0253
0.0253
0.0960
0.0960
0.0960

>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,p)
ts =
Columns 1 through 7
69.5700 69.5700 69.5700 41.1367 41.1367 41.1367 74.6733
Columns 8 through 14
74.6733 74.6733 62.3467 62.3467 62.3467 63.2700 63.2700
Columns 15 through 21
63.2700 40.9700 40.9700 40.9700 70.3367 70.3367 70.3367
Columns 22 through 24
42.3167 42.3167 42.3167
>> [ts]=simnewrbfcev15r(w1,b1,w2,b2,pe)
ts =
67.5782

285

ANEXO 3
Detalle de clculos en Perceptrn Multicapa con aprendizaje
Backpropagation

A continuacin se presentan los clculos que se dan para una red


perceptrn multicapa con aprendizaje backpropagation y seguidamente el
detalle para la metodologa presentada:
En

un

caso

simple

se

perceptrn

multicapa

con

aprendizaje

backpropagation:

Dados:
Entrada de 4 vectores p = [-1 -1 2 2; 0 5 0 5];
y salida t = -1 -1 1 1 ]
Encontrar la red neuronal: perceptron multicapa con backpropagation que
permite obtener la salida t dados las entradas p.
Para el primer ciclo se tiene los siguiente trabajando con Matlab Neural
Networks(/); y corroborando resultados con calculadora de mano:
/net= newff(minmax(p),[3,1],{tansig,purelin},traingd);
La arquitectura de la red se presenta en la Figura 39.

286


W11
X1W31
W12
W32
W21
W22
X2
W23 W13

W33

Figura 45: Arquitectura de la Red Perceptrn Multicapa

/minmax(p)
/= -1 2; 0 5
/net.IW{1,1}
/= -1.2071 0.6452; 1.6014 -0.1324; -0.9043 -0.8040
Pesos de capa de entrada a capa oculta, calculados por Matlab al azar
/net.lW{2,1}
/= 0.6924 0.0503 -0.5947
Pesos de capa oculta a la capa de salida, calculados por Matlab al azar
/net.b{1}
/ = 1.4154 ; 0.0503; -0.5947
Umbrales de capa de oculta, calculados por Matlab al azar
/net.b{2}
/ = 0.3443
Umbral de capa de salida, calculado por Matlab al azar
Comandos en Matlab para el entrenamiento:
/net.trainParam.show=1;
/net.trainParam.lr=0.1;
/net.trainParam.goal=0.001;
/net.trainParam.epochs=1;
/[net,tr]= train(net,p,t)

/TRAINGD-calcgrad,Epoch0/1,MSE 2.45005/0.001,Gradient 3.98344/1e-010

287

/TRAINGD-calcgrad,Epoch0/1,MSE 2.45005/0.001,Gradient 3.98344/1e-010


/tr=
/epoch: [0 1]
/perf: [2.4500 1.1329]
/vperf: [NaN NaN]
/tperf: [NaN NaN]
/gradient: [3.9834 2.6367]
Como resultado de haberse ejecutado el primer ciclo o epoch los nuevos
pesos y umbrales son:
/net.IW{1,1}
/= -1.1914 0.6399; 1.6016 -0.1335; -0.9297 -0.8007
Pesos de capa de entrada a capa oculta, calculados por Matlab al azar
/net.lW{2,1}
/= 0.4330 0.2491 -0.5168
Pesos de capa oculta a la capa de salida, calculados por Matlab al azar
/net.b{1}
/ = 1.4216 ; -0.4701; 0.0571
Umbrales de capa de oculta, calculados por Matlab al azar
/net.b{2}
/ = 0.1335
/a= sim(net,p)
/a= -0.0702 0.8339 0.5475

1.3148

Clculos con calculadora o con Matlab, pero sin el Neural Networks; para
apreciar los clculos que se dan al interior de un ciclo de este tipo de red y
de esa forma poder desarrollar nuestro propio software:
CALCULO DE LOS PESOS DE LA CAPA OCULTA

A LA CAPA DE

SALIDA
Clculo de salida de capa oculta a1:
a1 = f1 (W 1 p + b1) ; donde f1 es tansig (funcin tg hiperblica)
Producto de los pesos por entrada W 1 p

X1 = [ -1.2071

0.6452 ] [-1 -1 2 2]

1.6014

-0.1324

-0.9043

-0.8040

0 5 0 5

288

X1 = [ 1.2071

4.4331

-2.4142

0.8118 ]

-1.6014

-2.2634

3.2028

2.5408

0.9043

-3.1157

-1.8086

-5.8286

Al producto anterior sumar umbrales en capa oculta b1:


X2 = [x1 ]+ [ 1.4154

X2 =

1.4154

1.4154

1.4154 ]

-0.4697 -0.4697

-0.4697

-0.4697

0.0372

0.0372

0.0372

0.0372

[ 2.6225 5.8485

-0.9988

2.2272 ]

-2.0711

-2.7331

2.7331

2.0711

0.9415

-3.0785

-1.7714

-5.7914

Aplicando la funcin de activacin de la capa oculta: tangente hiperblica a


x2 (tansig):
a1 = f1 (W 1 p + b1)
X3 =

[ 0.9895 1.0000

-0.7611

0.9770 ]

-0.9687

-0.9916

0.9916

0.9687

0.7359

-0.9958

-0.9438

-1.0000

Clculo de la salida de la capa de salida a2:


a2 = f2 (W 2 a1 + b2); donde f2 es purelin (funcin lineal)
w21= [0.6924 0.0503 -0.5947];
a21 = [ 0.9895; -0.9687;0.7359];
a31= [ w21 ] * [ a21 ] = 0.1988
a31 final= 0.1988 + 0.3443 = 0.5431

w21= [0.6924 0.0503 -0.5947];


a22 = [ 1.0000; -0.9916;-0.9958];
a32= [ w21 ] * [ a22 ] = 1.2347

a32 final= 1.2347 + 0.3443 = 1.5790

w21= [0.6924 0.0503 -0.5947];

289

a23 = [ -0.7611; 0.9916; -0.9438];


a33= [ w21 ] * [ a23 ] = 0.0842
a33 final= 0.0842 + 0.3443 = 0.4285

w21= [0.6924 0.0503 -0.5947];


a24 = [0.9770; 0.9687; -1.0000];
a34= [ w21 ] * [ a24 ] = 1.3199
a34 final= 1.3199 + 0.3443 = 1.6642
Clculo del Cuadrado Medio del Error: MSE de la epoch 0/ 1= suma(t-a2)2
t = [-1 -1 1 1 ];
a2= [0.5431 1.5790

0.4285

1.6642]

m= suma ([ t] - [a2]) 2
(-1-0.5431 )2 + (-1-1.5790 )2 +(1-0.4285 )2 + (1-1.6642 )2
= (-1.5431 )2 + (-2.5790 )2 +(0.5715 )2 + (-0.6642 )2
= 9.8002
m/4 = 9.8002/4 = 2.4501 (valor de matlab, calculado con calculadora)
Siguiendo con el clculo de los nuevos pesos para t+1 de la capa oculta a la
capa de salida tenemos:
W2(t+1)=w2(t)+*(-2)/(4)*(F.2(n2)(t objetivo a2 salida red)* a1 salida
capa oculta); donde (F.2(n2)= 1 para la funcin lineal; s2 = (-2) (F.2(n2)(t
objetivo a2 salida red)
Que es la unin de las dos ecuaciones, respectivas, de los pasos 4.1 y 4.3
presentadas anteriormente en el Marco Terico, donde C se ha
reemplazado por el superndice 2.
= 0. 6924 - 0.1/4*2 *suma([ -1.5431 -2.5790 0.5715 -0.6642 ] * [0.9895] )
1.0000
-0.7611
0.9770
= 0.6924 + 0.1/4*2 suma [-1.5269] = 0.6924 +0.1/4*2*(-5.1898)
-2.5790
-0.4350
-0.6489

290

= 0.6924 0.2594 = 0.4330


Con matlab operando matrices con los tres pesos:
W2(t+1) = [0.6924 0.0503 -0.5947] + 0.1/4*2 *[-1.5431 -2.5790 0.5715 0.6642]*[ 0.9895 -0.9687 0.7359; 1.0000 -0.9916 -0-9958; -0.7611 0.9916
-0.9438; 0.9770 0.9687 -1.0000]
= 0.4330 0.2491 -0.5168
Que son los valores obtenidos con matlab neural networks.
CALCULO DEL UMBRAL DE LA CAPA DE SALIDA
b2(t+1) =b2(t) - /4*(-2)*(t objetivo a2 salida red)
Que es la unin de las dos ecuaciones, respectivas, de los pasos 4.1 y 4.3
presentadas anteriormente en el Marco Terico, donde C se ha
reemplazado por el superndice 2.
=0.3443 + 0.1/4*(2) suma [ -1.5431] =0.3443 + 0.05(-4.2148] =0.1335
-2.5790
0.5715
-0.6642
CALCULO DE LOS PESOS DE LA CAPA DE ENTRADA A LA CAPA
OCULTA
W1(t+1)=w1(t)+/(4)*(F.1(n1)(W2)T s2 (t objetivo a2 salida red)* pT
entrada red); donde (F.1(n1)= 1 (a)2 para la funcin tansig; s1 =
(F.1(n1)(W2)T s2
Que es la unin de las dos ecuaciones, respectivas, de los pasos 4.2 y 4.3
presentadas anteriormente en el Marco Terico, donde c-1 se ha
reemplazado por el superndice 1.
Operando matrices con matlab se tiene:
Para -1.2071 y 0.6452:
[1 (a1) 2] (W 2)T s2
[(1 (.9895)^2); (1 (1)^2); (1 (.7611)^2); (1 (.977)^2)]*[0.6924] T[3.0862;
5.1580;-1.1430;1.3284] = 0.0446; 0; 0.3320; 0.0418 (conocido como s1)
W

(t+1)=-1.2071 -0.1*[0.0446; 0; 0.3320; 0.0418]*[-1;-1;2;2]= -1.2071-

[+0.00446;0; -0.06658; -0.00836]/4 = -1.2071+0.0157= -1.1914


W

(t+1)= 0.6452 - 0.1*[0.0446; 0; 0.3320; 0.0418]*[0;5;0;5]= 0.6452 -

[0;0;0; 0.0209]/4 = 0.6452 - 0.005225= 0.6399

291

Igual para los dems pesos de la capa entrada a la capa oculta: 1.6014
para obtener 1.6016; y de -0.1324 para obtener -0.1335;
Asimismo, para -0.9043 para a obtener -0.9297 y de -0.8040 para obtener 0.8007.

CALCULO DE LOS UMBRALES DE LA CAPA OCULTA


b1(t+1) =b1(t) - /4 s1
Que es la unin de las dos ecuaciones, respectivas, de los pasos 4.2 y 4.3
presentadas anteriormente en el Marco Terico, donde c-1 se ha
reemplazado por el superndice 1.
Para b de la neurona 1 de la capa oculta: 1.4154:
b1(t+1)=1.4154 0.1 /4*(0.0446+ 0 + 0.3320 + 0.0418) = 1.4216
Para b de la neurona 2 de la capa oculta: -0.4697:
b1(t+1)=-0.4697 0.1 /4*( 0.0160 ) = -0.4701
Para b de la neurona 1 de la capa oculta: 0.0372:
b1(t+1)=0.0372 0.1 /4*( -0.796 ) = 0.0571
Con base a los clculos realizados se puede elaborar la programacin en
matlab que permita obtener los resultados, que da el neural network de
matlab; ello es importante para poder desarrollar las modificaciones con
base a la red neuronal que se desarrolle.

292

ANEXO 4
Detalle de clculos con Redes Neuronales con Funciones de Base
Radial
A continuacin se presentan los clculos que se dan para una Red
Neuronal RN con funciones de base radial, tanto para el caso de

RN

Diseo Exacto(newrbe de Matlab) como en el de RN de Regresin


Generalizada, y seguidamente el detalle para la metodologa presentada:
En un caso simple se RN con Funcin de Base Radial FBR de aprendizaje
hbrido:
Dados:
Entrada de P = [4 5 6];
y salida T = [1.5 3.6 6.7];
Encontrar la red neuronal: de Funcin de Base Radial con aprendizaje
hbrido; capa oculta aprendizaje no supervisado y capa de salida con
aprendizaje supervisado que permite obtener la salida T dados las entradas
P.
Para el primer ciclo se tiene lo siguiente trabajando con Matlab Neural
Networks; y corroborando resultados con calculadora de mano o con
operaciones con matrices en computadora:
/ P=[ 4 5 6];
/ T=[1.5 3.6 6.7];
/ net=newrbe(P,T);
La arquitectura de la red es, ver siguiente Figura:

293

C.Entrada

C.Oculta

C.Salida

Si W
No W

FBR

Figura 46. Red Neuronal de Funcin de Base Radial

Donde los pesos y umbrales determinados por el matlab son:


/ net.iw{1,1}
/= 4; 5; 6
Pesos de la capa oculta, se aprecia que son por definicin iguales a P
/ net.b{1}
/= 0.8326; 0.8326; 0.8326
Umbrales de la capa oculta, se aprecia que son por definicin valores que
permiten obtener 0.5 de rea bajo la curva radial (radbas)
/ net.lw{2,1}
/= 0; -0.6533; 5.5467
Pesos de la capa de salida calculados con base al aprendizaje supervisado
>> net.b{2}
/ = 1.4800
Umbral de la capa de salida calculado con base al aprendizaje supervisado
Comandos en Matlab para el entrenamiento:
Es muy simple, slo se dan los valores de Entrada P y Salida T ; y a
continuacin se procede a construir la Red.

294

Aspectos importantes de la Red as construida son:


architecture:
numInputs: 1
numLayers: 2
biasConnect: [1; 1]
inputConnect: [1; 0]
inputs: {1x1 cell} of inputs
layers: {2x1 cell} of layers
outputs: {1x2 cell} containing 1 output
targets: {1x2 cell} containing no targets
biases: {2x1 cell} containing 2 biases
inputWeights: {2x1 cell} containing 1 input weight
layerWeights: {2x2 cell} containing 1 layer weight
weight and bias values:
IW: {2x1 cell} containing 1 input weight matrix
LW: {2x2 cell} containing 1 layer weight matrix
b: {2x1 cell} containing 2 bias vectors
Seguidamente se introduce una nueva Entrada y se calcula con la Red el
resultado:
/net=newrbe(P,T);
/ Pe = 4.5;
/v= sim(net,Pe)
/v = 2.0967

Como resultado de haberse ejecutado la simulacin, los parmetros de los


pesos y umbrales se mantienen.
Clculos con calculadora o con Matlab, pero sin el Neural Networks; para
apreciar los clculos que se dan al interior de este tipo de red.
CALCULO DE LOS PESOS DE LA CAPA OCULTA
En la capa se crean tantas neuronas como vectores de entrada P se tienen;
en este caso 3; asimismo, los valores para este tipo de red son los de la
transpuesta de los vectores de entrada P. Por tanto sus valores de net.iw{1}
con [4; 5 ; 6].

295

CALCULO DEL UMBRAL DE LA CAPA OCULTA


En la capa se crean tantos umbrales como neuronas se tiene en la capa; en
este caso 3; asimismo, los valores para este tipo de red son los que permite
que cuando se calcula la funcin de transferencia se obtenga 0.5 bajo la
curva, por tanto sus valores son iguales y son net.b{1} con [0.8326; 0.8326;
0.8326}.
Clculo de salida de capa oculta a1:
a1 = f1 dist) ; donde f1 es la funcin de Gauss; aunque, tambin podra er
la inversa cuadrtica o la inversa multicuadrtica, segn el caso. Lo ms
utilizado es la funcin de Gauss. Por otro lado dist es la distancia entre los
centros y los valores de entrada P; en este caso los centros son los pesos
de la capa
Calculo de la distancia con el comando dist de matlab
/ dist(net.iw{1,1},P)
/= 0

Se calcula la distancia Euclidea, que en este caso equivale a restar cada


valor del peso menos la entrada P, calculando el valor absoluto y se
obtienen los nueve valores.
/F1=dist(net.iw{1,1},P)
/F1 =0

Con el commando netprod se calculan los productos elemento a elemento:


/netprod(F1(2,:),net.b{1}')
/= 0.8326

0.8326

/netprod(F1(1,:),net.b{1}')

/ =0

0.8326

1.6651

/netprod(F1(2,:),net.b{1}')
/ = 0.8326

0.8326

296

/netprod(F1(3,:),net.b{1}')
/=.6651

0.8326

Seguidamente se calcula la function de Gauss con el commando radbas de


matlab:
/radbas(netprod(F1(1,:),net.b{1}'))
/ =1.0000

0.5000

0.0625

/radbas(netprod(F1(2,:),net.b{1}'))
/= 0.5000

1.0000

0.5000

/radbas(netprod(F1(3,:),net.b{1}'))
/ = 0.0625

0.5000

1.0000

Seguidamente se tiene la matriz completa de salidas de la capa oculta:


A=[radbas(netprod(F1(1,:),net.b{1}'));radbas(netprod(F1(2,:),net.b{1}'));radba
s(netprod(F1(3,:),net.b{1}'))]
A =1.0000

0.5000

0.0625

0.5000

1.0000

0.5000

0.0625

0.5000

1.0000

Calculo de pesos y umbral de la capa de salida


Para ello se toman en cuenta las igualdades siguientes: [net.lw{2,1} b{2}] *
[A; ones) = T ; y que wb =T/[P; ones (1,Q)], con Q=3 para este caso.
Entonces se tiene:
/A1=[A ones(3,1)]
/A1 =1.0000

0.5000

0.0625

1.0000

0.5000

1.0000

0.5000

1.0000

0.0625

0.5000

1.0000

1.0000

Y resolviendo por el mtodo de la seudoinversa, o comando \ en matlab se


tiene:
/ w=A1\T'
/w = 0; -0.6533; 5.5467; 1.4800
Que son los valores de los pesos y umbral respectivamente.

Obtencin del valor de la simulacin, teniendo en cuenta que el valor de


Entrada nuevo es Pe=[4.5] y se obtiene 2.0967, se tiene:
/dist(net.iw{1,1},Pe)

297

/ =0.5000
0.5000
1.5000
/netprod(dist(net.iw{1,1},Pe),net.b{1})
/= 0.4163
0.4163
1.2488
/radbas(netprod(dist(net.iw{1,1},Pe),net.b{1}))
/= 0.8409
0.8409
0.2102
/Z=[0;-0.6533;5.5467];
/R=radbas(netprod(dist(net.iw{1,1},Pe),net.b{1}));
/Y=netprod(R,Z)
/=

-0.5494
1.1661
/sum(Y)
/= 0.6167
/Ys=sum(Y)+net.b{2}
/Ys =2.0967

Detalle de clculos de la Red de Regresin Generalizada, para los mismos


datos.
Seguidamente procedemos a obtener el detalle de los clculos. Empezamos
con la construccin de la Red. Las principales caractersticas son:
>> net=newgrnn(P,T)
architecture:
numInputs: 1
numLayers: 2
biasConnect: [1; 0]
inputConnect: [1; 0]
inputs: {1x1 cell} of inputs

298

layers: {2x1 cell} of layers


outputs: {1x2 cell} containing 1 output
targets: {1x2 cell} containing no targets
biases: {2x1 cell} containing 1 bias
inputWeights: {2x1 cell} containing 1 input weight
layerWeights: {2x2 cell} containing 1 layer weight
weight and bias values:
IW: {2x1 cell} containing 1 input weight matrix
LW: {2x2 cell} containing 1 layer weight matrix
b: {2x1 cell} containing 1 bias vector
Donde la simulacin permite obtener:
v=sim(net,Pe)
v =3.0111
Los parmetros son:
/net.iw{1,1}
ans =
4
5
6
/net.b{1}
ans =
0.8326
0.8326
0.8326
/net.lw{2,1}
ans =
1.5000

3.6000

6.7000

/ net.b{2}
ans =
[]
Los parmetros de pesos y umbrales son por definicin daos en los datos de
entrada y salida. El umbral de la capa de salida no existe por definicin
Los clculos para obtener el valor simulado son:

299

/ F1=dist(net.iw{1,1},Pe)
/F1 =
0.5000
0.5000
1.5000
/ radbas(netprod(F1(1,:),net.b{1}(1,1)'))
ans =
0.8409
/ radbas(netprod(F1(2,:),net.b{1}(2,1)'))
ans =
0.8409
/radbas(netprod(F1(3,:),net.b{1}(3,1)'))
ans =
0.2102
/A=[radbas(netprod(F1(1,:),net.b{1}(1,1)'));radbas(netprod(F1(2,:),net.b{1}(2,1)')
);radbas(netprod(F1(3,:),net.b{1}(3,1)'))]
A=
0.8409
0.8409
0.2102
/ Aout=normprod(net.lw{2,1},A)
Aout =
3.0111

300

You might also like