You are on page 1of 3

UNIVERSIDAD DE LAS FUERZAS ARMADAS

ESPE
CARRERA DE INGENIERA MECATRNICA
Nivel: Octavo

Fecha: 8 de Diciembre del 2014

Paralelo: A

Nombre: Aimacaa Pal

REDES NEURONALES ARTIFICIALES


Consisten en unidades de procesamiento densa-mente interconectadas, llamadas
neuronas por su similitud funcional con las neuronas biolgicas. Las unidades de
procesamiento reciben, pro-cesan y transmiten seales, tal como las neuronas
biolgicas.

Tipos

Perceptrn
ADELINE
Perceptor multicapa
Memorias asociativas
Mquina de Boltzmann
Mquina de Cauchy
Redes de Mosfield
Crecimiento dinmico de clulas
Redes ART

Diseo, inicializacin, regla de aprendizaje y entrenamiento de una red


ADELINE mediante MATLAB
Diseo
El diseo de la arquitectura en este tipo de redes no es ningn problema dado que el
nmero de entradas est dado por la definicin del problema al igual que el nmero de

salidas. El mdulo de redes neuronales de MATLAB contiene varias funciones para el


diseo e implementacin de este tipo de redes.
Inicializacin
La funcin initlin se usa para inicializar los pesos y elementos de tendencia de la capa
lineal dndoles valores pequeos al azar. El cdigo de inicializacin para una capa de
siete neuronas lineales y cinco entradas, sera:
[W,b] = initlin(7,5);
Si una solucin con error cero existe, entonces la funcin solvelin la encontrar. Si no
existe una solucin perfecta para el problema, la funcin regresar valores que
minimizan la suma de errores cuadrados.
Regla de aprendizaje
Siendo ejemplos de redes supervisadas, las redes lineales son entrenadas en base a
ejemplos de operacin deseada. La regla de aprendizaje de Widrow-Hoff learnwh
calcula cambios a los pesos y elementos de tendencia de la capa de procesamiento
para reducir el error mnimo cuadrado de esa capa. learnwh toma como argumentos el
vector de entrada p presentado a la red, y el error e de la red (la diferencia entre las
salida de la red a y las salidas deseadas t).
e = t-a;
[dW] = learnwh(p,e,lr);
Un argumento adicional es lr, la razn de aprendizaje, que funciona como una
ganancia en los cambios de las variables adaptables. Este parmetro es importante
porque da el tamao de los pasos hacia la convergencia. Si lr es grande, al aprendizaje
es rpido, pero si es muy grande, el aprendizaje se puede tornar inestable y tal vez aun
alejarse de la convergencia Para asegurar un aprendizaje estable, la razn de
aprendizaje lr debe ser menor al recproco del vector caracterstico (o propio o Eigen)
de la matriz P'*P. La funcin maxlinlr calcula la razn de aprendizaje mxima, que
asegure estabilidad (0.999*P'*P).

La regla Widrow-Hoff calcula cambios pequeos para los pesos y elementos de


tendencia de la neurona en el sentido que disminuya el error. Este sentido se
encuentra tomando la derivada de la suma del cuadrado de los errores (sse) con
respecto a estos parmetros.
Entrenamiento
MATLAB provee una funcin para realizar el proceso iterativo de aprendizaje, lo que se
llama entrenamiento. La funcin trainwh presenta de manera repetitiva las entradas P
a una red lineal, usando simulin, y calcula los errores con respecto al vector de salidas
deseadas T, y encuentra nuevos valores para los pesos y elementos de tendencia con
learnwh. Este proceso se repite hasta que la suma del cuadrado de los errores cae bajo
una tolerancia de error predeterminada o hasta que se haya alcanzado el nmero
mximo de pocas de entrenamiento. Las instrucciones correspondientes son:
tp = [disp_freq max_epoch err_goal lr];
[W,b,ep,tr] = trainwh(W,b,P,T,tp),
Los parmetros de entrenamiento tp determinan que tan frecuentemente se
despliagan los resultados (disp_freq), el nmero mximo de pocas deseado
(max_epoch), la tolerancia de error deseada (err_goal) y la razn de aprendizaje (lr).

Bibliografa
MARTIN, B., Sanz Molina, A. (2002). Redes Neuronales y sistemas difusos
Gonzlez, J. R. H., Hernando, V. J. M. (1995). Redes Neuronales artificiales,
fundamentos, mdulos y aplicaciones. Ra-ma.

You might also like