You are on page 1of 161

.

UNIVERSIDAD AUT

ONOMA
DEL ESTADO DE HIDALGO
INSTITUTO DE CIENCIAS B

ASICAS E INGENIER

IA
CENTRO DE INVESTIGACI

ON EN TECNOLOG

IAS DE INFORMACI

ON Y SISTEMAS
MAESTR

IA EN AUTOMATIZACI

ON Y CONTROL
CONTROLADOR PID WAVENET MULTIRESOLUCI

ON PARA SISTEMAS
SUBACTUADOS
T E S I S
QUE PARA OBTENER EL GRADO DE MAESTRO EN
CIENCIAS EN AUTOMATIZACI

ON Y CONTROL
PRESENTA:
ING. MARIO ALEJANDRO VEGA NAVARRETE
ASESORES:
DR. LUIS ENRIQUE RAMOS VELASCO
M. EN C. CARLOS ROBERTO DOM

INGUEZ MAYORGA
PACHUCA HGO. M

EXICO, DICIEMBRE 2013


Ing. Mario Alejandro Vega Navarrete
Controlador PID wavenet
multiresoluci on para
sistemas subactuados
ii
A mis padres y familiares,
quienes me han dado todo su apoyo,
su comprension, sus consejos y su paciencia
para culminar mis proyectos de manera exitosa.
Gracias a
CONACYT por la beca de Maestra
otorgada durante el periodo
Agosto 2011 - Junio 2013, con
n umero de registro 421490.
Agradecimientos
En esta secci on es mi deseo agradecer de forma breve a todos mis familiares,
catedraticos y amigos que de alguna manera contribuyeron de manera personal y/o
profesional en el desarrollo de esta tesis.
Agradezco a la Universidad Aut onoma del Estado de Hidalgo, instituci on en la
que me forme como Ingeniero, y que ahora; me ha proporcionado los medios y cono-
cimientos necesarios para culminar de manera exitosa la Maestra en Automatizacion
y Control.
Especialmente doy gracias a dios por darme la oportunidad de contar con mis
padres Alejandro Vega Absalom y Margarita Navarrete de Lucio as como a mi her-
mana Ma. Teresa Vega Navarrete, mi sobrino Julio Camilo Zamora Vega y al resto
de mi familia, quienes han sido grandes pilares en mi vida al darme siempre su amor
y apoyo incondicional, por siempre alegrarse de mis triunfos y escuchar atentamente
mis fracasos para poder aconsejarme y alentarme a culminar satisfactoriamente todos
mis proyectos. Por su gran ejemplo de temple, honestidad y perseverancia que me
dieron a lo largo de mi vida.
Igualmente agradezco a el Dr. Luis Enrique Ramos Velasco y al M. en C. Carlos
Roberto Domnguez Mayorga, director y codirector, respectivamente, de este trabajo
de investigaci on por su tiempo y conocimientos brindados, los cuales; me permitieron
realizar satisfactoriamente este proyecto. As mismo les agradezco por su amistad la
cual me ayudo a crecer personal y profesionalmente.
A los sinodales Dr. Hugo Romero Trejo, Dr. Abel Garca Barrientos y Dr. Eduardo
Steed Espinoza Quesada por su tiempo invertido y las grandes aportaciones de su
parte en la revisi on de este trabajo de tesis.
Finalmente, agradezco a todas la personas que directa e indirectamente contri-
buyeron en este trabajo, a mis compa neros y amigos de generacion Mario O. Ordaz
Oliver, Jose A. Ortega Melo y Leonardo A. Martnez Rivera, quienes siempre tuvieron
algo que aportar y a toda la gente de ciencia y letras que mediante la divulgaci on de
su conocimiento y trabajo, fue posible sustentar y desarrollar esta tesis.
Resumen
Controlador PID wavenet multiresoluci on para sistemas
subactuados
En el presente trabajo de tesis se dise nan dos controladores adaptables inteligentes
los cuales son un PID wavenet, que b asicamente, es un controlador PID clasico cuyas
ganancias son adaptadas en lnea mediante una red neuronal wavelet; y un PID mul-
tiresolucion wavenet, el cual hace uso de la tecnica de multiresoluci on basada en la
teora wavelet para descomponer la se nal de error, con la nalidad de obtener varias
se nales a diferente escala-frecuencia; las cuales son escaladas y sumadas para generar
una se nal de control que compensa las incertidumbres del sistema. Dicho controlador
tambien es sintonizado y adaptado en lnea mediante redes neuronales wavelet. Es im-
portante mencionar que este controlador es una contribuci on original como resultado
del trabajo de investigacion.
La validaci on de los dos algoritmos de control propuestos, se realizan en simulaci on
numerica en un sistema subactuado carro-pendulo invertido construido por Quanser.
Los resultados obtenidos tambien forman parte de la contribuci on del trabajo de
investigaci on ya que de acuerdo a nuestra b usqueda bibliograca no se encontro apli-
caciones de estos controladores a sistemas subactuados.
Abstract
Multiresolution wavenet PID controller for underactuated
systems
In this work two intelligent adaptable controllers are designed one is a PID wavenet,
which is basically a classical PID controller whose gains are adapted online using
a wavelet neural network; and the second is a Multiresolution PID wavenet, which
uses the multiresolution techniques based on wavelet theory to decompose the error
signal, to obtain several signals on a dierent scale-frequency, which are scaled and
summed to generate a control signal which compensates for uncertainties system.
This controller also is tuned and adapted online using wavelet neural networks. It is
noteworthy that this controller is an original contribution as a result of the research.
The validation of the two control algorithms proposed, are doing on numerical
simulation, is performed on a system underactuated inverted-pendulum constructed
by Quanser. The results obtained are also part of the contribution of the research
since according to our literature search did not nd these drivers applications to
underactuated systems.

Indice general
Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v
Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii
Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ix

Indice general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xi

Indice de guras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xv

Indice de tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xix


Acr onimos y abreviaturas XXI
Notaci on XXIII
1. Introduccion 1
1.1. Observaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Hipotesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . . . 3
1.4. Propuesta de soluci on . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.5. Justicacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.6. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.7. Metodologa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.8. Aportaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.9. Organizaci on de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . 5
2. Estudio del estado del arte 7
2.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2. Teora wavenet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3. PID multiresolucion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3. Modelo dinamico en tiempo discreto 11
3.1. Modelo no lineal en tiempo continuo . . . . . . . . . . . . . . . . . . 11
3.1.1. Representacion en variables de estado . . . . . . . . . . . . . . 12
3.1.2. Modelo no lineal en tiempo discreto . . . . . . . . . . . . . . . 13
3.2. Comentarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
xi
xii

Indice general
4. Controlador PID wavenet discreto 17
4.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.2. Controlador PID discreto inteligente . . . . . . . . . . . . . . . . . . 18
4.2.1. Identicaci on del sistema . . . . . . . . . . . . . . . . . . . . . 18
4.2.2. Controlador PID discreto . . . . . . . . . . . . . . . . . . . . . 21
4.2.3. Auto-sintonizaci on . . . . . . . . . . . . . . . . . . . . . . . . 21
4.3. Resultados de la simulacion numerica . . . . . . . . . . . . . . . . . . 22
4.3.1. Resultados de la identicaci on del sistema . . . . . . . . . . . 23
4.3.2. Resultados del controlador PID wavenet . . . . . . . . . . . . 30
4.3.3. Resultados de la auto-sintonizaci on . . . . . . . . . . . . . . . 32
4.4. Resultados experimentales . . . . . . . . . . . . . . . . . . . . . . . . 33
4.4.1. Resultados de la identicaci on del sistema . . . . . . . . . . . 34
4.4.2. Resultados del controlador PID wavenet . . . . . . . . . . . . 40
4.4.3. Resultados de la auto-sintonizaci on . . . . . . . . . . . . . . . 41
5. PID wavenet multiresoluci on 43
5.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2. Controlador PIDMR . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.3. Reglas de auto-sintonizado del controlador PIDMR . . . . . . . . . . 48
5.4. Resultados de la simulacion numerica . . . . . . . . . . . . . . . . . . 49
5.4.1. Resultados de la identicaci on . . . . . . . . . . . . . . . . . . 50
5.4.2. Resultados del control PIDMR wavenet . . . . . . . . . . . . . 56
5.4.3. Resultados de la autosintonizacion . . . . . . . . . . . . . . . 58
6. Conclusiones y trabajos futuros 61
6.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2. Trabajos futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
Bibliografa 63
Glosario 69
A. Modelo matematico del carro-pendulo invertido 73
B. Conceptos previos 77
B.1. Conceptos generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
B.2. Comentarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
C. Teora wavelet 93
C.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
C.2. An alisis de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

Indice general xiii


C.2.1. Funciones periodicas . . . . . . . . . . . . . . . . . . . . . . . 94
C.2.2. Coecientes y series de Fourier . . . . . . . . . . . . . . . . . 94
C.2.3. Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . 96
C.2.4. Limitaciones del an alisis de Fourier . . . . . . . . . . . . . . . 96
C.2.5. Transformada de Fourier ventaneada . . . . . . . . . . . . . . 97
C.3. Teora wavelet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
C.3.1. Transformada wavelet . . . . . . . . . . . . . . . . . . . . . . 101
C.3.1.1. Transformada wavelet continua . . . . . . . . . . . . 102
C.3.1.2. Transformada wavelet discreta . . . . . . . . . . . . 104
C.4. An alisis multiresolucion basada en wavelets . . . . . . . . . . . . . . . 105
C.5. An alisis sub-banda . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
C.5.1. Analisis de descomposicion . . . . . . . . . . . . . . . . . . . . 110
C.5.2. Sntesis de descomposici on . . . . . . . . . . . . . . . . . . . . 112
C.6. Comentarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
D. Redes neuronales articiales 115
D.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
D.2. El perceptr on y el perceptr on multicapa . . . . . . . . . . . . . . . . 116
D.3. Redes neuronales con funciones de base radial . . . . . . . . . . . . . 120
D.4. Comentarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
E. Teora wavenet 123
E.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
E.2. Algoritmos wavenets . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
E.3. Comentarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
F. Algoritmos programados en MATLAB y simulink 129
F.1. MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
F.1.1. Etapa de identicaci on . . . . . . . . . . . . . . . . . . . . . . 129
F.1.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . 131
F.1.3. PID wavenet . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
F.1.4. An alisis de la multiresolucion . . . . . . . . . . . . . . . . . . 132
F.1.5. PID wavenet multiresolucion . . . . . . . . . . . . . . . . . . . 132
G. Artculos sometidos 135
G.1. European Control Conference . . . . . . . . . . . . . . . . . . . . . . 135

Indice de guras
1.1. Esquema simple de un control cl asico, donde y
ref
, e, u, y, P y r, son:
la se nal de referencia del sistema, el error entre la salida y la referencia,
la se nal de control, la salida del sistema, las perturbaciones externas al
sistema y el ruido en la medicion, respectivamente. . . . . . . . . . . 1
4.1. Esquema a bloques del controlador PID auto-sintonizado mediante una
red neuronal wavenet para un sistema din amico SISO. . . . . . . . . 18
4.2. Esquema de una red neuronal wavenet con ltro IIR, donde
l
() =

a
l
,b
l
= (
kb
l
a
l
). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.3. Comportamiento de los pesos de la wavenet en simulaci on numerica. . 24
4.4. Comportamiento de las dilataciones de la wavenet en simulaci on nu-
merica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.5. Comportamiento de las traslaciones de la wavenet en simulacion nu-
merica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.6. Comportamiento de los parametros de realimentaci on del ltro IIR en
simulaci on numerica. . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.7. Comportamiento de los parametros de prealimentacion del ltro IIR
en simulaci on numerica. . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.8. Error de identicacion de la red neuronal wavelet en simulacion numerica. 30
4.9. Seguimiento del sistema en simulaci on numerica. . . . . . . . . . . . . 31
4.10. Error de seguimiento del sistema en simulacion numerica. . . . . . . . 31
4.11. Comportamiento del controlador PID discreto adaptable en simulaci on
numerica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.12. Ganancias del controlador PID en simulaci on numerica. . . . . . . . . 33
4.13. Carro-pendulo invertido Quanser. . . . . . . . . . . . . . . . . . . . . 34
4.14. Comportamiento de los pesos de la wavenet en la prueba experimental. 35
4.15. Comportamiento de las dilataciones de la wavenet en la prueba expe-
rimental. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.16. Comportamiento de las traslaciones de la wavenet en la prueba expe-
rimental. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
xv
xvi

Indice de guras
4.17. Comportamiento de los parametros de realimentacion del ltro IIR en
la prueba experimental. . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.18. Comportamiento de los par ametros de prealimentaci on del ltro IIR
en la prueba experimental. . . . . . . . . . . . . . . . . . . . . . . . . 39
4.19. Error de identicaci on de la red neuronal wavelet en la prueba experi-
mental. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.20. Seguimiento del sistema en la prueba experimental. . . . . . . . . . . 40
4.21. Error de seguimiento del sistema en la prueba experimental. . . . . . 41
4.22. Comportamiento del controlador PID discreto adaptable en la prueba
experimental. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.23. Ganancias del controlador PID en la prueba experimental. . . . . . . 42
5.1. Esquema simple de un control PID cl asico, donde y
ref
, e, u, y, P y r,
son la referencia del sistema, el error entre la salida y la referencia, la
se nal de control, la salida del sistema, las perturbaciones externas al
sistema y el ruido en la medicion, respectivamente. . . . . . . . . . . 44
5.2. Esquema de descomposici on Sub-banda del error de seguimiento e a
un nivel de descomposici on N=3. . . . . . . . . . . . . . . . . . . . . 47
5.3. Diagrama del controlador PIDMR en lazo cerrado para un sistema
SISO. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.4. Diagrama general del controlador PID multiresoluci on wavenet . . . . 50
5.5. Salida estimada del sistema con el PIDMR en lnea. . . . . . . . . . . 51
5.6. Error de identicaci on de la wavenet con el PIDMR en lnea. . . . . . 51
5.7. Dilataciones de la wavenet. . . . . . . . . . . . . . . . . . . . . . . . . 52
5.8. Traslaciones de la wavenet. . . . . . . . . . . . . . . . . . . . . . . . . 53
5.9. Pesos de la wavenet. . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.10. Coecientes de retroalimentacion del ltro IIR. . . . . . . . . . . . . . 55
5.11. Coecientes de prealimentaci on del ltro IIR. . . . . . . . . . . . . . 56
5.12. Se nal de control del PIDMR wavenet. . . . . . . . . . . . . . . . . . . 57
5.13. Comportamiento en seguimiento de trayectorias. . . . . . . . . . . . . 57
5.14. Error en seguimiento de trayectorias. . . . . . . . . . . . . . . . . . . 58
5.15. Ganancias frecuenciales del PIDMR a una descomposici on N = 3. . . 59
A.1. Quansers inverted pendulum. . . . . . . . . . . . . . . . . . . . . . . 73
C.1. Representaci on de una funci on periodica f(x), con perodo P. . . . . 94
C.2. Representaci on gr aca de (C.13), donde g(t) es la funci on de Gauss, t
es el tiempo, es el factor de desplazamiento. . . . . . . . . . . . . . 98
C.3. Gr acas de las wavelets madre dadas en la Tabla C.1. . . . . . . . . . 101
C.4. Plano tiempo-frecuencia para diferentes bases ortogonales: a) base de
Fourier, b) base de Gabor y c) base wavelet. . . . . . . . . . . . . . . 106

Indice de guras xvii


C.5. Arquitectura de una red neuronal wavelet SISO. . . . . . . . . . . . . 109
C.6. An alisis de descomposici on de la funcion f[n]. . . . . . . . . . . . . . 109
C.7. Sntesis de descomposicion de la se nal f[n]. . . . . . . . . . . . . . . . 110
C.8. Diagrama de una convoluci on seguida de una decimaci on a dos, donde
c
i1
[n], c
i,k
[n] y
i,k
[n] son la se nal de entrada, la se nal de salida y la
se nal resultante de la convoluci on entre la entrada y el ltro conjugado
h[k] de longitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
C.9. Diagrama de una convoluci on seguida de una decimaci on a dos, donde
d
i1
[n], d
i,k
[n] y
i,k
[n] son la se nal de entrada, la se nal de salida y la
se nal resultante de la convoluci on entre la entrada y el ltro conjugado
g[k] de longitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
C.10.Diagrama de una interpolacion a dos seguida de una convolucion, donde
c
i
[n], c

i,k
[n] y
i,k
[n] son la se nal de entrada, la se nal de salida y la se nal
resultante de la interpolaci on a dos de la entrada, y g[k] es el ltro de
longitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
C.11.Diagrama de una interpolacion a dos seguida de una convolucion, donde
d
i
[n], d

i,k
[n] y
i,k
[n] son la se nal de entrada, la se nal de salida y la se nal
resultante de la interpolaci on a dos de la entrada, y g[k] es el ltro de
longitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
D.1. Modelo de McCulloch-Pitts de una neurona, donde x
l
, w
l
, f(), y, y v
t
,
son la l-esima se nal de entrada, el peso que conecta la l-esima entrada
con el CPU, la funcion de activacion, la se nal de salida y el umbral,
respectivamente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
D.2. Estructura de un perceptron de una capa, donde x
j
, w
j,l
, f(), y
l
, v
t
, son
la j-esima se nal de entrada, el peso que conecta la j-esima entrada con
l-esimo nodo de la capa de salida, la funcion de activaci on, la l-esima
se nal de salida y el umbral, respectivamente. . . . . . . . . . . . . . . 117
D.3. Estructura de un perceptr on multicapa de tres capas, donde x
j
, w
j,l
,
w
l,k
, f(), y
l
, v
t
, son la j-esima se nal de entrada, el peso que conecta
la j-esima entrada con l-esimo nodo en la primera capa, el peso que
conecta el l-esima nodo de la primera capa con el k-esimo nodo de la
capa de salida, la funci on de activaci on, la l-esima se nal de salida y el
umbral, respectivamente. . . . . . . . . . . . . . . . . . . . . . . . . . 118
D.4. Estructura de una red neuronal con funciones de base radial, donde
x
j
, C
l
, W
i
, () y y
i
son la entrada en el nodo j, el vector de pesos
del nodo l, el vector de pesos del nodo i, la funci on de activaci on y la
salida en el nodo i, respectivamente. . . . . . . . . . . . . . . . . . . . 121
xviii

Indice de guras
E.1. Diagrama de una red neuronal, donde u(t), y son la se nal entrada, la
se nal de salida de la red neuronal, respectivamente y (), w son la
funci on de activacion y los pesos que hay entre las neuronas, respecti-
vamente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
E.2. Diagrama del ltro IIR, donde z(t), y son la se nal de entrada, la se nal
de salida del ltro IIR, respectivamente y c, d, son los coecientes del
ltro. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
E.3. Diagrama de la wavenet con el ltro IIR, donde u(t), y son la se nal de
entrada, la se nal de salida de la wavenet con un ltro IIR, respectiva-
mente, a, b, w y c, d, son los parametros de la wavenet y coecientes
del ltro IIR, respectivamente. . . . . . . . . . . . . . . . . . . . . . . 126

Indice de tablas
4.1. Par ametros del modelo matem atico . . . . . . . . . . . . . . . . . . . 22
4.2. Par ametros de la red neuronal wavelet . . . . . . . . . . . . . . . . . 25
4.3. Valores iniciales de la red neuronal en simulacion numerica . . . . . . 27
4.4. Valores iniciales de la red neuronal en la prueba experimental. . . . . 37
5.1. Par ametros de la wavenet . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2. Valor de tazas de aprendizaje y valores de inicializaci on . . . . . . . . 50
A.1. Parametros del modelo matematico . . . . . . . . . . . . . . . . . . . 75
C.1. Algunos ejemplos com unes de wavelets madre. . . . . . . . . . . . . . 100
C.2. ALGORITMO: Algoritmo de an alisis de descomposici on . . . . . . . 111
C.3. ALGORITMO: Algoritmo de sntesis de descomposici on . . . . . . . 113
D.1. Algunos ejemplos com unes de funciones de activacion . . . . . . . . . 119
D.2. ALGORITMO: Algoritmo K-means . . . . . . . . . . . . . . . . . . . 121
F.1. MATLAB: Funcion: Red neuronal wavelet para la identicacion del
sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
F.2. MATLAB: Funcion: modelo matem atico . . . . . . . . . . . . . . . . 131
F.3. MATLAB: Funcion: PID discreto adaptable . . . . . . . . . . . . . . 132
F.4. MATLAB: Programa: Analisis de la multiresoluci on . . . . . . . . . . 132
F.5. MATLAB: Funcion: PID wavenet multiresoluci on . . . . . . . . . . . 132
xix
Acr onimos y abreviaturas
Siglas Descripci on
CITIS Centro de Investigaciones en Tecnologas de Infor-
macion y Sistemas.
CPU Unidad central de procesamiento.
FEC Filtro de espejo de cuadratura.
IIR Filtro de respuesta al impulso innito.
LMS Metodo de mnimos cuadrados.
MIMO Sistema de m ultiples entradas y m ultiples salidas.
MPID Controlado proporcional integral derivativo multi-
resoluci on.
PID Control proporcional integral y derivativo.
PIDMR Controlador PID multiresoluci on.
RBF Funciones de base radial.
RNW Redes neuronales wavelets.
SIMO Sistema de una entrada y m ultiples salidas.
SISO Sistema de una entrada y una salida.
TTCF Transformada de tiempo corto de Fourier.
xxi
Notaci on
Smbolo Descripci on
A B A es por denici on igual a B.
a A a es un elemento de A.
A
1
Inversa de la matriz A.
A
nm
A es una matriz real de dimension n m.
A B A es un subconjunto propio de B.
A B A es un subconjunto de B.
A
T
A transpuesta.
C Espacio de todos los n umeros complejos.
F Campo.
J Conjunto de todos los n umeros enteros positivos.
x Complejo conjugado de x.
,= Desigualdad.
A B A es equivalente a B.
K Es R o C.
(V, < , >) Espacio con producto interno.
(X, d) Espacio metrico.
e
x
Exponencial de x.
f : A B f mapea el domino A en B.
I Matriz identidad.
i

1.
< , > Producto interno.
Interseccion.
N Campo de todos los n umeros naturales.
b , A b no es un elemento de A.
Para todo.
A B A es perpendicular a B.
Q Campo de todos los n umeros racionales.
R Espacio de todos los n umeros reales.
R
n
Espacio vectorial de los reales de dimension n.
xxiii
xxiv Notacion
Smbolo Descripci on

Sumatoria.
Sumatoria directa de subespacios.
x x
n
x tiende a x
n
.
Uni on.
Conjunto vacio.
x x estimada.
Captulo 1
Introducci on
Un esquema simple de un control b asico esta conformado por tres bloques como
se muestra en la Figura 1.1: La planta que es el sistema a ser controlado, el cual
puede ser afectado por perturbaciones externas, un sensor que mide la variable de
interes y nalmente el controlador que hace que la planta se comporte de una manera
predeterminada.
Figura 1.1: Esquema simple de un control clasico, donde y
ref
, e, u, y, P y r, son:
la se nal de referencia del sistema, el error entre la salida y la referencia, la se nal de
control, la salida del sistema, las perturbaciones externas al sistema y el ruido en la
medici on, respectivamente.
Uno de los controladores m as empleados en la industria moderna y en la antigua
es el control Proporcional, Integral y Derivativo ( PID ), debido a la facilidad con la
que se realiza e implementa, ya que s olo requiere hacer pruebas b asicas, ademas que
presenta robustez [69].
Inspirado en la estructura de un PID clasico se propone en este trabajo de tesis una
1
2 Captulo 1: Introduccion
versi on modicada de un PID clasico discreto, llamado PID wavelet. Esta estructura
hace uso de la teora wavelet para tener un mejorar comportamiento del sistema en
lazo cerrado. En la estructura del PID wavelet propuesto se hace una descomposici on
de la se nal de error, la cual permite tener diferentes detalles de dicha se nal que se esta
tratando [30, 52, 61]. La propuesta de sintonizaci on y adaptacion de las ganancias del
controlador PID wavelet se proponen como una contribuci on original de este trabajo
de investigacion. El dise no y la simulaci on de los algoritmos de los controladores PID
propuestos se desarrolla bajo el entorno de programacion de MATLAB y Simulink.
La validaci on de ambos esquemas de control propuestos: PID wavenet y PID
wavenet multiresolucion, se hacen empleando el carro-pendulo invertido construido
por Quanser. El primer controlador se emplea para la estabilizacion del carro-pendulo,
asi como en el seguimiento de una trayectoria senoidal, el segundo solo se realiza en
simulaci on numerica para seguimiento de una trayectoria senoidal.
1.1. Observacion
Un tipo de sistemas que ha llamado la atenci on de la comunidad cientca son
los sistemas subactuados. Se entiende por sistema subactuado aquel que tiene menos
actuadores que grados de libertad. Ejemplos de este tipo de sistemas son, el acrobot, el
pendubot, el pendulo invertido, ball and beam, sistemas subacuaticos, robots bpedos,
aeronaves de aterrizaje y despegue vertical, y otro tipo de robots moviles [18].
Un metodo de autosintonizacion es una consideraci on importante en el dise no de
un controlador adaptable de un sistema desconocido con variaciones lentas. La idea
b asica en control adaptable es estimar los par ametros de la planta que varan y ajustar
los par ametros del controlador en lnea, basados en las se nales del sistema usando los
par ametros estimados en el calculo de entrada de control. Sin embargo, las tecnicas
tradicionales de control adaptable auto-sintonizable pueden s olo tratar con sistemas
lineales o en su defecto casos especiales de sistemas no lineales [59]. Tpicamente esas
tecnicas asumen que el modelo del sistema esta operando en una region lineal. Los
par ametros de un modelo de la planta linealizado son estimados de manera recursiva
y son usados para actualizar el controlador. Com unmente no es posible representar
adecuadamente las caractersticas del sistema, tales como no linealidades, retardos en
el tiempo, saturaci on, par ametros variables en el tiempo, y en general la complejidad
del sistema. Dada la importancia del control adaptable, es necesario desarrollar una
tecnica en la cual la estructura del modelo de planta no lineal puede ser identicada
por un proceso adaptable.
Con base a estas observaciones en la siguiente secci on se enuncia la hipotesis de
trabajo.
Captulo 1: Introduccion 3
1.2. Hip otesis
Es posible desarrollar un algoritmo del PID wavelet adaptable, empleando para
esto una red neuronal con funciones de activaci on wavelets hijas, para el control de
sistemas subactuados.
1.3. Planteamiento del problema
El problema que se plantea en este trabajo de investigacion es: C omo controlar
un sistema subactuado donde se desconoce su modelo matematico?
1.4. Propuesta de solucion
La solucion que se propone al problema planteado es, emplear dos controladores
adaptables inteligentes del tipo PID, los cuales hacen uso de la teora wavelet: el
primero un controlador PID clasico discreto cuyas ganancias son auto-sintonizadas
empleando para esto un termino de la red neuronal cuyas funciones de activacion son
wavelets hijas, la cual dicha red realiza la identicaci on de la din amica del sistema
subactuado y es probado tanto en simulacion numerica como experimentalmente en
el sistema carro-pendulo invertido como se detalla en el Captulo 4; y el segundo con-
trolador un PID multiresolucion el cual es probado unicamente a nivel de simulacion
numerica cuyos resultados son mostrados en el Captulo 5. En el segundo controlador
el error de seguimiento se descompone en sus diferentes componentes escala-frecuencia
empleando para esto un sistema de sub-banda; donde cada componente del error es
ponderado con una ganancia, donde a su vez estas ganancias son auto-sintonizables
empleando el termino de la red neural wavelet. Una de las caractersticas de este se-
gundo controlador es que gracias al proceso de an alisis-sntesis al que es sometido la
se nal del error de seguimiento se obtienen sus componentes de alta, mediana y baja
frecuencia lo cual permite ponderar con un factor cercano a cero la componente de
alta frecuencia que com unmente corresponden a las se nales de ruido y que un PID
cl asico por tanto amplica en su componente derivativa.
Es importante destacar que ambos controladores tienen la ventaja de considerar
desconocido el modelo matem atico del sistema subactuado a controlar, otra ventaja
que presenta el PID multiresoluci on wavelet es que requiere unicamente de la se nal
de error de seguimiento, es decir no requiere la derivada [1].
4 Captulo 1: Introduccion
1.5. Justicaci on
Desde el punto de vista de control, se puede hacer una clasicaci on de las tecni-
cas empleadas para controlar un sistema dado, estas son tecnicas que hacen uso del
modelo para el dise no del controlador y tecnicas que no hacen uso del modelo. Uno
de los principales problemas a los que se enfrenta el ingeniero de control es obtener
e interpretar el modelo matematico del sistema que se quiere controlar; es por ello
que surge la necesidad de desarrollar algoritmos de control donde se asuman desco-
nocidos los modelos del sistema que se quiere controlar. En este sentido, en esta tesis
se proponen dos algoritmos para el control de un sistema subactuado asumiendo que
no se conoce el modelo matematico; ademas el sistema carro-pendulo a utilizar es de
naturaleza inestable, lo cual en las tecnicas de sintonizaci on existentes en la literatura
no es posible de aplicar ya que estos asumen que sistema debe ser estable [72, 49].
1.6. Objetivos
Objetivo general
Dise nar e implementar dos algoritmos de control PID wavenet que no hagan uso
del modelo matematico del sistema, para el control de un sistema subactuado carro-
pendulo invertido.
Objetivos especcos
Los objetivos especcos de la tesis son los siguientes:
Analizar los algoritmos cl asicos de los controladores PID, tanto en caso continuo
como discreto.
Dise nar el algoritmo de un controlador PID multiresoluci on adaptable emplean-
do redes neuronales wavalets.
Implementar el algoritmos de un controlador PID multiresolucion adaptable a
un sistema subactuado.
1.7. Metodologa
La metodologa a usar ser a teorica con simulaci on en computadora y aplicaci on a
un modelo matem atico de un sistema fsico de laboratorio, el cual se encuentra en el
laboratorio de control ubicado en las instalaciones del CITIS. Dicha metodologa esta
Captulo 1: Introduccion 5
basada en metodos modernos de procesamiento digital de se nales aplicado al modelo
del pendulo invertido, se utilizar a el software MATLAB para la programaci on de los
algoritmos obtenidos.
1.8. Aportaciones
Las aportaciones de este trabajo de investigaci on son las siguientes:
Aplicaci on de un PID wavenet en la estabilizaci on y seguimiento de trayectorias
en un sistema subactuado.
Desarrollo de un PID multiresoluci on wavenet para un sistema subactuado.
Aplicaci on de un PID multiresolucion wavenet en la estabilizacion y seguimiento
de trayectorias en un sistema subactuado.
1.9. Organizacion de la tesis
En el Captulo 2, Estudio del estado del arte, se analizan los trabajos relaciona-
dos con el desarrollo de esta investigaci on. En el Captulo 3 se da la justicacion
matematica del uso de la red neuronal wavenet ( RNW ) y se dicta su teorema y
prueba respectiva. En el Captulo 4, Controlador PID Wavenet Discreto, se desarro-
lla un controlador PID wavelet discreto y se presentan los resultados de simulaci on
sobre un sistema carro-pendulo invertido. En el Captulo 5, PID Wavenet Multireso-
lucion, se presenta las caractersticas del controlador PID wavenet multiresolucion y
se presentan los resultados en simulaci on sobre un sistema de control de posicion del
carro-pendulo invertido. Finalmente, en el Captulo 6, Conclusiones, se discuten los
principales resultados del trabajo de investigaci on, tambien se presentan los trabajos
futuros relacionados con este estudio.
Captulo 2
Estudio del estado del arte
En este captulo se presenta el estado del arte sobre el tema de control de sistemas
subactuados empleando redes neuronales wavelets. En general existen miles de publi-
caciones sobre cada una de las dos area de interes que son: los sistemas subactuados
y las redes neuronales, sin embargo en este trabajo de investigacion se presentan los
trabajos m as importantes que se consideran y que est an directamente relacionados
con el tema de tesis. Es importante mencionar que durante la b usqueda bibliogr a-
ca no se encontraron publicaciones que haga uso de un PID multiresoluci on para el
control de sistemas subactuados.
La organizaci on del presente captulo consta de la Secci on 2.1 titulada Introduc-
cion, en la cual se da un panorama general de las areas de enfasis utilizadas en el
desarrollo de la presente tesis y posteriormente, se detallan los trabajo realizados en
dichas areas, como son la teora wavelet, controlador PID en su conguracion multi-
resoluci on y sistemas subactuados en las Secciones 2.2 y 2.3, respectivamente.
2.1. Introducci on
En la actualidad existen diferentes publicaciones que abordan los temas tratados
en el presente trabajo de investigaci on, pero es importante destacar que no se han
realizado trabajos que aborden todas las areas en un mismo problema; es decir exis-
ten trabajos que controlan sistemas subactuados por medio de tecnicas de control no
lineal [18], donde consideran que los controladores no lineales tienen ganancias jas.
Por otro lado existen publicaciones que controlan este tipo de sistemas con tecnicas
de control adaptable [68]. Despues surgen trabajos que implementan redes neuronales
para auto-sintonizar dinamicamente las ganancias de los controladores, sin embargo
estos requieren del conocimiento del modelo matematico del sistema en sus diferentes
zonas de operacion; con esto surge la necesidad de aproximar los modelos matem a-
ticos por medio de redes neuronales, campo donde las redes neuronales que emplean
7
8 Captulo 2: Estudio del estado del arte
funciones de activaci on wavelets han tenido mejores resultados [9, 16, 70]. Uno de sus
inconvenientes es que son entrenadas fuera de lnea empleando para esto las se nales
del desempe no previamente tomadas del sistema a ser controlado.
Por otro lado se sabe que el PID clasico por su parte derivativa es altamente sen-
sible al ruido; lo cual tiene por consecuencia la amplicacion del mismo. Por tanto
Parvez y Zhiqianglo [52] introducen el PID multiresolucion; el cual es capaz de des-
componer las se nales y eliminar las altas frecuencias correspondientes a los diferentes
tipos de ruido que se pueden presentar en los sistemas [10].
2.2. Teora wavenet
Tanto en la literatura de control, como en la de sistemas computacionales; existen
una gran cantidad de artculos relacionados con las redes wavenet, un ejemplo de ello
est a en [13, 32, 58, 76]. Sin embargo, algunos son de mayor relevancia; como es el caso
del artculo [34] publicado en 1998 por Liu et al.; en el se realiza la identicacion de
sistemas din amicos no lineales por medio de una red neuronal wavelet cuyas reglas
de aprendizaje se plantearon mediante el metodo de Lyapunov con lo que aseguraba
la estabilidad de la red de identicacion global. Pero, que no son probadas para la
identicaci on de sistemas subactuados.
Uno de los trabajos m as importantes es [81], que realizan Zaho et al. en 2006 en el
cual, se presenta la implementacion de una red neuronal wavelet con taza de aprendi-
zaje variable para la caracterizaci on de movimiento de un prototipo de mano bi onica
subactuado. Dicha red, toma se nales por medio de la adquisici on de tres electrodos
situados en los brazos de un operador humano; esto representa un gran avance en
el analisis de los sistemas subactuados ya que en el, se obtiene como resultado un
modelo matem atico que aproxima de manera ecaz el sistema con el cual se obtiene
el conocimiento del comportamiento del sistema en diferentes tareas complejas como
el de apretar la punta de los dedos o sujetar un objeto, por mencionar algunos, pero
tiene el inconveniente de requerir una red neuronal multicapa. En el presente trabajo
se demuestra que es suciente con una red de base radial de una sola capa lo cual
reduce la capacidad de computo requerida para su implementaci on.
Dos a nos m as tarde Abiyer et al. realizan la conjunci on de las RNW para la iden-
ticacion de sistemas dinamicos una entrada, una salida (SISO) para su posterior
control mediante un controlador difuso. Dicho trabajo hace uso del metodo de apren-
dizaje del gradiente descendiente y fue reportado en el artculo [2]; este trabajo es
de gran relevancia debido a que en el presente artculo igualmente se utiliza una red
neuronal wavelet basada en el metodo del gradiente descendiente.
Posteriormente en 2010 Ebadat et al., implementan en [17], un algoritmo de apro-
ximacion de se nales no lineales mediante una RNW la cual utiliza una regla de apren-
Captulo 2: Estudio del estado del arte 9
dizaje difusa basada en modelos Takagi-Sugeno los cuales conservaran la linealidad
de los par ametros propios de la red con la nalidad de reducir la cantidad de reglas
difusas.
Por ultimo y mas relevante en 2011 Domnguez et al. demuestran en [15] el fun-
cionamiento de una red neuronal wavenet de base radial que emplea el metodo del
gradiente descendiente pero esta identicacion se realiza sobre la caracterizaci on de
una se nal de electrocardiograma.
2.3. PID multiresoluci on
Parvez y Gao en 2005 proponen por primera vez en la literatura el MPID en
[53] y muestran gr acamente que un PID clasico discreto es un caso particular del
MPID ya que, al realizar la descomposicion del error tiempo-frecuencia mediante la
Transformada wavelet (TW), particularmente mediante la de Daubechies de segundo
orden [10]; concluyeron que esta descomposici on est a relacionada con los diferentes
componentes del PID clasico como lo es la parte proporcional con la componente
de baja frecuencia, la parte integral con la componente de mediana frecuencia y la
parte derivativa con las altas frecuencias. Ademas resulta una se nal de control suave
ponderando igual con cero la ganancia de la componente de altas frecuencias. Una
de las desventajas de este algoritmo propuesto es que actualmente no existe en la
literatura un metodo para la sintonizaci on del MPID, una contribuci on de esta tesis
es proponer una wavenet para la identicaci on del sistema donde las ganancias del
MPID se auto-sintonizan utilizando un termino del modelo identicado multiplicado
por el error de seguimiento (ver la Seccion 5.3).
En 2010 Cruz et al., implementaron en [9], un MPID auto-sintonizado mediante
una RNW y cabe destacar que en este trabajo hace uso de dicha red para sistemas
no lineales completamente actuados. As mismo en el a no 2013 Ramos et al. en [70]
realizaron el control de un motor de Corriente Alterna (AC) mediante un PID cl asico
discreto auto-sintonizado mediante una RNW con un ltro IIR en cascada.
En el presente trabajo de investigacion se toman los resultados existentes como
son el PID multiresoluci on propuesto en [52] y una red wavenet dada en [80].
Para as, controlar un sistema subactuado por medio de un controlador PID
multiresolucion, cuyas ganancias se adaptan en lnea mediante una wavenet,
cuya salida tiene un ltro IIR en cascada; con la nalidad de podar las
neuronas que menos contribuyen en el proceso de identicaci on [14].
Captulo 3
Modelo dinamico en tiempo
discreto
En el presente captulo se justica el uso de la red neuronal wavenet como una
herramienta que junto con un ltro IIR congurado en cascada, realizan la aproxi-
macion de la dinamica del sistema no lineal subactuado. Primeramente, se realiza un
analisis del modelo matem atico general para as poderlo separar tanto en sus coor-
denadas actuadas llamadas tambien uniones activas, as como en sus coordenadas no
actuadas llamadas tambien uniones pasivas; posteriormente se obtiene un modelo no
lineal discreto, para esto se sustituyen las aceleraciones pasivas en la parte de las ace-
leraciones activas para llegar a una representaci on entrada-salida, la cual es similar a
la estructura de la red wavelet con el ltro IIR propuestos en esta tesis.
3.1. Modelo no lineal en tiempo continuo
En esta seccion se obtiene un modelo en tiempo discreto para un robot de n grados
de libertad, a partir de su modelo en tiempo continuo, la ecuaci on dinamica de un
robot manipulador de n grados de libertad en tiempo continuo puede escribirse como
[64]:
M(q) q +C(q, q) +g (q) = (3.1)
donde q es el vector de dimensi on n 1 cuyas componentes son las variables de las
articulaciones (coordenadas generalizadas), M(q) es la matriz de inercia de dimension
n n, la cual tiene las propiedades de ser simetrica y denida positiva; C(q, q) es
el vector de Coriolis y fuerzas centrpetas; G(q) son los terminos gravitacionales y
es el vector de dimensiones n 1 de fuerzas generalizadas. Para un robot de n
grados de libertad donde m < n son los grados de libertad activos y l = n m son
los grados de libertad pasivos. La forma est andar de representar la din amica de un
11
12 Captulo 3: Modelo dinamico en tiempo discreto
sistema subactuado est a dada por [66, 65]
M
11
q
1
+M
12
q
2
+C
1
(q, q) +g
1
(q) = 0 (3.2)
M
21
q
1
+M
22
q
2
+C
2
(q, q) +g
2
(q) = (3.3)
donde q
1
R
l
y q
2
R
m
, ademas
M(q) =
_
M
11
M
12
M
21
M
22
_
, C(q, q) =
_
C
1
(q, q)
C
2
(q, q)
_
,
q =
_
q
1
q
2
_
, g(q) =
_
g
1
(q)
g
2
(q)
_
donde M R
nn
, C R
n
, q R
n
, g(q) R
n
, M
11
R
ll
, M
12
R
lm
, M
21
R
ml
y M
22
R
mm
En [20] demuestran que las ecuaciones din amicas de un sistema subactuado no
pueden ser integradas en el caso general. En otras palabras, solo para mecanismos
especcos es posible obtener una relaci on entre las velocidades o posiciones de las
uniones pasivas y activas. Por esta raz on, la din amica acoplada est a basada en la
relacion de aceleraci on dada por (3.2). Resolviendo (3.2) para q
1
, resulta
q
1
= M
1
11
(M
12
q
2
+C
1
+g
1
) (3.4)
esto es posible gracias a que el termino M
11
de dimensiones l l es invertible como
consecuencia de las propiedades que tiene la matriz de inercia simetrica y denida
positiva en (3.1). As, sustituyendo (3.4) en (3.3) se obtiene

M
22
q
2
+

C
2
+ g
2
= (3.5)
donde

M
22
= M
22
M
21
M
1
11
M
12

C
2
= C
2
M
21
M
1
11
C
1
g
2
= g
2
M
21
M
1
11
g
1
3.1.1. Representaci on en variables de estado
En este apartado se obtiene el modelo no lineal del sistema subactuado reducido
(3.5) en una representacion de variables de estado, para esto se denen las variables
de estado como x
T
= [x
T
1
, x
T
2
] = [q
T
2
, q
T
2
] y la entrada u = , resultando
x
1
= x
2
(3.6)
x
2
=

M
1
22
[

C
2
+ g
2
] +

M
1
22
u (3.7)
Captulo 3: Modelo dinamico en tiempo discreto 13
esto es posible gracias a que el termino

M
2
de dimensiones mm es invertible como
consecuencia de las propiedades que tiene la matriz de inercia simetrica y denida
positiva en (3.1), la representaci on del sistema (3.6) y (3.7) en forma matricial est a
dada como
x =
_
x
2


M
1
22
[

C
2
+ g
2
]
_
+
_
0

M
1
22
_
u (3.8)
el cual puede reescribirse de la forma
x(t) = f(x(t)) +g(x(t))u(t) (3.9)
y(t) = Cx(t) (3.10)
donde y(t) es la salida de interes del sistema subactuado.
3.1.2. Modelo no lineal en tiempo discreto
La din amica en tiempo discreto de robots ha sido estudiada por muchos autores
[50, 39, 46, 47]. Para obtener una ecuaci on de estado en tiempo discreto de una
ecuaci on de estado en tiempo continuo (3.9)-(3.10), se asume que todas las mediciones
del estado del manipulador estan disponibles en un periodo de muestreo T, y los pares
de entrada se mantienen constantes entre instantes de muestreo, es decir, sobre cada
intervalo de tiempo J
k
= [kT, (k + 1)T], donde k 0 es un entero. Para intervalos
sucientemente peque nos, x puede aproximarse con una diferencia hacia adelante de
primer orden, como sigue:
x
x(t + T) x(t)
T
(3.11)
de esta forma, la ecuaci on diferencial (3.9) puede expresarse aproximadamente como
x(t + T) x(t)
T
= f(x(t)) +g(x(t))u(t) (3.12)
resolviendo esta ecuacion para x(t + T), se obtiene
x(t + T) = x(t) +f(x(t))T +g(x(t))Tu(t) (3.13)
la evaluaci on de las ecuaciones (3.13) y (3.9) en t = kT lleva a un modelo simple en
tiempo discreto, basado en el metodo de Euler de primer orden
x[(k + 1)T] = x(kT) +f(x(kT))T +g(x(kT))Tu(kT) (3.14)
y[(k + 1)T] = Cx[(k + 1)T] (3.15)
sustituyendo (3.14) en (3.15) la se nal de salida en el instante (k + 1)T est a dada por
y[(k + 1)T] = C (x(kT) +f(x(kT))T) + C(g(x(kT))T)u[kT] (3.16)
= (x[kT], T) + (x[kT], T)u[kT] (3.17)
14 Captulo 3: Modelo dinamico en tiempo discreto
donde (x[kT], T) = C(x(kT)+f(x(kT))T) y (x[kT], T) = C(g(x(kT))T). La ecua-
ci on (3.17) describe la din amica entrada-salida en tiempo discreto de un sistema
subactuado.
El objetivo de esta tesis es emplear una red neuronal wavelet para identicar el
comportamiento entrada-salida del carro-pendulo invertido, que puede ser represen-
tado por la ecuaci on (3.17). Se asume que los terminos y son desconocidos, por lo
tanto se utiliza una red neuronal wavenet para aproximar las din amicas del sistema
como:
y[(k + 1)T] =

(x[kT]),

] +

[(x[kT]),

]u[kT] (3.18)
comparado la expresion anterior (3.18) con la salida de la wavenet con ltro IIR (4.5),
se concluye que:

[x[kT],

] =
N

i=0
d
j
y [(k i + 1)T]v[(k + 1)T] (3.19)

[x[kT],

] =
M

i=0
c
i
z[(k i + 1)T] (3.20)
z[kT] =
L

l=0
w
l

l
[(k + 1)T] (3.21)
Por lo tanto, si las dos no linealidades y son estimadas por las dos funciones de
la wavenet

y

con par ametros ajustables

respectivamente.
Ahora, se puede probar el siguiente teorema.
Teorema 1
Considere la relacion entrada-salida del sistema subactuado (3.18), con el estado
x[kT] R
n
, entrada u[kT] R
m
, y salida y[kT] R
m
, para m < n. Si la taza de
aprendizaje del gradiente descendiente

es elegido como

=

1 + [kT]
T
[kT]
(0 < 1) (3.22)
entonces, asumiremos la salida (4.5) con (4.6), el error de estimacion [kT] converge
asintoticamente, donde [kT] es el jacobiano de la salida y[kT] con respecto del
vector de parametros .
Prueba
Sea elegida la funcion candidata a Lyapunov como
V [kT] =
1
2

2
[kT] =
1
2
(y[kT] y[kT]) (3.23)
Captulo 3: Modelo dinamico en tiempo discreto 15
La relacion de cambio de la funcion de Lyapunov es obtenida como
V [kT] = V [(k + 1)T] V [kT] (3.24)
=
1
2
(
2
[(k + 1)T]
2
[kT])
=
1
2
([(k + 1)T] + [kT]) ([(k + 1)T] [kT])
. .
[kT]
=
1
2
[kT]([(k + 1)T] + [kT])
=
1
2
[kT]([(k + 1)T] [kT]
. .
+[kT] + [kT])
[kT]
=
1
2
[kT]([kT] + 2[kT]) (3.25)
Como es costumbre, sea programado el incremento del error de seguimiento como
muestra [77, 74]
[kT]
_
[kT]
[kT]
_
T
[kT] (3.26)
donde [kT] representa el incremento en los pesos de la wavenet
V [kT]
1
2
_
[kT]
[kT]
_
T
[kT]
_
_
[kT]
[kT]
_
T
[kT] + 2[kT]
_
(3.27)
Usando (4.22)
V [kT] =
1
2
_
[kT]
[kT]
_
T

E[kT]
[kT]
_
_
_
[kT]
[kT]
_
T

E[kT]
[kT]
_
+ 2[kT]
_
=
_
[kT]
[kT]
_
T

[kT]
_

[kT]
[kT]
_
_
_
[kT]
[kT]
_
T
2

[kT]
_

[kT]
[kT]
_
+ 2[kT]
_
= 2

_
[kT]
[kT]
_
2

2
[kT]
_
1

_
[kT]
[kT]
_
2
_
Despues, usando (3.22) en el incremento de la funcion de Lyapunov, se obtiene
1

1+[kT]
T
[kT]
_
[kT]
[kT]
_
2
> 0, donde 0 < 1. Esto resulta como
V [kT] =
2
[kT] (3.28)
16 Captulo 3: Modelo dinamico en tiempo discreto
donde
= 2

_
[kT]
[kT]
_
2
_
1

_
[kT]
[kT]
_
2
_
Por lo tanto, la estabilidad de Lyapunov de V > 0 y V < 0 dadas por (3.23) y
(3.28) son garantizadas [60, 75]. El error de las salidas de la red neuronal wavelet y
la salida del sistema subactuado convergen a cero como t . Este hecho completa
la prueba del teorema.
3.2. Comentarios
La importancia de este captulo radica en c omo relacionar el modelo din amico
de un sistema subactuado con la red neuronal wavelet, as como la desmotracion del
Teorema 1 que garantiza la convergencia a cero del error de identicacion.
Captulo 4
Controlador PID wavenet discreto
El objetivo del presente captulo es describir un PID clasico en su forma discreta
cuyas ganancias son adaptadas mediante el uso de una red neuronal que usa funcio-
nes de activaci on wavelets hijas. La estructura de control propuesta en este captulo
se aplica al sistema subactuado carro-pendulo obteniendo resultados en simulaci on
numerica.
La organizaci on del captulo es la siguiente: una breve introducci on del tema se
presenta en la Seccion 4.1, el esquema de control propuesto que hace uso de un PID
cl asico discreto se describe en la Seccion 4.2, la cual a su vez se divide en dos partes,
donde la primera parte describe el esquema de identicaci on dado en la Subsecci on
4.2.1; la segunda parte muestra el control y las reglas de auto-sintonizado utiliza-
das en el control anteriormente mencionado, se presenta en las subsecciones 4.2.2 y
4.2.3 respectivamente. En la Secci on 4.3 se muestran los resultados obtenidos en la
simulaci on numerica en lazo cerrado y nalmente en la Seccion 4.4 se muestran los
resultados de la implementaci on fsica .
4.1. Introducci on
La contribuci on de las wavelets en el desarrollo para la aproximaci on de se nales
demuestra que es una herramienta muy eciente en diferentes ramas de la ciencia [79].
Estudios realizados en el area de los neuro-controladores han probado ser utiles para
una clase de situaciones pr acticas; En [29, 45] muestran que pueden ser operadas en
presencia de no linealidades normalmente desconocidas. En [67] se muestra un nove-
doso neuro-controlador usando una red neuronal tri-capa de recurrencia din amica; sin
embargo, se asume que se tiene el modelo en espacio de estado del sistema, lo cual,
no siempre es posible. Los autores en [5] y [56] emplean redes neuronales multicapa
realimentadas en el dise no de un control adaptable auto-sintonizable no lineal, con
resultados importantes; sin embargo, la tecnica de entrenamiento de retropropagacion
17
18 Captulo 4: Controlador PID wavenet discreto
[24] para redes multicapa es computacionalmente compleja y usualmente requiere de
c alculos fuera de lnea para minimizar el error. En [4] y [31] emplean la estructura de
un controlador PID basado en redes neuronales wavelets. En la presente investigacion
se hace uso del algoritmo del gradiente descendiente para entrenar una red de percep-
trones de una sola capa con funciones wavelets hijas como funciones de activacion con
la cual es posible sintonizar un controlador PID discreto en lnea [9, 14, 15, 16, 26, 70].
4.2. Controlador PID discreto inteligente
El esquema del controlador PID wavenet se muestra en la Figura 4.1. Donde se
pueden identicar en su arquitectura que dicho controlador consta de tres etapas para
poder manipular la salida de un sistema SISO no lineal en una forma deseada. En las
subsecciones siguientes se describen cada una de las etapas.
Figura 4.1: Esquema a bloques del controlador PID auto-sintonizado mediante una
red neuronal wavenet para un sistema din amico SISO.
4.2.1. Identicacion del sistema
El proceso de identicaci on se hace mediante una red neuronal del tipo base radial
donde las funciones de activacion son wavelets hijas
j
(t) generadas a partir de la
wavelet madre Morlet, esta selecci on se debe a los resultados que presenta de un grupo
de diez wavelets madre empleadas en simulacion numerica. Adem as, se le a nade a la
salida un ltro IIR en cascada que tiene como funcion ltrar (podar) las neuronas
que tienen poca contribucion en el proceso de identicacion, permitiendo con esto
reducir el n umero de iteraciones en el proceso de aprendizaje [59]. Dichos elementos se
observan en la Figura 4.2. La funci on wavelet () es llamada wavelet madre porque
las diferentes wavelets generadas a partir de ella, por su dilataci on o contracci on y
Captulo 4: Controlador PID wavenet discreto 19
traslaci on, se les llama wavelets hijas
a,b
(), representadas matematicamente como
[11]:

a,b
() =
1

a
() (4.1)
con a ,= 0; a, b R y
=
k b
a
(4.2)
donde a es la variable de escala, que permite hacer dilataciones y contracciones; y
b es la variable de traslaci on, que permite el desplazamiento en el instante k y R el
conjunto de los n umeros reales. La representaci on matem atica de la wavelet Morlet
est a dada por [11]:
() = cos(
0
)e
0.5
2
(4.3)
donde su derivada parcial con respecto a b es:
()
b
=
1
a
_

0
sin(
0
)e
0.5
2
+ h[kT]
_
(4.4)
donde
0
es la frecuencia de oscilacion de wavelet Morlet, donde puede tomar cualquier
valor y para esta tesis se considero igual con 1.
Figura 4.2: Esquema de una red neuronal wavenet con ltro IIR, donde
l
() =

a
l
,b
l
= (
kb
l
a
l
).
La se nal aproximada por la wavenet con ltro IIR y[kT] puede ser obtenida de la
Figura 4.2 como:
y[kT] =
M

i=0
c
i
z[(k i)T]u[kT] +
N

j=0
d
j
y[(k i)T]v[kT] (4.5)
20 Captulo 4: Controlador PID wavenet discreto
donde v[kT] es una se

Asal de persistencia necesaria para evitar que la RNW caiga en


singularidades y
z[kT] =
L

l=1
w
l
[kT] (4.6)
L es el n umero de wavelets, w
l
son los pesos de cada neurona en la wavenet, c
i
y
d
j
son los coecientes de adelanto y atraso del ltro IIR, respectivamente, mientras
que M y N son el n umero de los coecientes de adelanto y atraso del ltro IIR,
respectivamente. Los par ametros de la wavenet, en forma vectorial estan dados por:
A[kT] = [a
1
[kT], a
2
[kT] . . . a
L
[kT]]
T
(4.7)
B[kT] = [b
1
[kT], b
2
[kT] . . . b
L
[kT]]
T
(4.8)
W[kT] = [w
1
[kT], w
2
[kT] . . . w
L
[kT]]
T
(4.9)
y los par ametros del ltro IIR, representados de la misma forma:
C[kT] = [c
1
[kT], c
2
[kT] . . . c
L
[kT]]
T
(4.10)
D[kT] = [d
1
[kT], d
2
[kT] . . . d
L
[kT]]
T
(4.11)
Los cuales son optimizados mediante un algoritmo de aprendizaje basado en mnimos
cuadrados medios LMS, esto se realiza mediante la minimizaci on de una funci on de
costos E. Para lograr esto se dene el error de estimaci on e[kT] como la diferencia
entre la salida real de la planta y[kT] y la salida de la red neuronal y[kT], es decir:
[kT] = y[kT] y[kT] (4.12)
La funcion de energa del error de estimaci on se dene como:
E

=
1
2
T

k=1

2
[kT] (4.13)
Para minimizar E se aplica el metodo del gradiente de pasos descendentes, que utiliza
las siguientes derivadas:
E
w
l
[kT]
= [kT]C[kT]
T

l
()u[kT] (4.14)
E
b
l
[kT]
= [kT]C[kT]
T

bl
()w
l
[kT]u[kT] (4.15)
E
a
l
[kT]
=
l
E
b
l
[kT]
(4.16)
E
c
m
[kT]
= [kT]z[(k m)T]u[kT] (4.17)
E
d
n
[kT]
= [kT] y[(k m)T]v[kT] (4.18)
Captulo 4: Controlador PID wavenet discreto 21
donde

l
() = [
l
(),
l
( 1), ,
l
( M)]
T
(4.19)

bl
() =
_

l
()
b
l
[kT]
,

l
( 1)
b
l
[kT]
, ,

l
( M)
b
l
[kT]
_
T
(4.20)
La actualizacion de los par ametros cumple con la siguiente regla [9, 35]:
[kT] =
E
[kT]
(4.21)
(k + 1)T = [kT] +

[kT] (4.22)
donde puede ser cualquiera de los par ametros a ser ajustados: W[kT], A[kT], B[kT],
C[kT] y D[kT]. El valor de

R representa el coeciente de velocidad de aprendizaje


para cada uno de los parametros.
4.2.2. Controlador PID discreto
El controlador mas usado en la industria es el PID [27, 3] de ah la importancia de
trabajar el campo que busca contribuir en su uso, dicho controlador es com unmente
presentado en la literatura [72, 28, 49]. En este captulo se elige el PID discreto ya
que este nos permite su f acil programacion y as su implementacion en laboratorio.
La expresion del PID discreto est a dada por [48]:
u[(k + 1)T] = u[kT] + p[kT][kT] [(k 1)T] + i[kT][kT]
+d[kT][(k 2)T][(k 1)T] + [(k 2)T] (4.23)
con la variante de que la expresion anterior p[kT], i[kT] y d[kT] son ganancias va-
riantes en el tiempo discreto que representan las ganancias proporcional, integral y
derivativas, respectivamente, u[kT] es la entrada de la planta al instante kT y el error
de seguimiento [kT] se dene como la diferencia entre la salida de la planta y[kT] y
la se nal de referencia y
ref
[kT], es decir:
e[kT] = y[kT] y
ref
[kT] (4.24)
4.2.3. Auto-sintonizacion
Debido a que las ganancias p[kT], i[kT] y d[kT] son consideradas dentro de la
funci on de costo E (4.13) pueden ser actualizadas en base a los terminos del error
de seguimiento que multiplican a cada una de las ganancias en la expresi on (4.23), la
22 Captulo 4: Controlador PID wavenet discreto
Tabla 4.1: Par ametros del modelo matem atico
Parametro Signicado Valor
M Masa de carro 0.52 Kg
m Masa del pendulo 0.23 Kg
l Longitud al centro de gravedad 0.32 m
J Momento de inercia 0.007 Kgm
2
g Gravedad 9.8 m/(s
2
)

1
Fricci on del carro 0.1 Kg/s

2
Fricci on del pendulo 0.01 Kg/s
cual resulta las siguientes reglas de adaptaci on [9, 14, 15, 16, 26, 70]:
p[kT] = p[(k 1)T] +
p
[kT]

[kT]e[kT] e[(k 1)T] (4.25)


i[kT] = i[(k 1)T] +
i
[kT]

[kT]e[kT] (4.26)
d[kT] = d[(k 1)T] +
d
[kT]

[kT]e[kT] 2e[(k 1)T] + e[(k 2)T]


(4.27)
donde

[kT] es una parte de la ecuaci on de identicaci on del sistema descrita por (4.5).
Y, las constantes son las tazas de aprendizaje de las ganancias del controlador PID
discreto.

[kT] =
M

i=0
c
i
z[(k i)T]u[kT] (4.28)
4.3. Resultados de la simulacion numerica
El controlador PID discreto auto-sintonizado por la red neuronal wavelet es em-
pleado para controlar la posici on angular del carro-pendulo, utilizando un bloque de
Simulink-MATLAB en el cual son programadas las diferentes etapas del esquema ge-
neral mostrado anteriormente en la Figura 4.1. El modelo matematico mostrado en el
Apendice A es obtenido mediante el metodo de Euler-Lagrange el cual tiene los par a-
metros mostrados en la Tabla 4.1 que pertenecen a un sistema carro-pendulo invertido
marca Quanser, el cual es usado solo para propositos de simulacion. Los parametros
para la red neuronal wavenet empleados en la simulacion numerica se dan en la Tabla
4.2. Los valores iniciales y tazas de aprendizaje de los par ametros ajustados est an
dados en la Tabla 4.3.
Captulo 4: Controlador PID wavenet discreto 23
4.3.1. Resultados de la identicaci on del sistema
La simulaci on se llev o a cabo dando una condici on inicial de 2

en la inclinaci on
del pendulo y cero en la posici on del carro; donde el cero signica el centro de la
carrera del carro y en el caso del pendulo representa el punto de equilibrio inestable.
Cabe destacar que la aproximaci on es realizada en lazo cerrado bajo un controlador
PID discreto auto-sintonizado el cual sigue una trayectoria senoidal de amplitud 2

y frecuencia de 1Hz. Es importante resaltar que la red es lo sucientemente ecaz


para adaptarse a ella y al control para el sistema subactuado ya que la dinamica
obtenida es similar a la real, unicamente escalada. En las Figuras 4.3, 4.4 y 4.5 son
presentados los comportamientos de la los parametros propios de la red neuronal como
son los pesos, w y tanto las dilataciones, a y traslaciones, b de la funci on de activaci on
wavelet para cada una de las tres neuronas utilizadas en el caso actual. Es importante
destacar que los valores de estos tres parametros se comportan de la misma manera en
las tres neuronas; esto se debe a que se hace en lnea la identicacion y el control PID
discreto adaptable, el cual cambia sus ganancias dependiendo del comportamiento de
la planta en lazo cerrado.
24 Captulo 4: Controlador PID wavenet discreto
0 10 20 30 40 50
2
0
2
4
6
8
10
12
x 10
17
P
e
s
o
,

w
Tiempo (segundos)
(a) Peso de la primer neurona de la RNW.
0 10 20 30 40 50
2
0
2
4
6
8
10
12
x 10
17
P
e
s
o
,

w
Tiempo (segundos)
(b) Peso de la segunda neurona de la RNW.
0 10 20 30 40 50
2
0
2
4
6
8
10
12
x 10
17
P
e
s
o
,

w
Tiempo (segundos)
(c) Peso de la tercer neurona de la RNW.
Figura 4.3: Comportamiento de los pesos de la wavenet en simulaci on numerica.
Igualmente en las Figuras 4.3a, 4.3b y 4.3c se aprecia que estabilizan alrededor
de 45 segundos se simulaci on; es importante mencionar que con un controlador con
ganancias jas estos par ametros no se comportan de la misma manera.
Captulo 4: Controlador PID wavenet discreto 25
Tabla 4.2: Par ametros de la red neuronal wavelet
Parametro Valor
Wavelet madre Morlet
N umero de neuronas 3
Coecientes c del ltro IIR 4
Coecientes d del ltro IIR 2
Periodo de muestreo 0.001 s
Se nal de persistencia v
u
5
26 Captulo 4: Controlador PID wavenet discreto
0 10 20 30 40 50
0
1
2
3
4
5
6
7
8
9
10
D
i
l
a
t
a
c
i

n
,

a
Tiempo (segundos)
(a) Dilatacion de la primer neurona de la
RNW.
0 10 20 30 40 50
0
1
2
3
4
5
6
7
8
9
10
D
i
l
a
t
a
c
i

n
,

a
Tiempo (segundos)
(b) Dilatacion de la segunda neurona de la
RNW.
0 10 20 30 40 50
0
1
2
3
4
5
6
7
8
9
10
Tiempo (segundos)
D
i
l
a
t
a
c
i

n
,

a
(c) Dilatacion de la tercer neurona de la RNW.
Figura 4.4: Comportamiento de las dilataciones de la wavenet en simulaci on numerica.
De igual manera en las Figuras 4.6 y 4.7 se muestran los comportamientos de los
coecientes de prealimentacion y realimentacion, respectivamente, del ltro IIR, que
est a acoplado en cascada a la red neuronal con el n de mejorar el funcionamiento de
la wavenet.
Captulo 4: Controlador PID wavenet discreto 27
Tabla 4.3: Valores iniciales de la red neuronal en simulacion numerica
Parametro Valor Taza de aprendizaje Valor
W [0, 0, 0]
w
0.00000000000000000005
A [10, 10, 10]
a
0.000000000000005
B [1, 1, 1]
b
0.000000000000000005;
C [0.1, 0.05, 0, 0.15]
c
0.000000000000000000005
D [0, 0]
d
0.0000000000000000005
Kp 26
k
p 9999999999999999999
Ki 10
k
i 9999999999999999999
Kd 6
k
d 9999999999999999999
0 10 20 30 40 50
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
T
r
a
s
l
a
c
i

n
,

b
Tiempo (segundos)
(a) Traslacion de la primer neurona de la
RNW.
0 10 20 30 40 50
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
T
r
a
s
l
a
c
i

n
,

b
Tiempo (segundos)
(b) Traslacion de la segunda neurona de la
RNW.
0 10 20 30 40 50
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Tiempo (segundos)
T
r
a
s
l
a
c
i

n
,

b
(c) Traslacion de la tercer neurona de la RNW.
Figura 4.5: Comportamiento de las traslaciones de la wavenet en simulaci on numerica.
28 Captulo 4: Controlador PID wavenet discreto
0 10 20 30 40 50
10
8
6
4
2
0
2
4
x 10
35
c
o
e
f
i
c
i
e
n
t
e

d
e

r
e
t
r
o
a
l
i
m
e
n
t
a
c
i

n
,

d
Tiempo (segundos)
(a) Primer coeciente de retroalimentacion del
ltro IIR.
0 10 20 30 40 50
10
8
6
4
2
0
2
4
x 10
35
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

r
e
t
r
o
a
l
i
m
e
n
t
a
c
i

n
,

d
(b) Segundo coeciente de retroalimentacion
del ltro IIR.
Figura 4.6: Comportamiento de los parametros de realimentaci on del ltro IIR en
simulaci on numerica.
En el caso de la Figura 4.6, las dos realimentaciones se comportaron de la misma
manera, tal como se puede ver en la gura antes mencionada.
Captulo 4: Controlador PID wavenet discreto 29
0 10 20 30 40 50
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.1
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

p
r
e
a
l
i
m
e
n
t
a
c
i

n
,

c
(a) Primer coeciente de prealimentacion del
ltro IIR.
0 10 20 30 40 50
0
0.005
0.01
0.015
0.02
0.025
0.03
0.035
0.04
0.045
0.05
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

p
r
e
a
l
i
m
e
n
t
a
c
i

n
,

c
(b) Segundo coeciente de prealimentacion del
ltro IIR.
0 10 20 30 40 50
0.5
0
0.5
1
1.5
2
2.5
3
3.5
x 10
35
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

p
r
e
a
l
i
m
e
n
t
a
c
i

n
,

c
(c) Tercer coeciente de prealimentacion del l-
tro IIR.
0 10 20 30 40 50
0
0.05
0.1
0.15
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

p
r
e
a
l
i
m
e
n
t
a
c
i

n
,

c
(d) Cuarto coeciente de prealimentacion del
ltro IIR.
Figura 4.7: Comportamiento de los parametros de prealimentacion del ltro IIR en
simulaci on numerica.
mientras que en el caso de la Figura 4.7 tres de los cuatro par ametros de preali-
mentacion se mantienen equidistantes a diferencia del par ametro de la Figura 4.7c
que tiene una peque na adaptacion a cada iteraci on. En la Figura 4.8 es posible
observar el comportamiento de la red de identicacion de el error de identicaci on
[kT] = y[kT] y[kT] que es de un maximo de 1

de amplitud debido a que la red


es iniciada con valores elegidos peque nos pero que no tienen ninguna relaci on directa
con el modelo matem atico real.
30 Captulo 4: Controlador PID wavenet discreto
0 10 20 30 40 50
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
Tiempo (segundos)
E
r
r
o
r

(
g
r
a
d
o
s
)
Figura 4.8: Error de identicacion de la red neuronal wavelet en simulacion numerica.
4.3.2. Resultados del controlador PID wavenet
En esta secci on se presentan los resultados en simulaci on numerica mostrados en
la Figura 4.9, donde se observa el desempe no del PID discreto cuyas ganancias son
adaptadas por (4.25)-(4.27) usando el modelo matematico dado en el Apendice A,
lo cual es no lineal y de naturaleza inestable. Aqu se puede observar el desempe no
del controlador PID discreto adaptado (4.23) con la red neuronal wavelet, ya que la
trayectoria real se aproxima de manera suave a la trayectoria deseada con un error
de seguimiento [kT] mostrado en la Figura 4.10, sin embargo en la gr aca solo se
muestran el desempe no del sistema en los primeros 10 segundos, lo cual el error
claramente se observa disminuye en cada instante de tiempo.
Captulo 4: Controlador PID wavenet discreto 31
0 10 20 30 40 50
3
2
1
0
1
2
3
Tiempo (segundos)
P
o
s
i
c
i

n

a
n
g
u
l
a
r

(
g
r
a
d
o
s
)


Posicin angular de referencia
Posicin angular real
Figura 4.9: Seguimiento del sistema en simulaci on numerica.
Dado lo observado en la Figura 4.9 es importante gr acar la magnitud del error de
seguimiento e[kT] = y[kT]y
ref
[kT], mostrado en la Figura 4.10, de donde se observa
que su m aximo valor alcanzado es de 2 grados, esto ocurre durante el inicio de la
simulaci on, ya que las condiciones iniciales del pendulo son x = [q
1
, q
1
, q
2
, q
2
]
T
=
[0, 0, 2

, 0]
T
. Es importante mencionar que todos los par ametros de la red neuronal
y del controlador son inicializados de manera aleatoria sin considerar ning un criterio
de inicializaci on de parametros.
0 10 20 30 40 50
0.2
0.1
0
0.1
0.2
0.3
0.4
0.5
Tiempo (segundos)
E
r
r
o
r

(
g
r
a
d
o
s
)
Figura 4.10: Error de seguimiento del sistema en simulaci on numerica.
La se nal de la ley de control se muestra en la Figura 4.11, la cual se observa que es
una se nal suave y que oscila entre 0.25 y 0.35 V olts durante el tiempo de simulaci on,
32 Captulo 4: Controlador PID wavenet discreto
el cual es de 50 segundos; es importante mencionar que si el tiempo de simulaci on es
mayor a 50 segundos el error de seguimiento presentado en la Figura 4.10 no crece.
0 10 20 30 40 50
0.5
0.4
0.3
0.2
0.1
0
0.1
0.2
0.3
0.4
0.5
C
o
n
t
r
o
l

(
v
o
l
t
s
)

Tiempo (segundos)
Figura 4.11: Comportamiento del controlador PID discreto adaptable en simulaci on
numerica.
4.3.3. Resultados de la auto-sintonizaci on
Por ultimo, en la Figura 4.12 se muestra la evolucion de las diferentes ganancias
del control a traves de la simulaci on realizada. Es importante aclarar que dada la
naturaleza inestable del sistema, la cual contrasta con los diferentes sistemas a los
que se ha aplicado este tipo de controladores los cuales piden que los sistemas sean
estables y de variaciones lentas, fue necesario elegir una sintonizacion de las ganancias
iniciales de tal manera que se estabilizara el sistema. Esta pre-sintonizacion se realiza
a prueba y error para garantizar que el sistema no tenga un buen desempe no y as a
lo largo de la simulaci on las ganancias se adapten en lnea por unas mas adecuadas.
Captulo 4: Controlador PID wavenet discreto 33
0 10 20 30 40 50
25.65
25.7
25.75
25.8
25.85
25.9
25.95
26
26.05
Tiempo (segundos)
G
a
n
a
n
c
i
a
s
(a) Ganancia proporcional del PID clasico.
0 10 20 30 40 50
10
20
30
40
50
60
70
80
90
100
110
Tiempo (segundos)
G
a
n
a
n
c
i
a
s
(b) Ganancia integral del PID clasico.
0 10 20 30 40 50
5.9999
6
6.0001
6.0002
Tiempo (segundos)
G
a
n
a
n
c
i
a
s
(c) Ganancia derivativa del PID clasico.
Figura 4.12: Ganancias del controlador PID en simulaci on numerica.
4.4. Resultados experimentales
El controlador PID discreto auto-sintonizado por la red neuronal wavelet mostra-
do en la Subsecci on 4.2.2, se emplea para controlar la posicion angular del pendulo
montado sobre un carro el cual es mostrado en la Figura 4.13. Se utiliza el m odulo de
Real-Time y Simulink-MATLAB para programar e implementar fsicamente las tres
etapas del esquema de control mostrado en la Figura 4.1. El prototipo que se utili-
za para dicho prop osito es el carro-pendulo invertido fabricado por Quanser, cuyos
par ametros son mostrados en la Tabla 4.1.
34 Captulo 4: Controlador PID wavenet discreto
Figura 4.13: Carro-pendulo invertido Quanser.
Los parametros para la red neuronal wavelet, empleados en la implementacion
fsica se dan en la Tabla 4.2, los cuales son obtenidos con base a los resultados presen-
tados en [41]. Los valores iniciales y tazas de aprendizaje de los parametros ajustados
est an dados en la Tabla 4.4. En ambos casos las condiciones iniciales de los par ame-
tros iniciales de la red neuronal como son w, a y b, son obtenidos empleando en lazo
cerrado un PID cl asico continuo propio de la librera de Simulink-MATLAB todo esto
se hace en simulacion numerica y se eligen las que mostraron un mejor desempe no;
es importante destacar que no existe ning un metodo en la literatura que establezca
la manera de elegir dichas condiciones iniciales.
4.4.1. Resultados de la identicaci on del sistema
La prueba se lleva a cabo dando una condicion inicial de 0 grados en la inclinaci on
del pendulo y 0 en la posici on del carro; donde el cero signica el centro de la carrera
del carro y en el caso del pendulo representa el punto de equilibrio inestable. Cabe
destacar que la aproximaci on es realizada en lazo cerrado bajo un controlador PID
discreto auto-sintonizado el cual sigue una trayectoria senoidal de amplitud 2

y con
una frecuencia de 1Hz. Es importante resaltar que la red neuronal es inicializada sin
tomar en cuenta ning un criterio de sintonizaci on a diferencia del controlador, ya que
dada la naturaleza altamente inestable del punto de equilibrio en estudio es necesario
denir ganancias iniciales que sean capaces de estabilizar al sistema, pero sin estas
llegar a ser las m as adecuadas. A lo largo del experimento el control es capaz de
adaptar su sintonizacion mediante las reglas presentadas en (4.25)-(4.27). Esta pre-
sintonizacion se debe a que este tipo de controladores adaptables (4.23) con reglas de
sintonizacion (4.25)-(4.27), las cuales a su vez depende de una red neuronal wavenet,
exigen que el sistema a controlar sea estable y de variaciones lentas, lo cual contrasta
con el prototipo utilizado en esta tesis.
En las Figuras 4.14, 4.15 y 4.16 son presentados los comportamientos de la los
par ametros propios de la red neuronal como son los pesos, w, las dilataciones, a y
Captulo 4: Controlador PID wavenet discreto 35
traslaciones, b de la funci on de activaci on wavelet para cada una de las tres neuronas
utilizadas en el experimento. Es importante destacar que los valores de estos tres
par ametros son inicializados de la misma manera en la simulaci on y en el experimento.
Dados estos hechos se puede asumir la validaci on de modelo matematico propuesto
en el Apendice A ya que este es lo sucientemente aproximado al sistema real para
los nes de esta tesis; ya que en las Figuras 4.3, 4.4, 4.5 y las Figuras 4.14, 4.15, 4.16
se puede constatar que tienen el mismo comportamiento y valor.
0 2 4 6 8 10
0
1
2
3
4
5
6
7
8
9
x 10
17 Primera neurona
P
e
s
o
,

w
Tiempo (segundos)
(a) Peso de la primer neurona de la RNW.
0 2 4 6 8 10
0
1
2
3
4
5
6
7
8
9
x 10
17 Segunda neurona
P
e
s
o
,

w
Tiempo (segundos)
(b) Peso de la segunda neurona de la RNW.
0 2 4 6 8 10
0
1
2
3
4
5
6
7
8
9
x 10
17 Tercera neurona
P
e
s
o
,

w
Tiempo (segundos)
(c) Peso de la tercer neurona de la RNW.
Figura 4.14: Comportamiento de los pesos de la wavenet en la prueba experimental.
36 Captulo 4: Controlador PID wavenet discreto
0 2 4 6 8 10
0
1
2
3
4
5
6
7
8
9
10
D
i
l
a
t
a
c
i

n
,

a
Tiempo (segundos)
(a) Dilatacion de la primer neurona de la
RNW.
0 2 4 6 8 10
0
1
2
3
4
5
6
7
8
9
10
D
i
l
a
t
a
c
i

n
,

a
Tiempo (segundos)
(b) Dilatacion de la segunda neurona de la
RNW.
0 2 4 6 8 10
0
1
2
3
4
5
6
7
8
9
10
Tiempo (segundos)
D
i
l
a
t
a
c
i

n
,

a
(c) Dilatacion de la tercer neurona de la RNW.
Figura 4.15: Comportamiento de las dilataciones de la wavenet en la prueba experi-
mental.
De igual manera en las Figuras 4.17 y 4.18 se muestran el comportamiento de los
coecientes de prealimentaci on y realimentaci on, respectivamente, del ltro IIR que
est a acoplado en cascada a la red neuronal con el n de mejorar el funcionamiento de
la wavenet.
Captulo 4: Controlador PID wavenet discreto 37
Tabla 4.4: Valores iniciales de la red neuronal en la prueba experimental.
Parametro Valor Taza de aprendizaje Valor
W [0, 0, 0]
w
0.00000000000000000005
A [10, 10, 10]
a
0.000000000000005
B [1, 1, 1]
b
0.000000000000000005;
C [0.1, 0.05, 0, 0.15]
c
0.000000000000000000005
D [0, 0]
d
0.0000000000000000005
Kp 145
k
p 9999999999999999999
Ki 90
k
i 9999999999999999999
Kd 0
k
d 9999999999999999999
0 2 4 6 8 10
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
T
r
a
s
l
a
c
i

n
,

b
Tiempo (segundos)
(a) Traslacion de la primer neurona de la
RNW.
0 2 4 6 8 10
0
1
2
3
4
5
6
7
8
9
10
D
i
l
a
t
a
c
i

n
,

a
Tiempo (segundos)
(b) Traslacion de la segunda neurona de la
RNW.
0 2 4 6 8 10
0
1
2
3
4
5
6
7
8
9
10
Tiempo (segundos)
D
i
l
a
t
a
c
i

n
,

a
(c) Traslacion de la tercer neurona de la RNW.
Figura 4.16: Comportamiento de las traslaciones de la wavenet en la prueba experi-
mental.
38 Captulo 4: Controlador PID wavenet discreto
0 2 4 6 8 10
5
4
3
2
1
0
1
2
3
4
x 10
33
c
o
e
f
i
c
i
e
n
t
e

d
e

r
e
t
r
o
a
l
i
m
e
n
t
a
c
i

n
,

d
Tiempo (segundos)
(a) Primer coeciente de retroalimentacion del
ltro IIR.
0 2 4 6 8 10
5
4
3
2
1
0
1
2
3
4
x 10
33
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

r
e
t
r
o
a
l
i
m
e
n
t
a
c
i

n
,

d
(b) Segundo coeciente de retroalimentacion
del ltro IIR.
Figura 4.17: Comportamiento de los parametros de realimentaci on del ltro IIR en la
prueba experimental.
En la Figura 4.17, las dos realimentaciones se comportan de la misma manera y en
comparaci on con los resultados obtenidos en simulacion, mostrados anteriormente en
la Figura 4.6. Podemos ver que el comportamiento en los resultados experimentales
tienen una oscilaci on de mayor frecuencia en la se nal debido a que el sistema fsico est a
sometido a incertidumbres y perturbaciones no modeladas que el control identica y
compensa mediante la adaptaci on de las ganancias del control (4.23) mediante las
reglas de adaptaci on (4.25)-(4.27).
Captulo 4: Controlador PID wavenet discreto 39
0 2 4 6 8 10
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.1
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

p
r
e
a
l
i
m
e
n
t
a
c
i

n
,

c
(a) Primer coeciente de prealimentacion del
ltro IIR.
0 2 4 6 8 10
0
0.005
0.01
0.015
0.02
0.025
0.03
0.035
0.04
0.045
0.05
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

p
r
e
a
l
i
m
e
n
t
a
c
i

n
,

c
(b) Segundo coeciente de prealimentacion del
ltro IIR.
0 2 4 6 8 10
2
0
2
4
6
8
10
12
14
16
18
x 10
35
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

p
r
e
a
l
i
m
e
n
t
a
c
i

n
,

c
(c) Tercer coeciente de prealimentacion del l-
tro IIR.
0 2 4 6 8 10
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

p
r
e
a
l
i
m
e
n
t
a
c
i

n
,

c
(d) Cuarto coeciente de prealimentacion del
ltro IIR.
Figura 4.18: Comportamiento de los parametros de prealimentacion del ltro IIR en
la prueba experimental.
Mientras que en la Figura 4.18, tres de los cuatro par ametros de prealimentaci on
se mantuvieron equidistantes a diferencia del tercer parametro mostrado en la Figura
4.18c que tiene una peque na adaptaci on a cada iteracion. En la gura 4.19 es posible
observar el comportamiento de la red de identicacion en la que el error de identi-
caci on e[kT] = y[kT] y[kT] tiene una oscilaci on m axima de 1.5

debido a que la red


es iniciada con valores elegidos peque nos pero que no tienen ninguna relaci on directa
con el modelo matem atico real.
40 Captulo 4: Controlador PID wavenet discreto
0 2 4 6 8 10
1.5
1
0.5
0
0.5
1
1.5
Tiempo (segundos)
E
r
r
o
r

(
g
r
a
d
o
s
)
Figura 4.19: Error de identicaci on de la red neuronal wavelet en la prueba experi-
mental.
4.4.2. Resultados del controlador PID wavenet
El comportamiento del PID discreto adaptable en la prueba fsica es presentado
en esta Secci on en la Figura 4.20, donde se aprecia el desempe no del controlador PID
discreto adaptado con la red neuronal wavelet ya que la trayectoria real se aproxima
rapidamente y de manera suave a la trayectoria deseada con un error maximo de
1

en una tarea de seguimiento de una se nal senoidal de 2

de amplitud y con una


frecuencia de 1 Hz.
0 2 4 6 8 10
3
2
1
0
1
2
3
Tiempo (segundos)
P
o
s
i
c
i

n

a
n
g
u
l
a
r

(
g
r
a
d
o
s
)


Posicin angular de referencia
Posicin angular real
Figura 4.20: Seguimiento del sistema en la prueba experimental.
Despues de presentar la Figura 4.20 es importante gracar el error de seguimiento
por lo cual en la Figura 4.21 se presenta [kT] = y[kT] y
ref
[kT].
Captulo 4: Controlador PID wavenet discreto 41
0 2 4 6 8 10
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
Tiempo (segundos)
E
r
r
o
r

(
g
r
a
d
o
s
)
Figura 4.21: Error de seguimiento del sistema en la prueba experimental.
Es importante resaltar el desempe no del control ya que este se comporta de una
manera suave sin saturar los actuadores considerando que a lo largo del experimento
se somete a perturbaciones no medibles realzadas mediante peque nos golpes al brazo
del pendulo. Dicho comportamiento es presentado en la Figura 4.22
0 2 4 6 8 10
5
4
3
2
1
0
1
2
3
4
C
o
n
t
r
o
l

(
v
o
l
t
s
)

Tiempo (segundos)
Figura 4.22: Comportamiento del controlador PID discreto adaptable en la prueba
experimental.
4.4.3. Resultados de la auto-sintonizaci on
Por ultimo en la Figura 4.23 se muestra la evoluci on de las diferentes ganancias
del control a traves del experimento realizado. Es importante aclarar que dada la
naturaleza inestable del sistema fue necesario elegir ganancias iniciales que hicieran
estable al sistema y que despues se adaptaran en lnea por unas mas adecuadas. En
42 Captulo 4: Controlador PID wavenet discreto
importante destacar que dadas la naturaleza inestable del sistema la cual contrasta
con la literatura que tpicamente exige que los sistemas sean de naturaleza estable y
variaciones lentas; ah la necesidad de inicializar las ganancias de forma que estabilice
al sistema.
0 2 4 6 8 10
144
144.2
144.4
144.6
144.8
145
145.2
145.4
145.6
145.8
146
Tiempo (segundos)
G
a
n
a
n
c
i
a
s
(a) Ganancia proporcional del PID clasico.
0 2 4 6 8 10
89
89.2
89.4
89.6
89.8
90
90.2
90.4
90.6
90.8
91
Tiempo (segundos)
G
a
n
a
n
c
i
a
s
(b) Ganancia integral del PID clasico.
0 2 4 6 8 10
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
x 10
15
Tiempo (segundos)
G
a
n
a
n
c
i
a
s
(c) Ganancia derivativa del PID clasico.
Figura 4.23: Ganancias del controlador PID en la prueba experimental.
se observo que las ganancias elegidas se mantuvieron constantes tanto en Kp
(Figura 4.23a) y ki (Figura 4.23b) debido a que las tazas de aprendizaje elegidas son
cercanas a cero y que si se eligen mas grandes las ganancias obtendran una razon de
cambio pero que har

A a al sistema propenso a caer en mnimos locales, a diferencia


de kd (Figura 4.23c) la cual presento una variaci on de alta frecuencia a lo largo del
experimento.
Captulo 5
PID wavenet multiresoluci on
El objetivo de este captulo es presentar el desarrollo de un control PID multireso-
luci on wavenet para sistemas SISO, el cual es simulado en el sistemas carro-pendulo
mostrado en el Apendice A. Se ha organizado este captulo de la siguiente forma: se da
una breve introduccion en la Secci on 5.1, en la Secci on 5.2 se da la estructura del con-
trol PID wavelet llamado PID multiresoluci on PIDMR, el analisis y sntesis del error
de seguimiento. As mismo en la Seccion 5.3 se dan las reglas de auto-sintonizacion
del PIDMR y por ultimo en la Secci on 5.4 se presentan los resultados de la simulaci on
numerica.
5.1. Introducci on
El controlador wavelet es similar a un control PID en principio y aplicacion, como
se muestra en la Figura 5.3. La salida y de un sistema de controlado representa los
efectos acumulativos de incertidumbre tales como: el ruido en el estado, variaci on en
la friccion y perturbaciones externas, las cuales se maniestan a diferentes escalas. El
control wavelet utiliza el analisis multiresoluci on para descomponer la se nal de error e
a diferentes escalas, las se nales resultantes son entonces escaladas por sus respectivas
ganancias K
i
y adicionadas juntas para generar la se nal de control u para compensar
las incertidumbres del sistema, es decir
u =
N+1

i=1
K
i
e
i
, (5.1)
donde e
i
es la se nal del error a su i-esima escala, K
i
es su respectiva ganancia y N es
el nivel de descomposicion.
43
44 Captulo 5: PID wavenet multiresolucion
Figura 5.1: Esquema simple de un control PID cl asico, donde y
ref
, e, u, y, P y r, son
la referencia del sistema, el error entre la salida y la referencia, la se nal de control, la
salida del sistema, las perturbaciones externas al sistema y el ruido en la medicion,
respectivamente.
5.2. Controlador PIDMR
En la transformada discreta wavelet (DWT), una de las mas importantes apli-
caciones es el an alisis multiresolucion [36, 37]. El an alisis multiresoluci on con una
funci on f L
2
(R), puede ser descompuesto en diferentes aproximaciones mediante
funciones wavelet. El an alisis multiresoluci on consiste en una secuencia sucesiva de
aproximaciones de espacios cerrados, espacios anidados V
N
: N Z con las siguien-
tes propiedades [11]:
Anidacon: V
N
V
N+1
, N Z
Cerramiento: clos
_
NZ
V
N
_
= L
2
(R)
Contracci on:

NZ
V
N
= 0.
Multiresoluci on: f[n] V
N
f[2n] V
N+1
N Z
Cambio: f[n] V
N
f[n 2
N
k] V
N
N Z
Existe una funcion escalada V
0
la cual integra cambios en la forma y bases
orto-normales para V
0
, es decir,
V
0
= span
N,k
[n], N, k Z
donde

N,k
[n] = 2

N
2
[2
N
n k] (5.2)
Captulo 5: PID wavenet multiresolucion 45
forman una base ortogonal para V
0
. Despues para dichas V
N
existen espacios adicio-
nales W
N
que cumplen las siguientes condiciones [11]
V
N+1
= V
N
W
N
(5.3)
V
N
W
N
= 0, N Z (5.4)
y

N,k
[n] = 2

N
2
[2
N
n k], N, k Z (5.5)
forman una base orthogonal para W
N
, es decir, en [n] se puede generar el espacio
W
N
. De lo anterior podemos decir que el prop osito del analisis multiresolucion es
determinar una funci on f[n] por aproximaciones sucesivas, como
f[n] =

k=
c
N,k

N,k
[n] +
N

m=1

k=
d
m,k

m,k
[n] (5.6)
con
c
m,k
=

k=
f[n]
m,k
[n]
d
m,k
=

k=
f[n]
m,k
[n] (5.7)
Donde N es el nivel con el que se descompuso f[n] y [n], [n] son funciones conju-
gadas para [n] y [n], respectivamente. El an alisis Multiresolucion, adem as de ser
intuitivo y util en la practica, forma la base del marco matem atico de las wavelets.
Uno puede descomponer una funci on en una version suave y un residuo, como pode-
mos ver en (5.6), Donde la transformada wavelet descompone una se nal f[n] en un
enfoque de coecientes de tendencia c y coecientes detallados d los cuales, junto con
[n] y [n], son una version suave y su residuo, respectivamente. Lo importante es
que con la descomposici on de f[n] por un valor lo sucientemente alto de N podemos
aproximar arbitrariamente el espacio cerrado V
N
. Estos es, que alg un > 0 tal que
|f[n]

k=
c
N,k

N,k
[n]| < (5.8)
El enfoque por el truncamiento de la descomposici on wavelet puede ser aproximado
por:
f[n]

k=
c
N,k

N,k
[n] (5.9)
46 Captulo 5: PID wavenet multiresolucion
Esta expresi on indica que algunos componentes nos (alta frecuencia) pertenecientes
al espacio wavelet W
N
para f[n] son removidos y los componentes pertenecientes al
espacio V
N
son preservados para aproximar la funcion original a una escala de N.
Despues en (5.9) vemos que cualquier funcion f[n] L
2
(R) puede ser aproximada
por una combinacion lineal nita.
Si utilizamos la se nal del error de seguimiento y la ecuaci on del PID discreto como
es denido en [72]:
e = y
ref
y (5.10)
u[kT] = u[[(k 1)T] + k
P
[e[kT] e[(k 1)T]] + k
I
e[kT] +
k
D
[e[kT] 2e[(k 1)T] + e(k 2)] (5.11)
cuya funci on de transferencia est a dada por:
u(z)
e(z)
= k
P
+ k
I
T
2
z + 1
(z 1)
+ k
D
1
T
(z 1)
z
(5.12)
y este opera de la misma manera que un PID continuo. Tomando los parametros k
P
,
k
I
y k
D
del PID, como variables de ajustamiento, entonces (5.11) puede ser descrita
como
u[kT] = u[(k 1)T] +
2

i=0
k
i
e[(k i)T] (5.13)
o equivalentemente
u[kT] =
2

i=0
k
i
e[(k i)T] (5.14)
donde k
0
= k
P
+ k
I
+ k
D
, k
1
= k
P
2k
D
y k
2
= k
D
De (5.14), podemos ver que
la ley de control de un PID clasico es una descomposicion lineal del error, solo que
esta descomposicion es ja, esto es, que siempre tiene tres componentes, esta es la
diferencia entre el PID y el PIDMR, el cual puede tener un n umero innito de terminos
y estos est an divididos en diferentes escalas de tiempo-frecuencia, esto signica que
el controlador PIDMR descompone la se nal de error e en altas, bajas y medianas
frecuencias, haciendo esto con el an alisis multiresoluci on. Donde las componentes del
error son obtenidas computacionalmente usando (5.6) bajo la conguraci on sub-banda
mostrada en el esquema de la Figura 5.2.
Captulo 5: PID wavenet multiresolucion 47
Figura 5.2: Esquema de descomposicion Sub-banda del error de seguimiento e a un
nivel de descomposici on N=3.
Por lo tanto cada uno de estos componentes se escalan con sus respectivas ganan-
cias y suman para generar la se nal de control de u, de la siguiente manera:
u = K
H
e
H
+ K
M
1
e
M
1
+ + k
i
e
i
+ +
K
M
N1
e
M
N1
+ K
L
e
L
(5.15)
u[kT] = K E
m
[kT] (5.16)
donde
K = [K
H
K
M
1
K
i
K
M
N1
K
L
] (5.17)
E
m
[kT] = [e
H
[kT] e
M
1
[kT] e
i
[kT]
e
M
N1
[kT] e
L
[kT]]
T
(5.18)
donde N es el nivel del controlador PIDMR. Mientras que un control PID clasico
tiene tres par ametros que se sintonizaron k
P
, k
I
y k
D
, el control PIDMR tiene dos
o m as par ametros que dependen del nivel de descomposici on aplicada a la se nal de
error e. El diagrama de un control PIDMR aplicado a una planta se muestra en la
Figura 5.3.
48 Captulo 5: PID wavenet multiresolucion
Figura 5.3: Diagrama del controlador PIDMR en lazo cerrado para un sistema SISO.
Existe una gran cantidad de diferentes wavelets, la selecci on de estas es impor-
tante ya que afecta el desempe no del control PIDMR. Dado esto, hay caractersticas
importantes que se deben tomar en cuenta, como es:
El tipo de representaci on del sistema (continuo o discreto)
Las propiedades de la wavelet que ser a usada
La din amica del sistema
Estas y algunas caractersticas mas son mostradas en [51].
5.3. Reglas de auto-sintonizado del controlador PIDMR
Las diferentes ganancias del PIDMR est an implcitas en la ecuaci on (4.13), dado
esto podemos denir las siguientes reglas de autosintonizacion:
K
H
[kT] = (K
H
[(k 1)T]T +
H

[kT](e
H
[kT]
e
H
[(k 1)T]))/T (5.19)
K
M
1
[kT] = (K
M
1
[(k 1)T]T +
M
1

[kT](e
M
1
[kT]
e
M
1
[(k 1)T]))/T (5.20)
.
.
.
K
M
(N1)
[kT] = (K
M
(N1)
[(k 1)T]T +
M
(N1)

[kT]
(e
M
(N1)
[kT] e
M
(N1)
[(k 1)T]))/T (5.21)
K
L
[kT] = (K
L
[(k 1)T]T +
L

[kT](e
L
[kT]
e
L
[(k 1)T]))/T (5.22)
Captulo 5: PID wavenet multiresolucion 49
donde

[kT] es la ecuaci on descrita por:

[kT] =
M

i=0
c
i
z[(k i)T]u[kT] (5.23)
y, las son constantes que denen el paso de aprendizaje de cada componente del
PIDMR
5.4. Resultados de la simulacion numerica
El PIDMR wavenet es usado para controlar la posicion de un pendulo inverti-
do montado sobre un carro, las diferentes etapas del esquema de control en lazo
cerrado son mostrados en la Figura 5.4 y son programados en la plataforma Simu-
link-MATLAB. El modelo matematico utilizado para nes de simulacion fue obtenido
mediante las ecuaciones de Euler-Lagrange y es mostrado en el Apendice A espec-
camente en la ecuacion (A.4), los par ametros de dicho modelo son presentados en la
Tabla A.1; y fueron tomados del carro-pendulo invertido marca Quanser que es mos-
trado en la Figura 4.13. Es importante decir que el modelo matem atico fue obtenido
para prop ositos unicamente de simulacion. Los par ametros de la wavenet son presen-
tados en la tabla 5.1, as como en la Tabla 5.2 se presentan los valores considerados
en las tazas de aprendizaje y los valores de inicializaci on de la wavenet.
Tabla 5.1: Par ametros de la wavenet
Parametro Valor
Wavelet madre Morlet
N umero de neuronas 3
Coecientes c del ltro IIR 4
Coecientes d del ltro IIR 2
Periodo de muestreo 0.01 s
Se nal de persistencia v
u
5
50 Captulo 5: PID wavenet multiresolucion
Figura 5.4: Diagrama general del controlador PID multiresoluci on wavenet
Tabla 5.2: Valor de tazas de aprendizaje y valores de inicializacion
Parametro Valor Taza de aprendizaje Valor
W [0, 0, 0]
w
0.005
A [10, 10, 10]
a
0.005
B [1, 1, 1]
b
0.005;
C [0.1, 0.05, 0, 0.15]
c
0.005
D [0, 0]
d
0.005
k
H
600
k
p 5555
k
H2
400
k
i 5555
k
M
400
k
d 5555
K
M2
200
k
p 5555
k
L
2400
k
i 5555
k
L2
2000
k
d 5555
5.4.1. Resultados de la identicaci on
La simulaci on fue realizada con una condici on inicial de /40 rad en la posicion
angular del pendulo y 0 en la posici on del carro; donde 0 es el centro del espacio de
Captulo 5: PID wavenet multiresolucion 51
trabajo para el carro y el punto de equilibrio inestable para el pendulo. En la Figura
5.5 se muestra la salida de la red neuronal wavelet. La aproximacion se hizo bajo el
control PIDMR auto-sintonizado con una referencia senoidal de amplitud /40 rad y
una frecuencia de 1Hz.
0 5 10 15 20 25 30 35
3
2
1
0
1
2
3
x 10
3
Tiempo (segundos)
P
o
s
i
c
i

n

a
n
g
u
l
a
r

(
g
r
a
d
o
s
)
Figura 5.5: Salida estimada del sistema con el PIDMR en lnea.
En la Figura 5.6 es mostrado el error de identicaci on presentado anteriormente
en la Ecuaci on (4.12). En ella es posible observar que aunque el error de identicaci on
es de 2

, es suciente para adaptar las ganancias y obtener un correcto desempe

Aso
al controlar el sistema subactuado.
0 10 20 30 40 50
2.5
2
1.5
1
0.5
0
0.5
1
1.5
2
2.5
Tiempo (segundos)
E
r
r
o
r

(
g
r
a
d
o
s
)
Figura 5.6: Error de identicacion de la wavenet con el PIDMR en lnea.
En las Figuras 5.7, 5.8 y 5.9 se muestra el comportamiento de los par ametros de
52 Captulo 5: PID wavenet multiresolucion
la wavenet como son dilataciones a y traslaciones b de la funci on Madre y pesos w de
las diferentes neuronas. La simulaci on se realiza con tres neuronas, y se observa que
el comportamiento de los diferentes parametros se comportan de la misma manera
como se muestra en las Figuras 5.7, 5.8 y 5.9.
0 10 20 30 40 50
10
10.0005
10.001
10.0015
10.002
10.0025
10.003
D
i
l
a
t
a
c
i

n
,

a
Tiempo (segundos)
(a) Delatacion de la primera neurona de la
RNW.
0 10 20 30 40 50
10
10.0005
10.001
10.0015
10.002
10.0025
10.003
D
i
l
a
t
a
c
i

n
,

a
Tiempo (segundos)
(b) Delatacion de la segunda neurona de la
RNW.
0 10 20 30 40 50
10
10.0005
10.001
10.0015
10.002
10.0025
10.003
Tiempo (segundos)
D
i
l
a
t
a
c
i

n
,

a
(c) Delatacion de la tercera neurona de la
RNW.
Figura 5.7: Dilataciones de la wavenet.
Captulo 5: PID wavenet multiresolucion 53
0 10 20 30 40 50
1
1.0005
1.001
1.0015
1.002
1.0025
1.003
T
r
a
s
l
a
c
i

n
,

b
Tiempo (segundos)
(a) Traslacion de la primera neurona de la
RNW.
0 10 20 30 40 50
1
1.0005
1.001
1.0015
1.002
1.0025
1.003
T
r
a
s
l
a
c
i

n
,

b
Tiempo (segundos)
(b) Traslacion de la segunda neurona de la
RNW.
0 10 20 30 40 50
0.999
0.9995
1
1.0005
1.001
1.0015
1.002
1.0025
1.003
1.0035
1.004
Tiempo (segundos)
T
r
a
s
l
a
c
i

n
,

b
(c) Traslacion de la tercera neurona de la
RNW.
Figura 5.8: Traslaciones de la wavenet.
En las Figuras 5.7 se observa que los valores de dilataci on se estabilizan alrededor
de los 35 segundos, en 5.8 se muestra que las traslaciones se estabilizan a los 40
segundos aproximadamente y en 5.9 los pesos se estabilizan a los 30 segundos de la
simulaci on. Es importante observar que al igual que en el PID wavelet los parametros
se comportan de la misma manera debido a que tiene en linea el controlador; pero
que en este caso tanto las dilataciones como traslaciones no se comportan de manera
constante.
54 Captulo 5: PID wavenet multiresolucion
0 10 20 30 40 50
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
x 10
4
P
e
s
o
,

w
Tiempo (segundos)
(a) Peso de la primera neurona de la RNW.
0 10 20 30 40 50
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
x 10
4
P
e
s
o
,

w
Tiempo (segundos)
(b) Peso de la segunda neurona de la RNW.
0 10 20 30 40 50
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
x 10
4
P
e
s
o
,

w
Tiempo (segundos)
(c) Peso de la tercera neurona de la RNW.
Figura 5.9: Pesos de la wavenet.
En las guras 5.10 se muestra el comportamiento de los parametros del ltro IIR
como retroalimentacion y prealimentacion que mejoran la identicaci on de la wavenet.
Es importante notar que los dos par ametros de prealimentacion son los mismos.
Captulo 5: PID wavenet multiresolucion 55
0 5 10 15 20 25 30 35
0.8
1
1.2
1.4
1.6
1.8
2
x 10
16
c
o
e
f
i
c
i
e
n
t
e

d
e

r
e
t
r
o
a
l
i
m
e
n
t
a
c
i

n
,

d
Tiempo (segundos)
(a) Primer coeciente de retroalimentacion del
ltro IIR.
0 5 10 15 20 25 30 35
0.8
1
1.2
1.4
1.6
1.8
2
x 10
16
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

r
e
t
r
o
a
l
i
m
e
n
t
a
c
i

n
,

d
(b) Segundo coeciente de retroalimentacion
del ltro IIR.
Figura 5.10: Coecientes de retroalimentaci on del ltro IIR.
En la Figura 5.11 se muestra que los tres par ametros de prealimentaci on de las
Figuras 5.11a, 5.11b y 5.11d, son equidistantes a diferencia del tercer parametro el cual
es presentado en la Figura 5.11c el cual se estabiliza alrededor de los 40 segundos. Es
importante destacar con los par ametros del ltro IIR se comportan de manera similar
en ambas conguraciones del controlador PID.
56 Captulo 5: PID wavenet multiresolucion
0 10 20 30 40 50
0
0.02
0.04
0.06
0.08
0.1
0.12
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

p
r
e
a
l
i
m
e
n
t
a
c
i

n
,

c
(a) Primer coeciente de prealimentacion del
ltro IIR.
0 10 20 30 40 50
0
0.01
0.02
0.03
0.04
0.05
0.06
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

p
r
e
a
l
i
m
e
n
t
a
c
i

n
,

c
(b) Segundo coeciente de prealimentacion del
ltro IIR.
0 10 20 30 40 50
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
x 10
8
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

p
r
e
a
l
i
m
e
n
t
a
c
i

n
,

c
(c) Tercer coeciente de prealimentacion del l-
tro IIR.
0 10 20 30 40 50
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
Tiempo (segundos)
c
o
e
f
i
c
i
e
n
t
e

d
e

p
r
e
a
l
i
m
e
n
t
a
c
i

n
,

c
(d) Cuarto coeciente de prealimentacion del
ltro IIR.
Figura 5.11: Coecientes de prealimentaci on del ltro IIR.
5.4.2. Resultados del control PIDMR wavenet
El comportamiento del PIDMR es presentado en la Figura 5.12, en la cual ambas
gr acas corresponden a la se nal de control u(t) pero con diferente escala. lo que
permite ver que existe un pico inicial debido al error inicial con valor /40 radianes y
las ganancias iniciales las cuales no son las mejores aunque cabe destacar que debido
la naturaleza inestable del sistema estas tienen que estabilizar el sistema.
Captulo 5: PID wavenet multiresolucion 57
0 2 4 6 8 10
20
15
10
5
0
5
10
C
o
n
t
r
o
l

(
v
o
l
t
s
)

Tiempo (segundos)
Figura 5.12: Se nal de control del PIDMR wavenet.
En la Figura 5.13 se muestra el desempe no del controlador en el seguimiento de
trayectorias; ya que se aprecia que la posicion angular real converge a la posici

Atn
angular de referenca. Y que tiene un error seguimiento que converge en menos de un
segundo a cero como se muestra en la Figura 5.14.
0 10 20 30 40 50
5
4
3
2
1
0
1
2
3
4
5
Tiempo (segundos)
P
o
s
i
c
i

n

a
n
g
u
l
a
r

(
g
r
a
d
o
s
)


Posicin angular de referencia
Posicin angular real
40 42 44
5
4.5
4


Figura 5.13: Comportamiento en seguimiento de trayectorias.
58 Captulo 5: PID wavenet multiresolucion
0 1 2 3 4 5
2
1.5
1
0.5
0
0.5
1
Tiempo (segundos)
E
r
r
o
r

(
g
r
a
d
o
s
)
Figura 5.14: Error en seguimiento de trayectorias.
5.4.3. Resultados de la autosintonizaci on
En la Figura 5.15 se muestra el comportamiento de las ganancias del controlador
las cuales fueron adaptadas a lo largo de la simulaci on. Es posible notar que se realiz o
en control a un nivel de descomposici on N = 5 por lo que tenemos seis componentes
en el controlador las cuales corresponden a cada una de las componentes tiempo-
frecuenca del analisis sub-banda de la se

Asal de error de seguimiento. En la Figura


5.15a se observa que la ganancia de alta frecuencia se estabiliza a los 30 segundos, la
primer y cuarta ganancia de media frecuencia de las Figuras 5.15c y 5.15e, respecti-
vamente, se estabilizan a los 15 segundos, la segunda ganancia de media frecuencia
presentada en la Figura 5.15d se estabiliza a los 20 segundos, la tercer ganancia de
media frecuencia se estabiliza antes de 1 segundo, y la ganancia de baja frecuencia de
la Figura 5.15f se estabiliza alrededor de 1 segundo. Es importante resaltar que dado
que las seis ganancias del controlador se estabilizan, implica que la funcion de energa
del error de seguimiento de la ecuaci on (4.13), ha sido minimizado por el metodo
del gradiente descendente utilizado en el aprendizaje de la red neuronal y que fue
presentado en las ecuaciones (4.14),(4.15), (4.16), (4.17) y (4.18).
Captulo 5: PID wavenet multiresolucion 59
0 5 10 15 20 25 30 35
599.978
599.98
599.982
599.984
599.986
599.988
599.99
Tiempo (segundos)
G
a
n
a
n
c
i
a
s
(a) Ganancia de la componente de baja fre-
cuencia.
0 5 10 15 20
399.982
399.984
399.986
399.988
399.99
399.992
399.994
399.996
399.998
400
400.002
Tiempo (segundos)
G
a
n
a
n
c
i
a
s
)
(b) Ganancia de la primer componente de me-
diana frecuencia.
0 5 10 15 20 25 30 35
399.965
399.97
399.975
399.98
399.985
399.99
Tiempo (segundos)
G
a
n
a
n
c
i
a
s
(c) Ganancia de la segunda componente de me-
diana frecuencia.
0 1 2 3 4 5
199.95
199.96
199.97
199.98
199.99
200
200.01
200.02
200.03
200.04
200.05
Tiempo (segundos)
G
a
n
a
n
c
i
a
s
(d) Ganancia de la tercer componente de me-
diana frecuencia.
0 5 10 15 20 25 30
2399.98
2399.985
2399.99
2399.995
Tiempo (segundos)
G
a
n
a
n
c
i
a
s
(e) Ganancia de la cuarta componente de me-
diana frecuencia.
0 5 10 15
1999.98
1999.985
1999.99
1999.995
2000
2000.005
2000.01
2000.015
2000.02
2000.025
2000.03
Tiempo (segundos)
G
a
n
a
n
c
i
a
s
(f) Ganancia de la componente de alta frecuen-
cia.
Figura 5.15: Ganancias frecuenciales del PIDMR a una descomposici on N = 3.
Captulo 6
Conclusiones y trabajos futuros
6.1. Conclusiones
El PID wavenet multiresolucion solo emplea como entrada la se nal del error, el cual
es descompuesto en sus componentes frecuenciales; empleando para esto un esquema
de sub-banda a diferencia del otro controlador que emplea la derivada del error o su
aproximacion.
La contribuci on original de este trabajo de investigaci on es proponer un algoritmo
de adaptaci on de las ganancias de dicho controlador. De lo anterior se concluye que
dicha hipotesis es verdadera y por lo tanto el objetivo del trabajo de investigacion se
cumpli o satisfactoriamente.
6.2. Trabajos futuros
Realizar la implementacion fsica del controlador PID multiresoluci on wavelet
para el sistema subactuado carro-pendulo invertido.
Realizar un estudio comparativo detallado en implementaci on fsica entre ambos
controladores.
Realizar la migracion de los algoritmos elaborados en esta tesis a otra plata-
forma de programaci on que permita su implantacion en tarjetas de bajo costo-
consumo.
Realizar pruebas con un sistema SIMO con dichos controladores.
Realizar pruebas con un sistema MIMO con el PID multiresoluci on wavelet.
Realizar prueba de estabilidad para el PID multiresolucion wavelet.
61
Bibliografa
[1] Q. I. Educate (2002). Linear Motion Servo Plants: IPO1, User Manual.
[2] Rahib Hidayat Abiyev, Okyay Kaynak, and Fellow. Fuzzy wavelet neural net-
works for identication and control of dynamic plants novel structure and a
comparative study. In IEEE Transactions on Industrial Electronics, 2008.
[3] K. Astrom and T. Hagglund. Advanced PID Control. ISA, 2006.
[4] C. M. Chang and T. S. Liu. A wavelet network control method for disk drives.
In IEEE Trans. on Control Systems Technology, Vol. 14, No. 1 2006.
[5] F. C. Chen. Back-propagation neural networks for nonlinear self-tuning adaptive
control. In IEEE Control Systems Magazine, Special Issue on Neural Networks
for Control Systems, 1990.
[6] R. Churchill. Series de Fourier y Problemas de Contorno. McGraw-Hill, 1978.
[7] R. Crochiere, A. Webber, and J. Flanagan. Digital Coding of Speech in Sub-bands.
Bell Systems Technical Journal, Vol. 55, No. 8, pp. 1069-1085 1976.
[8] A. Croisier, D. Esteban, and C. Galand. Perfect channel splitting by use of
interpolation / decimation / tree decomposition techniques. In International
Conference on Inform. Sciences and Systems, pp. 443-446 1976.
[9] J. A. Cruz, L. E. Ramos, and M. A. Espejel. A self-tuning of a wavelet pid
controller.
[10] I. Daubechies. The Wavelet Transform, Time-Frequency Localization and Signal
Analysis. IEEE Trans. Inf. Theory, Vol. 36, No. 5, pp. 961-1005 1990.
[11] I. Daubechies. Ten Lectures on Wavelets. SIAM, 1992.
[12] I. Daubechies. Othonormal Bases of Compactly Supported Wavelets. Commun.
on Pure and Appl. Math., Vol. 41, pp. 909-996, November 1988.
63
64 Bibliografa
[13] F. Dengchao and J.M. Dias. Study on information fusion based on wavelet neural
network and evidence theory in fault diagnosis. In The Eighth International
Conference on Electronic Measurement and Instruments, 2007.
[14] C. Domnguez. Algoritmos Wavenet con Aplicaciones en la Aproximacion de
Se nales. Tesis de Maestra en Ciencias en Sistemas Computacionales, Universidad
Autonoma del Estado de Hidalgo, 2008.
[15] C. R. Domnguez, M. A. Espejel, L. E. Ramos, J. C. Ramos, and E. Escamilla.
Algoritmos wavenet con aplicaciones en la aproximaci on de se nales: un estudio
comparativo. In Revista Iberoamericana de Automatica e Informatica industrial,
pp. 1-13 2011.
[16] C. R. Domnguez, L. E. Ramos-Velasco, J. C. Carrillo-Santos, Ramos-
Fernnandez, and M. A. M arquez-Vera. Online identication for auto-tuning pid
based on wavelet neural networks: An experimental validation on an ac motor.
In European Control Conference, 2013.
[17] A. Ebadat, N. Noroozi, A.A. Safavi, and S. H. Mousavi.
[18] I. Fantoni and R. Lozano. Non-linear Control for Underactuated Mechanical
Systems. Springer Verlang, London, England, 2002.
[19] J. Fourier. Theorie Analytique de la Chaleur. Firmin Didot, 1822.
[20] Oriolo G. and Nakamura Y. Control of mechanical systems with second-order
nonholonomic constraints: underactuated manipulators. In Proceedings of the
30th IEEE Conference on Decision and Control, Vol. 3, pp. 2398 - 2403 1991.
[21] J. Goswami and A. Chan. Fundamentals of Wavelets - Theory, Algorithms and
Applications. John Wiley And Sons, 1999.
[22] A. Grossman and J. Morlet. Decomposition of Hardy Funtions into Squared
Integrable Wavelets of Constant Shape. SIAM J. of Math. Annal., Vol. 15, No.
4, pp. 723-736 1984.
[23] A. Haar. Zur theorie der Orthogonalen Funktionsysteme. Math. Annal., Vol. 64,
pp. 331-373 1910.
[24] M.T. Hagan. Nueral Network Desing. PWS Publishing Company, 1999.
[25] S. Haykin. Neural Networks: A Comprehensive Foundation. Prentice Hall, Upper
Saddler River, New Jersey, USA, 1999.
Bibliografa 65
[26] O. Islas, L. E. Ramos, and J. Garca. Identicaci on y control wavenet de un
motor de cd. In Congreso Anual 2010 de la Asociacion de Mexico de Control
Automatico, 2010.
[27] Astrom K. Computer-Controlled Systems, theory and design. Pretince-Hall, 2001.
[28] B. Kuo. Sistemas de Control Digital. C.E.C.S.A., 1997.
[29] A. U. Levin and K. S. Narendra. Control of nonlinear dynamical systems using
neural networks, part ii: Observability, identication and control. In IEEE
Transactions on Neural Networks, 1995.
[30] H. Li, H. Jin, and C. Guo. Pid control based on wavelet neural network iden-
tication and tuning and its application to n stabilizer. In Proceedings of the
IEEE International Conference on Mechatronics and Automation, pp. 1907-1911
2005.
[31] Hui Li and Hongzhang Jin. Pid control based on wavelet neural network iden-
tication and tuning and its application to n stabilizer. In In International
Conference on Mechatronics and Automation, 2004.
[32] Tao Li, Qi Li, Shenghuo Zhu, and Mitsunori Ogihara. A survey on wavelet
applications in data mining. In SIGKDD Explorations, pp. 49.
[33] R. Lippmann. An Introduction to Computing with Neural Networks. IEEE Signal
Processing Magazine, pp. 4-22 2002.
[34] G. Liu, S. Billings, and V. Kadirkamanathan. Nonlinear system identication
using wavelet networks. In UKACC International Conference on Control98, pp.
1248-1253 1998.
[35] Sedighizadeh M. and A. Rezazadeh. Adaptative pid control of wind energy con-
version systems, using rasp1 mother wavelet basis function network. In Procee-
ding of World Academy of Science, Engineering and Technology.
[36] S. Mallat. Multiresolution Aproximations and Wavelet Orthonormal Bases of
L
2
(R). Trans. Amer. Math. Soc., Vol. 315, pp. 69-87 1989.
[37] S. Mallat. A Theory Multiresolution Signal Decomposition: The Wavelet Re-
presentation. IEEE Trans. Pattern. Annal. Machine Intell., Vol. 11, No. 7, pp.
674-693 1989.
[38] S. Mallat. A Wavelet Tour of Signal Processing. Prentice Hall PTR, New York,
1999.
66 Bibliografa
[39] I. Mareels, H.B. Penfold, and R.J. Evans. Controlling nonlinear time-varying
systems via euler approximations. In Automatica, Vol.28, No. 4, pp. 681-696
1992.
[40] The MathWorks. The Wavelet Toolbox version 3.0, 1995-2004.
[41] C. R. Dominguez Mayorga, M. A. Espejel Rivera, L. E. Ramos Velasco, J. C. Ra-
mos Fern andez, and E. Escamilla Hern andez. Algoritmos wavenet con aplica-
ciones en la aproximacion de se nales: un estudio comparativo. In Revista Ibe-
roamericana de Automatica e Informatica Industrial, Vol.9, No. 4, pp. 347-358
2012.
[42] Y. Meyer. Methodes Temps-Frequence et Methodes Temps-

Echelle en Traitement
du Signal et de Limagen. INRIA lectures, 1990.
[43] Y. Meyer. Ondelettes et Operateurs. 1990.
[44] Y. Meyer. Wavelets, Algorithms and Applications. SIAM, 1993.
[45] B. Muller and J. Reinhardt. Neural Networks. Spring Verlag, 1990.
[46] C.P. Neuman and V.D. Tourassis. Discrete dynamic robot models. In IEEE
Transactions on Systems, Man and cybernetics, SMC, Vol. 15, No. 2, pp. 193-
204 1985.
[47] S. Nicosia, P. Tomei, and A. Tornambe. Discrete dynamics of robot arm. In In
Poceedings of IFAC Theory of Robotics, 1986.
[48] K. Ogata. Sistemas de Control en Tiempo Discreto. Prentice-Hall, Naucalpan,
Edo. de Mexico, 1996.
[49] K. Ogata. Ingeniera de Control Moderna. Prentice-Hall, Naucalpan, Edo. de
Mexico, 1998.
[50] F. Ohkawa and R. Katoh. Digital control of a robot manipulator disturbed by
unknown external forces. In Proceeding of The Society if Instruments and control
Engineers, SICE97, pp.1115-1118 1997.
[51] S. Parvez. Advanced Control Techniques for Motion Control Problem. Ph. D.
Dissertation, 2003.
[52] S. Parvez and Z. Gao. A Wavelet-Based Multiresolution PID Controller. IEEE
Transactions on Industry Applications, Vol. 41, No. 2, pp. 537-543 2005.
Bibliografa 67
[53] Shahid Parvez and Zhiqiang Gao. The wavelet transform, time-frequency lo-
calization and signal analysis. In IEEE Transactions on Industry Applications,
2005.
[54] R. Polikar. The Wavelet Tutorial. Dept. of Electrical an Computer Engineering,
Rowan University, 1996.
[55] J. Proakis. Introduction to Digital Signal Processing. Macmillan publising, 1988.
[56] A. Sideris D. Psaltis and A. A. Yamamura. A multilayered neural network con-
troller. In IEEE Control Systems Magazine, 1988.
[57] B. Horne R. Hush. Progress in Supervised Neural Network. Whats New Since
Lippmann? IEEE Signal Processing Magazine, pp. 8-39 1993.
[58] H. Rahib. Controller based of fuzzy wavelet neural network for control of tech-
nological processes. In IEEE International Conference on Computational Inte-
lligence for Measurement Systems and Applications, pp. 20-22 2005.
[59] Haykin S. Kalman Filtering and Neural Networks. Wiley, 2001.
[60] Jagannathan S. Neural network control of nonlinear control systems. In CRC
Pres Taylor, 2006.
[61] M. Sedighizadeh and A. Rezazadeh. Adaptive PID Control of Wind Energy
Conversion Systems Using RASPl Mother Wavelet Basis Function Networks.
Proceedings of World Academy of Science, Engineering and Technology, Vol. 27,
pp. 269-273 2008.
[62] Y. Sheng. The Transforms and Applications Handbook. CRC Press, 1996.
[63] M. Speigel. Teora y Problemas de Analisis de Fourier. McGraw-Hill serie de
compendios Shaum, 1981.
[64] M. Spong and M. Vidyasagar. Robot Dynamics and Control. John Wiley and
Sons, New York, USA, 1989.
[65] M. W. Spong. The control of underactuated mechanical systems. In I Conferencia
Internacional de Mecatronica, 1994.
[66] M. W. Spong. The swing up control of the acrobot. In IEEE International
Conference on Robotics and Automation, 1994.
[67] S. I. Sudharsanan and M. k. Sundareshan. Training of a three-layer dynamical
recurrent neural network for nonlinear inputoutput mapping. In In Proc. Int.
Conf. on Nerual Networks, 1991.
68 Bibliografa
[68] Ashish Tewari. Advance Control of Aircraft, Spacecraft and Rockets. wiley, 2011.
[69] K.

Astromand and T. Hagglund. PID Controllers: Theory, Design and Tuning.
International, USA, 2007.
[70] L. E. Ramos Velasco, J. C. Ramos Fern andez, O. Islas G omeza, J. Garca Lamont,
M.A. Espejel Rivera, and M.A. M arquez Vera. Identicaci on y control wavenet
de un motor de ca. In Revista Iberoamericana de Automatica e Informatica
industrial, pp. 269 - 278 2013.
[71] M. Vetterli and J. Kova cevi c. Wavelets and Subband Coding. Prentice Hall PTR,
Englewood Clis, New Jersey, USA, 2007.
[72] A Visioli. Practical PID Control. Springer, 2006.
[73] P. Vi nuela and I. Le on. Redes de Neuronas Articiales un Enfoque Practico.
Person Prentice Hall, Espa na, 2004.
[74] R.J. Wai and J.M. Chang. Intelligent control of induction servo motor drive via
wavelet neural network. In Electr. Power Syst. Res., Vol. 61, No.1, pp. 67-76
2002.
[75] J. Wang, F. Wang, J. Zhang, and J. Zhang. Intelligent Controller Using Neural
Network. Intelligent Manufacturing, Proceedings SPIE, 1995.
[76] Wei Wang, Jianwei Li, and Weimin Chen. Fingerprint classication using impro-
ved directional eld and fuzzy wavelet neural network. In 6th World Congress
on Intelligent Control and Automation, pp. 21-23 2006.
[77] T. Yabuta and T. Yameda. Learning control uising neural network. In IEEE
Int. Conf. on Robotics and Automation, pp. 740-745 1991.
[78] S. Zarantonello. Theory and Application of Wavelets. Santa Clara University,
1997.
[79] A. I. Zayed. Advanced in Shannons Sampling Theory. CRC Press, Inc, 1993.
[80] Q. Zhang and A. Benveniste. Wavelet networks. In IEEE Trans. Neural Net-
works, 1992.
[81] Jingdong Zhao, Zongwu Xie, Li Jiang, and Hegao Cai. Emg control for a ve-
ngered underactuated prosthetic hand based on wavelet transform and sample
entropy. In International Conference on Intelligent Robots and Systems, pp. 09-
15 2006.
Glosario

Epoca. Presentaci on completa del conjunto de entrenamiento a la red neuronal.


Actuador. Dispositivo capaz de convertir energa electrica, hidraulica u otro tipo de
energa en movimiento.
Algoritmo. Conjunto ordenado y nito de operaciones que permite hallar la soluci on
de un problema.
Aprendizaje no supervizado. Tambien conocido como aprendizaje auto-supervisado,
no se requiere inuencia externa para ajustar los pesos de las conexiones entre
sus neuronas. No se recibe ninguna informaci on por parte del entorno que indi-
que si la salida generada en respuesta a una determinada entrada es correcta o
no.
Aprendizaje supervizado. Tipo de aprendizaje basado el una respuesta prepro-
gramada para una entrada particular. Es decir, cada par de entrenamiento esta
compuesto por los valores de entrada a la red y los valores de salida deseados
para tales entradas.
Aprendizaje. Proceso por el cual los parametros libres de una red neuronal son
adaptados a traves de estimulaciones generadas por el entorno en el cual la red
neuronal esta empotrada.
Arquitectura. En redes neuronales consiste en la organizaci on y disposicion de las
neuronas formando capas y la forma en que se conectan entre s. En este sentido,
los par ametros fundamentales de la red que constituyen su arquitectura son: el
n umero de capas, el n umero de neuronas por capa, el grado de conectividad y
el tipo de conexiones entre neuronas.
Automatizaci on. Ciencia que trata de sustituir en un proceso el operador humano
por un determinado dispositivo, generalmente electromecanico.
Control adaptable. Esquema de control en el cual los parametros del controlador
se ajustan ante cambios de la planta, de manera que el comportamiento en lazo
69
70 Glosario
cerrado conserva las caractersticas deseadas de dise no. El control adaptable
es inherentemente no lineal. Se aplica a sistemas con par ametros que varan
lentamente en el tiempo.
Control. Proceso mediante el cual un sistema es llevado a par ametros preestableci-
dos.
Convergencia. Es la propiedad de algunas sucesiones y series de tender progresiva-
mente a un lmite. Entonces, acertar la convergencia de una sucesi on signica
que hay un lmite para tal sucesi on.
Dendrita. Prolongacion protoplasmica ramicada de la celula nerviosa (neurona).
Energa. Capacidad de realizar un trabajo.
Entrenamiento. Se reere al proceso consiente y planeado de transferir conocimien-
to, habilidades y capacidades.
Espacio de estado. Espacio de n dimensiones, donde cualquier estado de un sistema
dado puede ser representado como un punto.
Estado. Conjunto mnimo de variables de un sistema dado (variables de estado), tal
que, conociendo su valor en un instante dado, permiten conocer la respuesta del
sistema ante cualquier se nal de entrada o perturbaci on.
Funcion de activaci on. Sirve para limitar la amplitud de la neurona de salida. La
funci on de activaci on limita el rango de amplitud permisible de la se nal de salida
a alg un valor nito.
Funcion suave. La funcion f se dice que es suave si sus derivadas parciales de
cualquier orden existen y son continuas.
Funcion wavelet hija. Es una funcion wavelet resultado de dilatar o contraer y
trasladar una funci on wavelet madre.
Funcion wavelet madre. Es una funcion wavelet que se puede dilatar o contraer y
trasladar, generando funciones wavelet hijas.
Funcion Wavelet. Es una funci on de onda oscilatoria de duracion muy corta, tam-
bien se le llama ondoleta.
Generalizacion. Se reere a que una red neuronal produce salidas razonables para
entradas no encontradas durante el entrenamiento (aprendizaje).
Grados de libertad pasivos. Grados de libertad que no se encuentran actuados.
Glosario 71
Grados de libertad. N umero de coordenadas que describen de manera unica la
posici on de todos los eslabones de un sistema.
Identicacion. Conjunto de metodos para la obtencion de modelos matem aticos a
partir de datos experimentales de las entradas y salidas de un sistema. Evit an-
dose la obtenci on de un modelo a partir de complejas leyes.
Incertidumbre. En teora de la informacion, la certidumbre es el grado c omo la
informaci on se puede considerar verdadera, completa y digna de fe. La incer-
tidumbre se origina a partir de elementos de datos falsos o de un equvoco, a
partir de datos incompletos o de un contexto ambiguo.
Modelo matematico. Es la representaci on por medio de ecuaciones de la din ami-
ca de un sistema. Es el tipo de modelo m as importantes para la ciencia y la
tecnologa.
Neurona Celula nerviosa, elemento fundamental de la arquitectura nerviosa. Es una
unidad de procesamiento de informacion que es fundamental para la operacion
de una red neuronal.
Perceptron. Dicese de una arquitectura de red neuronal est atica multicapa, cuyos
nodos ocultos tienen una funci on de activaci on suave (sigmoidal), mientras que
los nodos de salida poseen una funci on de activacion lineal.
Perturbacion. Variable no deseada aplicada a un sistema y la cual tiende a afectar
adversamente el valor de una variable controlada. Si la perturbacion se genera
dentro del sistema se denomina interna, en tanto que una perturbaci on externa
se produce fuera del sistema y es una entrada.
Punto de equilibrio. El estado x

se dice que es un punto de equilibrio del sistema


x = f(x) si x(t) es igual a x

, para todo t t
0
.
Redes neuronales. Procesador distribuido masivamente paralelo constituido de uni-
dades de procesamiento simples, el cual tiene una tendencia natural a almacenar
conocimiento experimental y hacerlo viable para su posterior uso.
Regla Delta. Regla de ajuste hecho al peso sinaptico de una neurona, el cual es
proporcional al producto de la se nal de error y la se nal de entrada de la sinapsis
en cuestion.
Retroalimentacion. En el proceso de control consiste en la reinyecci on de la sali-
da (o algunas salidas) a la entrada del sistema, con el n de mantener cierto
desempe no.
72 Glosario
Retropropagacion. Algortmo de entrenamiento basado en el metodo del decenso
del gradiente.
Robot. Dispositivo generalmente mecanico, que desempe na tareas automaticamen-
te, ya sea de acuerdo a supervisi on humana directa, a traves de un programa
predenido o siguiendo un conjunto de reglas generales. Generalmente estas
tareas reemplazan, asemejan o extienden el trabajo humano, como ensamble
en manufactura, manipulacion de objetos pesados o peligrosos, trabajo en el
espacio, etc.
Sinapsis. Son uniones especializadas mediante las cuales las celulas del sistema ner-
vioso envan se nales de unas a otras y a celulas no neuronales como las muscu-
lares o glandulares. Son la estructura elemental y unidad funcional que regulan
la interacci on entre neuronas.
Sistema dinamico. Sistema cuya respuesta depende de entradas presentes y pasa-
das (e incluso futuras), dicho sistema puede ser representado mediante ecuacio-
nes diferenciales din amicas.
Sistema lineal. Se dice que un sistema es lineal s cumple con los principios de
homogeneidad y superposici on.
Sistema no lineal. Se dice que un sistema es lineal s no cumple con los principios
de homogeneidad o superposici on.
Sistema subactuado. Sistema con menos actuadores que grados de libertad.
Software. Se dice de todos los componentes intangibles de una computadora, es
decir, al conjunto de programas y procedimientos necesarios para hacer posible
la realizaci on de una tarea especca.
Variables de estado. Conjunto m as peque no de variables que determinan el estado
de un sistema din amico.
Vector de estado. Si se necesitan n variables para describir el estado de un sistema
dado, entonces estas n variables se pueden considerar como los componentes de
un vector x.
Apendice A
Modelo matematico del
carro-pendulo invertido
En el presente apendice se muestra el modelo matem atico del carro-pendulo inver-
tido; el cual es obtenido mediante el metodo de Euler-Lagrange y que es representado
en la forma estandar de la robotica. La ecuacion de Euler-Lagrange est a denida por
d
dt
_

q
L
_


q
L = Q (A.1)
donde q es el vector de coordenadas generalizadas, L denota el lagrangiano denido
como L = KV , con K denida como la energa cinetica del sistema y V que denota
la energa potencial; y Q es termino que considera el resto de los par ametros que no
inuyen en K y V .
Figura A.1: Quansers inverted pendulum.
El lagrangiano que describe este sistema es de la forma
L =
1
2
M q
2
1
+
1
2
J q
2
2
+
1
2
m
_
q
2
1
+ 2l cos (q
2
) q
1
q
2
+ l
2
q
2
2
_
mgl cos (q
2
) (A.2)
73
74 Apendice A: Modelo matematico del carro-pendulo invertido
donde M y m son las masas del carro y pendulo respectivamente, J es el momento
de inercia de la articulaci on entre el carro y el pendulo, l es la longitud de la barra
del pendulo, q
1
y q
2
son la posicion lineal y angular tanto del carro como del pendulo
respectivamente y el centro de masa del pendulo est a considerada como
l
2
.
Al sustituir (A.2) en (A.1), se obtiene
_
(M + m) q
1
+ ml cos (q
2
) q
2
ml sin (q
2
) q
2
J q
2
+ ml cos (q
2
) q
1
+ ml cos (q
2
)
_
=
_
u
1
q
1

2
q
2
_
(A.3)
la ecuaci on (A.3) describe la din amica del carro-pendulo invertido. es posible facto-
rizar las velocidades y aceleraciones presentes en (A.3), asicomo separar los terminos
gravitacionales de las se nales de control y fricciones para as representarlo en la forma
est andar de la rob otica
_
M + m ml cos(q
2
)
ml cos(q
2
) J + ml
2
_
. .
D(q)
_
q
1
q
2
_
. .
q
+
_
0 mlsen(q
2
) q
2
0 0
_
. .
C( q,q)
_
q
1
q
2
_
. .
q
+
_
0
mglsen(q
2
)
_
. .
G(q)
+
_

1
q
1

2
q
2
_
. .
F( q)
=
_
u
0
_
. .

. (A.4)
donde q es el vector de dimensi on n 1 cuyas componentes son las variables de las
articulaciones (coordenadas generalizadas), D(q) es la matriz de inercia de dimension
n n,la cual tiene las propiedades de ser simetrica y denida positiva; C(q, q) es el
vector de Coriolis y fuerzas centrpetas; G(q) son los terminos gravitacionales y es
el vector de dimensiones n 1 de fuerzas generalizadas.
Finalmente en este apendice se presenta la Tabla A.1, la cual contiene los par a-
metros fsicos del prototipo fsico considerado en esta tesis.
Apendice A: Modelo matematico del carro-pendulo invertido 75
Tabla A.1: Parametros del modelo matematico
Parametro Signicado Valor
M Masa del carro 0.52 Kg
m Masa del Pendulo 0.23 Kg
l centro de gravedad 0.32 m
J Momento de inercia 0.007 Kgm
2
g Gravedad 9.8 m/(s
2
)

1
Fricci on del carro 0.1 Kg/s

2
Fricci on del pendulo 0.01 Kg/s
Apendice B
Conceptos previos
B.1. Conceptos generales
Para una mayor compresion sobre el tema de la teora wavelet, se resumen en este
apendice algunos conceptos matem aticos necesarios.
Denicion 1 [Relacion de equivalencia] Si existe un mapeo 1-1 de A sobre B,
se dice que A y B se pueden poner en correspondencia o que A y B tienen el mismo
n umero de cardinalidad o simplemente, que A y B son equivalentes, y se escribe
A B. Esta relacion tiene las siguientes propiedades:

Esta es reexiva: A B.

Esta es simetrica: si A B, entonces B A.

Esta es transitiva: si A B y B C, entonces A C.


cualquier relacion con estas tres propiedades se llama una relacion de equivalen-
cia.
Denicion 2 [Conjuntos contables] Para alg un entero positivo n, sea J
n
el con-
junto cuyos elementos son los enteros 1, 2, , n; sea J el conjunto de todos los en-
teros positivos. Para alg un conjunto A, se dice:
(a) A es nito si A J
n
para alg un n.
(b) A es innito si A es no nito.
(c) A es contable si A J.
(d) A es no contable si A es no nito.
77
78 Apendice B: Conceptos previos
Los conjuntos contables son algunas veces llamados conjuntos enumerables.
Ejemplo 1 Sea A el conjunto de todos los enteros. Entonces A es contable. Para
esto considere los siguientes arreglos de los conjuntos A y J:
A = 0, 1, -1, 2, -2, 3, -3,
J = 1, 2, 3, 4, 5, 6, 7,
donde se puede observar que existe una correspondencia 1-1 entre los elementos de
ambos conjuntos.
Denicion 3 [Campo] Es una coleccion de elementos de un conjunto F que posee
dos operaciones binarias, llamadas suma y producto, tal que el resultado de estas
operaciones de dos elementos cualquiera de F da un elemento tambien de F, (+)
F y ( ) F, es decir, es cerrado bajo las operaciones de suma y producto. Ademas
un campo cumple con los siguientes axiomas:
1. Operacion binaria adicion, satisfaciendo:
La adicion es conmutativa, + = + , , F.
La adicion es asociativa, + ( + ) = ( + ) + , , , F.
Existe un elemento neutro unico, llamado neutro aditivo y denotado por 0,
tal que + 0 = , F.
Existe un elemento llamado inverso aditivo, unico a cada elemento del
campo F, tal que + () = 0, F.
2. Operacion binaria producto, satisfaciendo:
El producto es conmutativo, = , , F.
El producto es asociativo, ( ) = ( ) , , , F.
Existe un elemento unico, llamado neutro multiplicativo y denotado por 1,
tal que 1 = , F.
Existe un elemento llamado inverso multiplicativo unico para cada elemen-
to del campo F, tal que,
1
= 1, ,
1
F.
3. El producto es distributivo con respecto a la adicion, es decir
( + ) = ( ) + ( ), , , F.
Observacion 1 Usualmente se escribe (en cualquier campo)
,

, + + , ,
2
,
3
, 2, 3,
Apendice B: Conceptos previos 79
en lugar de
+ (), (
1

), + ( + ), , , + , + + ,
Ejemplos de campos son: los n umeros reales R; los n umeros racionales Q; los
n umeros complejos C.
Un espacio vectorial puede ser denido sobre cualquier campo F, s olo que para
prop ositos de esta tesis los campos a considerar son los reales y los complejos, es decir
FR o FC, dando como resultado un espacio vectorial lineal real y un espacio vectorial
lineal complejo, respectivamente.
Denicion 4 [Espacio vectorial lineal] Un espacio vectorial lineal real R
(espacio lineal complejo C, respectivamente) es un conjunto cuyos elementos x, y,
z son llamados vectores que junto con las operaciones de adicion
(+) : V V V
y multiplicacion
() : R V V
(() : C V V , respectivamente.)
cumplen con los siguientes axiomas x, y, z V y r
1
, r
2
R, (c
1
, c
2
C)
1. Ley conmutativa, x +y = y +x,
2. Ley asociativa, (x +y) +z = x + (y +z),
3. Ley asociativa con respecto a los elementos del campo, r
1
(r
2
x) = (r
1
r
2
)x,
(c
1
(c
2
x) = (c
1
c
2
)x, respectivamente)
4. Ley distributiva con respecto a los elementos del campo, r
1
(x+y) = r
1
x+r
2
y,
(c
1
(x +y) = c
1
x + c
2
y, respectivamente)
5. Ley distributiva con respecto a los elementos del campo, (r
1
+r
2
)x = r
1
x+r
2
x,
((c
1
+ c
2
) x = c
1
x + c
2
x, respectivamente)
6. Existe un elemento neutro unico, llamado neutro aditivo y denotado por 0
v
V ,
tal que x + 0
v
= x, x V
7. Existe un elemento llamado inverso aditivo, unico a cada elemento de V , tal
que x + (x) = 0
v
,
80 Apendice B: Conceptos previos
8. Existe un elemento llamado neutro multiplicativo, unico a cada elemento de V ,
tal que x 1 = x.
Un espacio vectorial V es cerrado bajo las operaciones binarias de adicion y pro-
ducto por un escalar, es decir, una operacion binaria de un vector x y un elemento
del campo R.
Existen propiedades importantes de un espacio vectorial V que se obtienen de los
axiomas de la denicion, y se enuncian a continuacion:
1. x +y = x +z y = z,
2. x = y, ,= 0
v
x = y,
3. x = x, x ,= 0
v
= ,
4. ( ) x = x x,
5. (x y) = x y,
6. 0
v
= 0
v
.
Denicion 5 [Subespacio] Un subconjunto M de un espacio vectorial V es llamado
subespacio de V si M satisface las siguientes condiciones x, y M
1. x +y M,
2. +x M,
de manera equivalente x + y M.
Observacion 2 Debido a que M ,= x M (1x + 1x) M, entonces
(1 + 1)x = x = M,
es decir cualquier subespacio contiene el vector nulo.
Denicion 6 [Combinacion lineal] Una combinaci on lineal esta formada por
la suma de elementos de un espacio vectorial x
1
, x
2
, x
3
, , x
n
V en combinacion
con escalares del campo F, es decir

1
x
1
+
2
x
2
+
3
x
3
+ +
n
x
n
.
Una combinaci on lineal es usada para construir un subespacio de un subconjunto
arbitrario en un espacio vectorial. Una combinaci on lineal de un subespacio M est a
contenido en el mismo subespacio.
Apendice B: Conceptos previos 81
Denicion 7 [Generador o Span] Sea S = x
1
, x
2
, , x
n
un conjunto nito
de vectores en un espacio vectorial V . El subconjunto W de V generado (spanned)
por S es el conjunto de todas las combinaciones de S. Este conjunto es llamado
generador o span de S y se denota por:
[S] = spanx
1
, x
2
, , x
n

Teorema 1 El generador o span de cualquier conjunto nito S = x


1
, x
2
, , x
n

de vectores en V es un subconjunto de V .
Denicion 8 [Dependencia lineal] Un vector x se dice linealmente depen-
diente de un conjunto nito de vectores S, si x puede ser expresado como una com-
binacion lineal de S V , es decir
x =

i
s
i
; s
i
S.
Denicion 9 [Independencia lineal] Un conjunto nito de vectores x
1
, x
2
, x
3
,
, x
n
es linealmente independiente si

1
x
1
+
2
x
2
+
3
x
3
+ +
n
x
n
= 0,
implica que

1
=
2
=
3
= =
n
= 0.
Por negacion de la Denicion 8, un vector x se dice linealmente independiente del
conjunto S si no es linealmente dependiente de S.
Denicion 10 [El conjunto vacio, es linealmente dependiente] es lineal-
mente dependiente de cualquier conjunto de vectores. es considerado un conjunto
dependiente. El conjunto de un solo elemento diferente de cero es linealmente inde-
pendientes, es decir V ,= 0 es un conjunto independiente.
Teorema 2 El conjunto de vectores x
1
, x
2
, x
3
, , x
n
son linealmente independien-
tes si y solo si

n
k=1

k
x
k
= 0
k
= 0; k = 1, 2, 3, , n.
Corolario 1 El conjunto de vectores x
1
, x
2
, x
3
, , x
n
son linealmente indepen-
dientes, si:

n
k=1

k
x
k
=

n
k=1

k
x
k

k
=
k
; k = 1, 2, 3, , n.
Denicion 11 [Base] Un conjunto nito de vectores S linealmente independiente
se dice una base de V si S genera V, es decir: [S] V.
82 Apendice B: Conceptos previos
Denicion 12 [Dimension] Un espacio vectorial V que tiene una base nita se dice
nito dimensional, si no es nito dimensional se dice innito dimensional.
Teorema 3 Cualesquiera dos bases de un espacio vectorial tienen el mismo n umero
de elementos.
El n umero de vectores en una base es igual al n umero de dimensi on.
Denicion 13 [Transformacion] Sean V y Y espacios vectoriales y D V
T : D Y ,
x y,
con y = T(x), a T se llama una transformacion de V a Y con dominio D.
Denicion 14 [Funcional] Una transformacion de un espacio vectorial V al espa-
cio de los reales o los complejos es una funcional en V, es decir
f : V K es una funcional en V.
donde K representa el espacio real R o el espacio complejo C.
Denicion 15 [Transformacion lineal] Sean V y Y espacios vectoriales sobre el
mismo campo F. Se dice que T : V Y es lineal si x
1
, x
2
V y
1
,
2

F se cumple
T(
1
x
1
+
2
x
2
) =
1
T(x
1
) +
2
T(x
2
).
Ejemplo 2 A continuacion se dan algunos ejemplos de transformaciones lineales:
Transformada de Laplace
L =
_

e
st
dt,
Transformada de Fourier
F =
_

e
iwt
dt,
Transformada Z
Z =

k=
z
k
,
Apendice B: Conceptos previos 83
Transformada wavelet
W =
_

a,b
(t)dt.
Una vez dado una serie de deniciones sobre espacio vectorial como son: dependen-
cia e independencia lineal, base, dimensi on, serie, transformaci on, funcional y trans-
formaci on lineal. Se observa en todas estas deniciones que no se hace uso de la noci on
de distancia, para esto es importante dotar al espacio vectorial de una forma de medir.
Denicion 16 [Metrica] X es cualquier conjunto no vacio, un metrica es una
funcion de dos argumentos d(x, y), llamada tambien funcion de distancia,
d : X X R
+
,
que satisface
d(x, y) 0, x, y R, (Positividad)
d(x, y) = 0, si y solo si x = y,
d(x, y) = d(y, x), (Simetra)
d(x, y) d(x, z) + d(z, y), (Desigualdad del triangulo).
Denicion 17 [Espacio metrico] Un espacio metrico es el par (X, d), es decir un
conjunto no vacio X donde se ha denido una metrica.
Sea X un un espacio metrico. Todos los puntos y conjuntos mencionados abajo se
entiende elementos y conjuntos de X.
(a) Una vecindad de un punto p es un conjuntoN
r
(p) conteniendo todos los puntos
q tal que d(p, q) < r. El n umero r es llamado el radio de N
r
(p).
(b) Un punto p es un punto lmite del conjunto E si cualquier vecindad de p
contiene un punto q ,= p tal que q E.
(c) Si p E y p no es un punto lmite de E, entonces p se llama un punto aislado
de E.
(d) E es cerrado si cualquier punto lmite de E es un punto de E.
(e) La clausura de E es la union de dicho conjunto con todos sus puntos lmites.
(f ) Un punto p es un punto interior de E si existe una vecindad N de p tal que
N E.
84 Apendice B: Conceptos previos
(g) E es abierto si cualquier punto de E es un punto interior de E.
(h) El complemento de E (denotado por E
c
) es el conjunto de todos los puntos
p X tal que p , E.
(i) E es perfecto si E es cerrado y cualquier punto de E es un punto lmite de E.
(j) E esta acotado si hay un n umero real m y un punto q X tal que d(p, q) < m
para todo p E.
(k) E es denso en X si cualquier punto de X es un punto lmite de E, o un punto
de E (o ambos).
Denicion 18 [Espacio normado] Un espacio normado es un par ordenado
(V, | |) donde V es un espacio vectorial real (o complejo) y | | : V R es
una funcion valuada en los reales denida sobre V llamada norma que satisface los
siguientes axiomas:
1. |x| 0; |x| = 0, si y solo si x = 0; (Denida positiva)
2. |x| = [[|x|, R;(Homogenea)
3. |x +y| |x| +|y|; (Desigualdad del triangulo)
Una norma | | en V dene una metrica d en V dada por d(x, y) = |x y| y es
llamada la metrica inducida por la norma.
A continuaci on se dan algunos ejemplos de espacios normados:
Ejemplo 3 Espacio Euclidiano y espacio unitario. El espacio vectorial lineal real
de n-tuplas ordenadas de n umeros reales R
n
( o complejos C), donde para x =
x
1
, x
2
, , x
n
junto con la funcion
| |
2
: R
n
R, (o | |
2
: C
n
C), denida por
|x|
2
=
_

n
i=1
[x
i
[
2
,
en el caso real se llama n-espacio Euclidiano y se denota por (R
n
, | |
2
) y en el caso
complejo n-espacio unitario y se denota por (C
n
, | |
2
).
Ejemplo 4 Considere nuevamente el espacio vectorial lineal R
n
(o C
n
), junto con la
funcion
| |
p
: R
n
R, (o | |
p
: C
n
R), denida por
|x|
p
= (

n
i=1
[x
i
[
p
)
1
p
,
Apendice B: Conceptos previos 85
donde p es cualquier n umero en el intervalo [1, ]. Si p = 1, entonces | |
p
esta dada
por
|x|
1
=

n
i=1
[x
i
[,
mientras que si p , entonces la norma | |
p
se aproxima a
|x|

= max[x
i
[, 1 i n
= max[x
i
[ [ i 1, 2, , n.
Una vez dada la denicion de norma sobre un espacio vectorial, este se ha dota-
do de una forma de medir y ahora se est a en posicion de estudiar conceptos como
convergencia, continuidad, lmite, etc.
Denicion 19 [Transformacion continua] Sean V y Y espacios normados, se
dice T : V Y es continuo en x
0
V , si > 0 > 0, tal que |x x
0
|
V
<
|T(x) T(x
0
)|
Y
< .
Como se puede observar la continuidad depende de la norma en ambos espacios
V y Y. Se debe notar que T tiene que estar denida en el punto x
0
para que sea
continua en x
0
.
Denicion 20 [Sucesion] Una sucesion de elementos de un espacio normado (
V, [[ [[) es una funcion cuyo dominio es el conjunto de los n umeros naturales o un
subconjunto propio de N.
f : N V,
n x
n
,
y se escribe x
n
= f(n). Una sucesion teniendo dominio a un subconjunto nito de N
son llamados sucesiones nitas. Es com un en la practica una notacion de subndice
para una sucesion y escribir f(n) como x
n
denotando la sucesion por
x
n
= x
1
, x
2
, , x
n
, .
Cualquier subconjunto innito de S de n umeros naturales puede ser representado
como el rango de una subsucesion donde los terminos preservan el orden de sistema
de n umeros naturales N; esto es, hay una funcion g que preserva el orden
S N,
f : N V,
f : N S,
fog(n) = f (g(n)).
86 Apendice B: Conceptos previos
Denicion 21 [Subsucesion] Sea x
n
una sucesion en V. Sea x
n
k
= n
1
, n
2
,
, n
k
, una sucesion de enteros positivos que son estrictamente crecientes, es
decir, n
j
> n
k
j > k.
Entonces la sucesion x
n
k
se le llama una subsucesion de x
n
.
Denicion 22 [Lmite de la subsucesion] Si la subsucesion x
n
k
converge, en-
tonces su lmite se le llama el lmite de la subsucesion de x
n
.
Denicion 23 [Serie] Sea x
n
una sucesion, se puede construir otra sucesion s
n

considerando la suma de los primeros n terminos.


s
n
=

n
i=1
x
i
= x
1
+ x
2
+ + x
n
A una sucesion obtenida as s
n
se llama serie y se dice que s
n
es su n-esima suma
parcial.
Denicion 24 [Serie convergente] Dada una serie

n
i=1
x
i
= x
1
+ x
2
+ + x
n
,
se denotara mediante el smbolo x
n
. Si la sucesion x
n
es convergente y si existe
el
lm
n
x
n
= x,
entonces la serie

n
i=1
x
i
se llama convergente y se escribe
x
1
+ x
2
+ + x
n
+ = x o

n
i=1
x
n
= x,
El vector x se denomina suma o lmite de la serie. Si es otro caso, la serie se
llamara divergente.
Observacion 3 El conjunto de todos los puntos x
n
(n = 1, 2, 3, ) es el rango de
x
n
. El rango de una sucesion puede ser un conjunto nito o este puede ser innito.
La sucesion x
n
se dice acotado si su rango es acotado.
Empleando los conceptos de sucesiones es posible relacionar la denicion de con-
tinuidad y convergencia, la cual est a dad en la siguiente preposici on.
Proposicion 1 Sea V, Y espacios normados, y sea T : V Y ; T es continuo, si
y solo si x
n
x
0
T(x
n
) T(x
0
).
Denicion 25 [Convergencia] En un espacio vectorial normado V, una sucesion
innita de vectores x
n
se dice que converge a x, si la sucesion de n umeros reales
|x x
n
| converge a cero. Se escribe x
n
x.
Apendice B: Conceptos previos 87
Ya que se dot o al espacio vectorial de una forma de medir (norma), se estudian
conceptos que involucran la forma de medir, sin embargo existen otros conceptos que
son de vital importancia para el entendimiento del comportamiento de los elementos
del espacio o de una sucesi on. tal concepto se da a continuacion.
Denicion 26 [Sucesion de Cauchy] Una sucesion x
n
en un espacio normado
(V, | |) se dice sucesion de Cauchy si |x
n
x
m
| 0, cuando n, m ; es
decir dado > 0 N N tal que
|x
n
x
m
| < ,
si n N y m N.
Observacion 4 La diferencia entre la denicion de convergencia y la denicion de
sucesion de Cauchy es que en el primer caso el lmite esta explcitamente especicado,
mientras que en el caso de una sucesion de Cauchy no es as.
Corolario 2 En un espacio normado toda sucesion convergente es de Cauchy, es
decir, si x
n
x, entonces
|x
n
x
m
| = |x
n
x +x x
m
| |x
n
x| +|x x
m
| 0.
En general una secuencia de Cauchy puede no ser convergente.
Denicion 27 [Espacio de Banach] Un espacio normado V es completo si cada
sucesion de Cauchy de V tiene un lmite en V. Un espacio vectorial completo se le
llama espacio de Banach.
Los espacios de Banach son importantes por dos razones:
i) Si (V, | |) es un espacio Banach entonces todas sucesiones de Cauchy son
convergentes. Esta propiedad provee un medio de prueba si una sucesi on es
convergente sin tener a la mano un candidato para el lmite de la sucesion.
ii) A un si un espacio vectorial normado (V, | |) no es completo, este puede ha-
cerse un espacio Banach a nadiendo algunos elementos, por razones obvias, este
proceso es conocido como acompletar el espacio.
En base al Corolario 2 se tiene que en un espacio completo las sucesiones de
Cauchy y las convergentes son las mismas, es decir, una sucesi on converge si y s olo
si es de Cauchy. Analogamente en un espacio incompleto deben existir sucesiones de
Cauchy no convergentes.
88 Apendice B: Conceptos previos
Denicion 28 [Producto interno] Sea V un espacio vectorial. Una funcion , :
V V K se llama producto interno si cumple con los siguientes axiomas para
todo x, y, z V y K:
[P
1
] x, x > 0 x ,= 0 y x, x = 0 si x = 0; (Denida positiva)
[P
2
] x, y = y, x; (Hermtica)
[P
3
] x, y = x, y; (Homogenea)
[P
4
] x +y, z = x, z +y, z; (Aditiva o lineal en x)
Denicion 29 [Espacio con producto interior] Un par (V, , ) donde , es
un producto interior en V, se llama espacio con producto interior.
La importancia de este tema es que todo espacio con producto interno (V, , )
tiene una norma asociada a el, que es inducida por el producto interno , .
Proposicion 2 Sea (V, , ) un espacio con producto interno. Entonces la funcion
| | : V R denida x V por |x| =
_
x, x es una norma; es decir, se
cumplen los 3 axiomas de la norma dadas en la Denicion 18.
Denicion 30 [Espacio pre-Hilbert] Un espacio normado (V, | |) en el cual la
norma | | es inducida por el producto interior, se llama espacio pre-Hilbert.
Denicion 31 [Espacio Hilbert] Un espacio normado completo con producto in-
terior se llama espacio Hilbert.
Un espacio Hilbert es un espacio pre-Hilbert completo (respecto a la norma aso-
ciada). Por lo tanto, todo espacio Hilbert es un espacio de Banach en el cual se ha
denido un producto interior.
Un espacio de Banach (V, | |), que a la vez es un espacio pre-Hilbert, se lla-
ma espacio Hilbert. En otras palabras, un espacio Hilbert es un espacio pre-Hilbert
completo.
Proposicion 3 Sea (V, | |) un espacio pre-Hilbert y sea , el producto interior
que induce la norma | |, si x
n
x, y
n
y, entonces
x
n
, y
n
x, y,
es decir, la funcion , es continua en V V .
Observacion 5 Como se ha visto que no todos los espacios normados son espacios
pre-Hilbert.
Apendice B: Conceptos previos 89
Ahora se da una condicion necesaria y suciente para que una norma sea inducida
por un producto interior.
Denicion 32 [Elementos ortogonales] Dado un espacio pre-Hilbert (V, , ).
Sea x, y V . Se dice que x y y son ortogonales, si
x, y = 0,
y se escribe xy. Se dice que x
1
, x
2
, , x
n
V son ortogonales dos a dos si x
i
x
j
para i ,= j.
Denicion 33 [Elemento ortonormal] Sea (V, , ) un espacio pre-Hilbert. Se
dice que un elemento x V es ortonormal si |x| = 1.
Denicion 34 [Conjunto ortonormal] Sea (V, , ) un espacio pre-Hilbert. Sea
A V , A ,= 0. Se dice que A es ortonormal si A es ortogonal y ademas se tiene
que |x| = 1 para cada x A.
Teorema 4 Sea (V, , ) un espacio con producto interno. Si x
1
, x
2
, , x
n
V son
no nulos y ortogonales dos a dos, entonces son linealmente independientes.
Corolario 3 En un espacio con producto interior de dimension n, se cumple
(a) Cualquier coleccion de n vectores ortogonales no nulos constituyen una base.
(b) No hay coleccion de vectores ortogonales no nulos con mas de n elementos.
Denicion 35 [Base ortogonal y base ortonormal] Una base ortogonal en un
espacio con producto interno (V, , ) es una base que consta de vectores ortogonales
dos a dos. Si ademas de ser ortogonales son ortonormales, entonces se llama una
base ortonormal.
Ejemplo 5 Dada una base ortogonal cualquiera e
1
, e
2
, , e
n
en un espacio con
producto interior, es facil obtener las coordenadas de cualquier vector.
Si x V , entonces
x =
n

i=1

i
e
i
=
1
e
1
+ +
n
e
n
, (B.1)
formando el producto interno por e
i
en ambos miembros, se obtiene
x, e
i
=
_
n

i=1

i
e
i
, e
i
_
, (B.2)
90 Apendice B: Conceptos previos
debido a que e
i
, e
j
= 0 si i ,= j, entonces i = 1, 2, , n

i
=
x, e
i

|e
i
|
2
. (B.3)
La expresion para
i
se simplica considerablemente si los vectores de la base son
unitarios, es decir |e
i
| = 1, entonces

i
= x, e
i
(B.4)
y sustituyendo (B.4) en (B.1) resulta
x =
n

i=1
x, e
i
e
i
,
los terminos
i
, reciben un nombre especial dado en la siguiente denicion.
Denicion 36 [Coeciente de Fourier] Sea V un espacio Hilbert, e
n
una su-
cesion ortogonal y x V . A los elementos

n
= x, e
n
,
se les llama el coeciente de Fourier de x, relativo a e
n
.
Todos estos antecedentes matem aticos est an formando la base, tal como ahora
se puede observar que las series de Fourier son un caso particular de los Espacios
de Hilbert. As tambien como es conocida la Igualdad de Parseval, muy usada en el
procesamiento de se nales, la cual se puede interpretar con estos conocimientos.
Denicion 37 [Igualdad de Parseval]
_

0
[f(t)[
2
dt = ||
2
En donde se observa
que la energa no se altera en los 2 espacios, en el tiempo en el primer miembro de
la ecuacion y del espacio de la frecuencia en el segundo miembro. La conservacion de
energa esta dada por los coecientes de Fourier , una vez transformada la se nal en
el tiempo.
Denicion 38 [Espacio de funciones de cuadrado integrable] Es el espacio
vectorial de todas las funciones f(t) denidas sobre R, es decir, estan en el espacio
L
2
(R), si |f(t)|
2
es integrable, como
_

|f(t)|
2
dt < ,
por lo que, el espacio de funciones de cuadrado integrable se dene como
L
2
(R) = f(t) : fes medible y
_

|f(x)|
2
dx < .
Apendice B: Conceptos previos 91
B.2. Comentarios
Los conceptos presentados en este apendice son importantes para el entendimien-
to de la teora wavelet, las redes neuronales y la teora wavenet, empleadas para el
desarrollo del control PID wavenet y el control PID wavelet multiresolucon.
Apendice C
Teora wavelet
El objetivo de este apendice es presentar la teora wavelet, necesaria para el desa-
rrollo de un controlador wavenet y un controlador wavelet multiresolucion, siendo este
ultimo el objetivo principal de la tesis. La organizaci on del presente apendice es de la
siguiente forma: en la Seccion C.1 se da una introduccion a la transformada wavelet,
en la Secci on C.2 se ve de manera breve el an alisis de Fourier, la teora wavelet es
presentada en la Secci on C.3, en la Seccion C.4 se presenta el an alisis multiresolucion
basada en wavelet, la codicacion sub-banda es presentada en la Secci on C.5 y por
ultimo en la Seccion C.6 se dan algunos comentarios referente al apendice presentado.
C.1. Introducci on
Este apendice se enfoca a la teora de la transformada wavelet, que es una herra-
mienta matem atica generada a mediados de los 80s. Siendo esta muy eciente para
el an alisis local de se nales no estacionarias y de r apida transitoriedad, mapea la se nal
en una representaci on tiempo-escala que provee un analisis multiresoluci on con ven-
tanas dilatadas, similar a una transformada de Fourier ventaneada, pero el analisis
de frecuencias de mayor rango se realiza usando ventanas angostas y el an alisis de las
frecuencias de menor rango se hace utilizando ventanas anchas, y no jas como se rea-
liza en la transformada de Fourier. Ademas la transformada wavelet no es solamente
local en frecuencia, sino tambien en tiempo.
Dentro de los usos de esta poderosa herramienta se puede nombrar, ademas del
analisis local de se nales no estacionarias, el analisis de se nales electrocardiogr acas,
ssmicas, de sonido, de radar, as como tambien es utilizada para la compresion y
procesamiento de im agenes y reconocimiento de patrones, etc.
93
94 Apendice C: Teora wavelet
C.2. Analisis de Fourier
Jean Baptiste J. Fourier matem atico y fsico frances quien demostro que una
funci on poda ser desarrollada en terminos de series trigonometricas convergentes lla-
madas Series de Fourier, publicando en 1807, desarrollo esta teora cuando estudiaba
la ecuaci on del calor el cual fue publicado en 1822 en su celebre Theorie Analytique
de la Chaleur (Teora Analtica del Calor) [19].
C.2.1. Funciones periodicas
Dado que los terminos de las series trigonometricas son peri odicas es l ogico deducir
que las funciones que se van a desarrollar mediante dichas series deben ser tambien
peri odicas. Se dice que una funcion f(x) tiene un perodo P o es periodica con un
perodo P si para todo x, f(x + P) = f(x), donde P es una constante Positiva, en
la Figura C.1 se muestra una se nal peri odica. El menor valor de P > 0 se llama el
perodo mnimo o perodo fundamental de f(x) [63].
Figura C.1: Representacion de una funci on peri odica f(x), con perodo P.
C.2.2. Coecientes y series de Fourier
Los desarrollos en series de Fourier, tienen dos aplicaciones fundamentales:
Representar una funci on f(x) denida en el intervalo (c, c), para los valores
de x en ese intervalo.
Representar una funci on periodica con un perodo 2c para todos los valores de
x.
Apendice C: Teora wavelet 95
La funcion f(x) puede ser proyectada en una base ortonormal de funciones
k
(x),
de la siguiente forma [6]:

f(x) = c
1

1
(x)+c
2

2
(x)+. . . +c
k

k
(x)+. . . , (c < x < c); k = 1, 2, 3 . . . (C.1)
se espera que el desarrollo de

f(x) converja a la funci on original f(x).
Se puede demostrar que los coecientes c
k
de la suma son los coecientes de
Fourier de f(x) con respecto a la base ortonormal
k
(x). Estos coecientes pueden
ser expresarse como:
c
k
=
_
c
c
f(x)
k
(x) dx, k = 1, 2, 3 . . . (C.2)
siendo

el complejo conjugado de .
La serie de (C.1) con estos coecientes es la serie de Fourier generica correspon-
diente a la funcion f(x), y se dene como:
f(x) =

k=1
c
x

k
(x), (C.3)
si f(x) est a denida en el intervalo (0, 2) y determinada fuera de ese intervalo por
f(x + 2) = f(x), esto es, f(x) tiene periodo 2, la serie de Fourier que corresponde
a f(x) sobre la base ortogonal de senos y cosenos se dene como:
f(x) =
a
0
2
+

k=1
(a
k
cos kx + b
k
sin kx), (C.4)
donde los coecientes de Fourier a
k
y b
k
se denen como:
_
a
k
=
1

_
2
0
f(x) cos kxdx,
b
k
=
1

_
2
0
f(x) sin kxdx, con k = 1, 2, 3, . . .
(C.5)
Puede observarse que los coecientes de Fourier de la funci on transformada repre-
sentan la contribuci on de cada funci on seno y coseno para cada frecuencia [63].
Usando la identidad de Euler: e
ikx
= cos kx +i sin kx se puede escribir la serie de
Fourier de f(x) como una combinacion lineal de funciones exponenciales complejas:
f(x) =

k=
c
k
e
ikx
, (C.6)
donde las funciones
k
(x) =
e
ikx

2
constituyen un conjunto ortonormal [78].
96 Apendice C: Teora wavelet
Los coecientes de Fourier de f(x), respecto de esta base, pueden expresarse como:
c
k
=
1
2
_
2
0
f(x)e
ikx
dx. (C.7)
Es evidente que la serie de Fourier, (C.3), no puede representar una funci on para
todos los valores de x si la funci on no es peri odica.
C.2.3. Transformada de Fourier
Para obtener una representacion que pueda ser v alida para todos los valores de x
cuando f(x) no es periodica, es natural intentar extender la representacion anterior
dejando que c tienda a innito, lo que da lugar a la transformada de Fourier [6].
La transformada de Fourier de una funcion no peri odica f(x) esta denida por
F(w) =
1

2
_

f(x)e
iwx
dx, (C.8)
donde w es una variable compleja continua.
La funci on puede ser reconstruida a partir de sus componentes de Fourier, por
medio de la transformada inversa de Fourier:
f(x) =
1

2
_

F(w)e
iwx
dw (C.9)
La transformada de Fourier en L
2
(R) [, ] satisface las siguientes propiedades:
Es una Transformaci on de Fourier uno-a-uno de L
2
(R) [, ] en s mismo
Preserva la norma
_

|f(x)|
2
dx =
_

|F(w)|
2
dw (C.10)
Preserva el producto interno
_

f(x) g(x) dx =
_

F(w) G(w) dw (C.11)


C.2.4. Limitaciones del analisis de Fourier
La transformada de Fourier es ampliamente utilizada en el procesamiento y an a-
lisis de se nales y con resultados satisfactorios en los casos en que estas se nales son
peri odicas y lo sucientes regulares, pero no ocurre lo mismo para el analisis de se nales
cuyo espectro vara con el tiempo (se nales no estacionarias) [55].
Apendice C: Teora wavelet 97
Tomando el caso en el que la funci on f a descomponer es una se nal dependiente
del tiempo, puede decirse que las funciones de la base de Fourier son de duraci on
innita en el tiempo, pero locales en frecuencia.
La transformada de Fourier detecta la presencia de una determinada frecuencia
pero no brinda informacion acerca de la evoluci on en el tiempo de las caractersticas
espectrales de la se nal. Muchos aspectos temporales de la se nal, tales como el comienzo
y el n de una se nal nita y el instante de aparicion de una singularidad en una se nal
transitoria, no puede ser analizados adecuadamente por el an alisis de Fourier.
Para los casos de se nales no estacionarias y transitorias se utiliza generalmente la
transformada de Fourier ventaneada.
C.2.5. Transformada de Fourier ventaneada
Una forma de analizar una se nal no estacionaria es realizar un an alisis espec-
tral dependiente del tiempo. Una se nal estacionaria es dividida en una secuencia de
segmentos de tiempo en los cuales la se nal puede ser considerada como una cuasi-
estacionaria y la transformada de Fourier es aplicada a cada segmento local de la
se nal. Gabor, en 1940, fue el primero en introducir la transformada de Fourier de
tiempo corto, conocida como la transformada de Fourier con ventana deslizante, de-
nida como
S
f
(, ) =
_
f(t) g(t )e
iwt
dt, (C.12)
donde g(t) es una ventana deslizante, la cual tiene un ancho jo y cambia a lo largo
del eje x por un factor [62], la funcion est a denida como (C.13). As, propuso a la
funci on Gausiana como la funci on ventana g(t) y demostr o que la transformada de
Fourier de una ventana Gausiana contin ua siendo Gausiana [62].
g(t) =
1

t
2

2
(C.13)
Con la transformada de Fourier ventaneada se logra una mejor localizaci on de la
aparici on de una singularidad en una se nal. Pero solo conocer a en que intervalo de
tiempo se produce la singularidad, debido a que la localizacion depende del ancho ele-
gido para la funcion ventana. Ademas, los eventos no podr an ser resueltos si aparecen
muy cerca unos de otros, ya que no sera posible distinguir diferentes comportamientos
dentro de una misma amplitud de ventana [71]. Dada las desventajas que se presen-
ta con la transformada de Fourier ventaneada, surge la transformada wavelet como
alternativa a Fourier.
98 Apendice C: Teora wavelet
Figura C.2: Representaci on gr aca de (C.13), donde g(t) es la funci on de Gauss, t es
el tiempo, es el factor de desplazamiento.
C.3. Teora wavelet
Aunque la primera wavelet que se conoce fue descubierta en 1910, Alfred Haar,
un matem atico H ungaro, descubre una base de funciones que se reconocen ac-
tualmente como las primeras wavelets, denominadas wavelets de Haar[23]. Tiempo
despues, el ingeniero petrolfero Jean Morlet en 1981, desarroll o su propia forma de
analizar las se nales ssmicas para crear componentes que estuvieran localizados en el
espacio, a los que denomino wavelets de forma constante, actualmente se conocen
como wavelets de Morlet, independientemente de que los componentes se dilaten,
compriman o desplacen en el tiempo, mantienen la misma forma. Alex Grossmann, un
fsico de Marsella, trabajo con Morlet durante un a no para conrmar que las ondas se
podan reconstruir a partir de sus descomposiciones en wavelets. Demostrando, que la
transformada wavelet funciona mucho mejor que la transformada de Fourier, porque
eran mucho menos susceptibles a peque nos errores de c omputo. Un error o un trunca-
miento indeseados de los coecientes de Fourier pueden transformar una se nal suave
en una saltarina o viceversa; las wavelets evitan tales consecuencias desastrosas. Pu-
blic o su artculo [22] en 1984, en el cual se utilizo por primera vez la palabrawavelet.
En 1985, Yves Meyer, reconocido ampliamente como uno de los fundadores de
la teora wavelet [42, 43, 44], descubre las primeras wavelets ortogonales suaves.
Ortogonalidad signica que la informacion capturada por una wavelet es com-
pletamente independiente de la informacion capturada por otra. En 1986, Stephane
Mallat, un antiguo alumno de Meyer, vinculo la teora de wavelets a la literatura exis-
tente sobre codicacion de subbanda y ltros de duplicacion de cuadratura, que son
las versiones de las wavelets de la comunidad de procesamiento de im agenes. La idea
Apendice C: Teora wavelet 99
del analisis multiresoluci on (es decir, la observacion de se nales a distintas escalas de
resoluci on) ya era familiar para los expertos en procesamiento de im agenes. Mallat, en
colaboracion con Meyer, demostraron que las wavelets est an implcitas en el procesos
del analisis multiresoluci on [37, 36].
Gracias al trabajo de Mallat, las wavelets se convirtieron en algo mucho m as senci-
llo. Ya se poda hacer un analisis con las wavelets sin necesidad de conocer la f ormula
de una wavelet madre. El proceso se redujo a sencillas operaciones, el lenguaje de las
wavelets tambien resulto m as comodo para los ingenieros electricos, que adoptaron
terminos familiares como ltros, altas frecuencias y bajas frecuencias[38].
En 1987, Ingrid Daubechies, descubri o una clase completamente nueva de wave-
lets [10, 12], que no s olo eran ortogonales (como las de Meyer) sino que tambien se
podan implementar mediante sencillas ideas de ltrado digital. Las nuevas wavelets
eran casi tan sencillas de programar y utilizar como las wavelets de Haar, pero eran
suaves, sin los saltos de las wavelets de Haar. Los procesadores de se nales disponan
ahora de una herramienta de ensue no: una manera de descomponer datos digitales
en contribuciones de diversas escalas. Al combinar las ideas de Daubechies y Mallat,
se dispona de una transformacion ortogonal y sencilla que se poda calcular r apida-
mente en las modernas computadoras digitales.
Los trabajos importantes surgidos en la decada de los 80s, dieron origen a lo que
hoy en da se le conoce como la Teora wavelet.
Literalmente el termino wavelet signica peque na onda u ondoleta. Dentro de un
contexto m as general, una wavelet es una funci on que satisface las condiciones:
tiene una explosion concentrada peque na de energa nita en el dominio del
tiempo, y
exhibe una cierta oscilaci on en el tiempo.
La primera condici on hace que la wavelet sea peque na en el sentido que es bien
localizada en el tiempo, mientras que la segunda condici on permite observar la ondu-
lacion que la hace ser as llamada wavelet. Existen algunas caractersticas importantes
de las wavelets, tales como el soporte compacto, que es la propiedad de que la wavelet
sea de duracion nita, lo que permite una menor complejidad en los c alculos, mejor
resoluci on en el tiempo y pobre resoluci on en frecuencia. Otra caracterstica para ser
empleada con ltros digitales es la simetra que permite que los ltros sean de fase
lineal.
100 Apendice C: Teora wavelet
Despues de haber dado un poco de historia sobre las wavelets, se procede a dar
la teora wavelet de forma formal, por lo que primero se da la denicion de funcion
wavelet.
Denicion 39 [Funcion wavelet, ] Una funcion wavelet es una funcion
L
2
(R) que cumple con la siguiente condicion de admisibilidad
(0) =
_

(t) dt = 0, (C.14)
La funcion wavelet es tradicionalmente llamada wavelet madre, por que a partir
de ella se pueden generar una familia de funciones de doble ndice llamadas funciones
wavelets hijas.
A continuaci on se dan algunos ejemplos de funciones wavelets madre m as comunes,
entre estas se encuentran: Haar, Mexican hat, Morlet, Meyer, Daubechies, Shannon
[38, 40]. La denicion y la gr aca correspondiente a cada una de dichas wavelets ma-
dre se muestran en la Tabla C.1 y en la Figura C.3.
Nombre Denici on
Haar (t) =
_
_
_
1, si t [0,
1
2
]
1, si t (
1
2
, 1]
0, en otro caso
Mexican hat (t) =
2

1
4
(1 t
2
)e
(
1
2
t
2
)
Morlet (t) = e

t
2
2
cos(5t)
Meyer () =
_

_
(2)

1
2
e
i
2
sin(

2
v (
3
2
[[ 1)),
si
2
3
[[
4
3
(2)

1
2
e
i
2
cos(

2
v (
3
4
[[ 1)),
si
4
3
[[
8
3
0, en otro caso
v = a
4
(35 84a + 70a
2
20a
3
), a [0, 1]
Daubechies P(y) =

N1
k=0
C
N1+k
k
y
k
;
C
N1+k
k
son coecientes binomiales, N es el orden de la wavelet
Shannon (t) =
sen(

2
t)

2
t
cos(
3
2
)t
Tabla C.1: Algunos ejemplos com unes de wavelets madre.
Apendice C: Teora wavelet 101
0 0.2 0.4 0.6 0.8 1
-1
0
1
Wavelet Haar
Tiempo (seg.)
A
m
p
l
i
t
u
d
,


(
t
)
-4 -2 0 2 4
-0.5
0
0.5
1
Wavelet Mexican Hat
Tiempo (seg.)
A
m
p
l
i
t
u
d
,


(
t
)
-2 0 2
-0.5
0
0.5
1
Wavelet Morlet
Tiempo (seg.)
A
m
p
l
i
t
u
d
,


(
t
)
-6 -4 -2 0 2 4
-1
0
1
Wavelet Meyer
Frecuencia (rad./seg.)
A
m
p
l
i
t
u
d
,

)
5 10 15
-0.2
0
0.2
0.4
0.6
Wavelet Daubechies de orden N = 8
k
C
k N
-
1
+
k
-5 0 5
-0.5
0
0.5
1
Wavelet Shannon
Tiempo (seg.)
A
m
p
l
i
t
u
d
,


(
t
)
Figura C.3: Gr acas de las wavelets madre dadas en la Tabla C.1.
Denicion 40 [funci on wavelet hija,
a,b
] Una funcion wavelet hija, es una fun-
cion generada a partir de la dilatacion-contraccion y traslacion de una funcion wavelet
madre, y se denota como

a,b
(t) =
1

a

_
t b
a
_
, a > 0; a, b R, (C.15)
donde la variable escala a permite hacer dilataciones y las contracciones de la se nal,
y la variable de traslacion b permite el desplazamiento en el tiempo.
El factor de normalizacion (

a)
1
ha sido seleccionada tal que
|
a,b
| = ||, a, b R
por lo que se puede asumir que || = 1.
C.3.1. Transformada wavelet
Existen diferentes tipos de transformada wavelet, todas parten de las wavelets b a-
sicas anteriores. Principalmente, se distingue entre transformada wavelet continua y
transformada wavelet discreta y dentro de esta ultima se clasican los sistemas dis-
cretos redundantes o frames y las bases wavelets ortonormales. Las funciones bases
wavelets ortonormales inducen el an alisis multiresoluci on, que nos permiten descom-
poner una funcion f L
2
(R), lo cual es muy importante en el desarrollo del control
wavelet.
102 Apendice C: Teora wavelet
Antes de tratar el analisis multiresoluci on basada wavelet, trataremos la transfor-
mada wavelet continua y la transformada wavelet discreta,
C.3.1.1. Transformada wavelet continua
Sea V
1
y V
2
, espacios Hilbert, la transformada wavelet continua, W
f
(a, b) es des-
crita como un mapeo
W
f
: V
1
V
2
f(t) f,
a,b

donde f L
2
(R) = V
1
y
a,b
es una funci on wavelet hija. Es decir, la transforma-
da wavelet continua es denida como un mapeo W
f
(a, b) que es dependiente de las
especicaciones de una funci on wavelet madre .
A continuaci on se da la denicion formal
Denicion 41 [Transformada wavelet continua]
La transformada wavelet continua de una funcion f L
2
(R) correspondiente a
una determinada wavelet es
W
f
(a, b) = f,
a,b
=
1

a
_

f(t)
_
t b
a
_
dt. (C.16)
Para este caso especco los par ametros de dilatacion a y traslacion b varan conti-
nuamente sobre R, con la restricci on a ,= 0. El parametro b es utilizado para trasladar
en el tiempo la funci on wavelet madre, tal que para un valor jo de a, la trasformada
wavelet puede ser vista como una convoluci on de f(t) y la wavelet escalada con el
tiempo invertido, de la siguiente manera
W
f
(a, t) = [a[

1
2
f(t)
a
(t);
a
(t) = (
t
a
).
El efecto de desplazamiento produce como resultado que la transformada wavelet
realice un efecto de ampliaci on en fenomenos de alta frecuencia y de muy breve
duracion, tal como en transiciones de la se nal o singularidades en funciones.
Observaciones. De la denici on de la transformada wavelet se dan las siguientes
observaciones:
El analisis wavelet es frecuentemente llamado analisis tiempo-escala mientras
que en Fourier es llamado analisis tiempo-frecuencia.
La correspondencia f(t) W
f
(a, b) indica un cambio de una funci on de una
variable por una funci on a dos variables, dentro de los cuales son construidos
porciones de correlaciones. Esta redundancia de la representacion es explotada
en una aplicaci on conocida como concepto esqueleto de una se nal extrada de la
transformada wavelet continua, la cual puede ser usada para ltrado no lineal
[71].
Apendice C: Teora wavelet 103
Propiedades
A continuacion se mencionan algunas de las propiedades que posee la transformada
wavelet continua, todas ellas surgen como relacion directa de la base matem atica en
la que se apoya la transformada wavelet.
Considerando funciones arbitrarias f, g L
2
(R), y escalares , R, se satisfacen
las siguientes propiedades
[P
1
] W[f + g](a, b) = W
f
(a, b) + W
g
(a, b); (Linealidad)
[P
2
] W
f
(a, b) = W
f
(
a

,
b

); para f

=
1

f(
t

); (Escalamiendo)
[P
3
] W
f
(a, b) = W
f
(a, b b
0
); para f

= f(t b
0
); (Traslaci on en el tiempo)
[P
4
]

a,bZ
[
a,b
, f[
2
= [[f[[
2
; (Igualdad de Parseval)
[P
5
] Para localizar los valores de W
g
(a, b) que contengan informaci on alrededor del
tiempo t
0
, dada una wavelet (a, b) y una funcion g = f(t
0
); en la escala a, los
coecientes wavelets que satisfacen el ndice b ser an inuenciados (b
1
+b) 2
a

t
0
(b
2
+b) 2
a
o bien en termino de b, 2
a
t
0
b
2
b 2
a
t
0
+b
1
; (Localizacion
en el tiempo)
[P
6
] Para localizar los valores de W
f
(a, b) que contengan informaci on alrededor de
una componente de frecuencia
0
, dada una wavelet (a, b) y una funcion f(t);
en la escala a, los coecientes wavelets que satisfacen el siguiente rango de
escalas son afectados

min
2
a
0

max
2
a
dado en termino de a, log
2
(

min

0
) a
log
2
(
max

0
); (Localizaci on en la frecuencia)
[P
7
]
_

[f(t)[
2
dt =
1
C

[W
f
(a, b)[
2 da db
a
2
, donde C

=
_

|()|
2
||
d <
y () es la transformada de Fourier de ; (Conservaci on de la energa)
[P
8
] Para asegurar la perfecta reconstruccion, la transformada wavelet deber a cum-
plir
_

|()|
2
||
d < , donde () es la transformada de Fourier de y
(0) =
_

(t)dt = 0. (Admisibilidad)
Una vez que se comprende el proceso de analisis de la transformada wavelet, as
como sus propiedades, es importante conocer el proceso inverso que nos permite re-
construir la se nal. Se considerar an dos variantes de transformadas wavelets continuas
que dieren en la forma de realizar la reconstruccion. Especcamente una recons-
trucci on integral desde un plano completo de tiempo-frecuencia y una reconstrucci on
semi-discreto. Aqu se da a conocer la reconstrucci on integral.
104 Apendice C: Teora wavelet
El producto interno de dos se nales f(t) y y(t) est a relacionado a el producto
interno de su transformada wavelet como:
f, y =
1
C

W
f
(a, b)W
y
(a, b)
da db
a
2
, (C.17)
con
C

=
_

|()|
2
||
d < .
Dado el producto interno, se obtiene una ecuaci on de sntesis, de la siguiente
manera:
Primeramente, deniendo
y
t
(t

) = (t

t), (C.18)
porque adem as la siguiente relaci on se cumple
f, y
t
=
_

f(t

)(t

t)dt

= f(t), (C.19)
substituyendo (C.18), en (C.17), se obtiene
f, y
t
=
1
C

W
f
(a, b)[a[

1
2
_

(t

t)
_
t

b
a
_
dt

da db
a
2
, (C.20)
de aqu obtenemos la formula de reconstruccion
f(t) =
1
C

W
f
(a, b)
_
t b
a
_
da db
a
2
, (C.21)
C.3.1.2. Transformada wavelet discreta
Para wavelets discretas los par ametros de escala y traslaci on son elegidos tal que
en el nivel m la wavelet a
m
0
(a
m
0
t), es a
m
0
veces el ancho de (t). Esto signica
que el par ametro de escala es a = a
m
0
: m Z y el par ametro de traslacion
b = kb
0
a
m
0
: m, k Z. Por lo tanto la familia de wavelets est a dada por

m,k
(t) =
1

a
m
0
(a
m
0
t kb
0
). (C.22)
A partir de estas consideraciones se formula la denici on de la transformada dis-
creta, que se da a continuacion.
Apendice C: Teora wavelet 105
Denicion 42 [Transformada wavelet discreta] La transformada wavelet dis-
creta, se obtiene de la restriccion de que a, b son solamente valores discretos a =
a
m
0
, b = kb
0
a
m
0
, donde a
0
> 1, b
0
> 0 son valores jos. Dada una funcion f L
2
(R)
su transformada wavelet discreta se dene como
W
f
[m, k] =
1

a
m
0
_

f(t)
_
t
a
m
0
kb
0
_
dt; m, k Z
donde es una wavelet madre.
Para recuperar f(t) de los coecientes W
f
[m, k] debe existir la siguiente condicion
de estabilidad,
A[[f(t)[[
2

2
A + B

k
[W
f
[m, k][
2
B[[f(t)[[
2
(C.23)
es decir, que la norma al cuadrado de la se nal original est a acotada por arriba y por
abajo para A > 0 y B < para todas las se nales f(t) en L
2
(R). Entonces la formula
de reconstrucci on esta determinada por
f(t)
2
A + B

k
W
f
[m, k]
m,k
(t), (C.24)
entre m as cercanos sean los valores de A y B m as aproximada sera la recons-
trucci on. Cuando A = B = 1 la familia de wavelets es ortonormal.
C.4. Analisis multiresoluci on basada en wavelets
El an alisis multiresolucion, que como lo dice su nombre es un analisis de la se nal
a estudiar de tal modo que cada componente de frecuencia es analizado con una
resoluci on diferente. Esto es una alternativa m as sobre la transformada en tiempo
corto de Fourier TTCF que analiza todas las componentes de frecuencia a una misma
resoluci on dada.
En la Figura C.4 los ejes que se manejan son tiempo y frecuencia, aqu se ejempli-
ca lo que se mencion o anteriormente. Cabe se nalar que para la TTCF las ventanas
seran de igual dimensi on para todos los casos ya que la funcion utilizada para ese
analisis no se dilata ni se contrae (ver Figura C.4a), lo que representa una ventaja
de la transformada wavelet sobre la TTCF, ya que se puede tener mayor detalle del
comportamiento de la se nal, dada la resolucion que puede alcanzar.
La funci on base e
i
k
t
(empleada en la transformada de Foruier) representa lneas
horizontales, innitamente peque nas y rect angulos innitamente largos. La base wa-
velet corresponder a a rect angulos nitos, estrechos y altos; rect angulos delgados para
106 Apendice C: Teora wavelet
Figura C.4: Plano tiempo-frecuencia para diferentes bases ortogonales: a) base de
Fourier, b) base de Gabor y c) base wavelet.
altas frecuencias, y anchos y peque nos para bajas frecuencias, como se muestra en la
Figura C.4c,
Una primera tentativa de alcanzar tal objetivo es dada por la transformada venta-
neada de Fourier o por la TTCF. Aqu las funciones de la base e
it
se substituyen por
versiones ventaneadas
,b
(t) = g(t b)e
it
, donde g es una ventana. En el caso de la
transformada Gabor la correspondiente ventana es g(t) = e
(t
2
)
, cuyo plano tiempo
frecuencia es una cuadrcula mostrada en la Figura C.4b.
Para el an alisis multiresolucion basada en wavelet, se tiene:
Sea (x) L
2
(R) la cual se llama la funcion de escalonamiento.Deniendo las
siguientes funciones

j,k
(x) = 2

j
2
(2
j
x k); j, k Z, (C.25)
donde la base

j,k
(x)[k Z, (C.26)
es estandar y ortonormal, j y k son la dilatacion y traslaci on de la funcion de escalo-
namiento, respectivamente.
Ahora, sea V
j
el subespacio escalado de L
2
(R) generado con la base ortonormal
est andar, es decir, una cadena anidada de subespacios cerrados
V
2
V
1
V
0
V
1
V
2
, (C.27)
tal que
Apendice C: Teora wavelet 107

j
V
j
= 0, (C.28)
cl
_
_
j
V
j
_
= L
2
(R), cl = clausura, (C.29)
donde V
j
es el subespacio generado por
j,k

k=0
.
Para obtener un subespacio ortonormal complementario de V
j
, es decir
V
j1
= V
j
W
j
; V
j
W
j
; j Z, (C.30)
L
2
(R) =

j=
W
j
. (C.31)
El analisis multiresoluci on cumple con la propiedad
V
0
= V
1
W
1
= V
2
W
2
W
1
= V
3
W
3
W
2
W
1
= , (C.32)
y
V
j
= span2

j
2
(2
j
x k); j Z, (C.33)
W
j
= span2

j
2
(2
j
x k); j Z. (C.34)
Entonces existe una funcion (x) W
0
tal que el conjunto
(x k), k Z, (C.35)
cuyas funciones

j,k
(x) = 2

j
2
(2
j
x k); j, k Z, (C.36)
se hace para obtener una base estandar ortonormal de W
0
. Tradicionalmente se llama
la funci on wavelet o funci on madre. Ahora se emplea este a andameaje matem atico
para la representacion de funciones dada las bases estandares construidas previamente.
Para efectuar dicha representaci on se proponen dos formas distintas de acuerdo con
(C.30 - C.31).
Dada f(x) L
2
(R) se puede descomponer por:
(a)
f(x) =

j=

k=
f,
j,k

j,k
(x),
f(x) =

j=

k=
d
j,k

j,k
,
(C.37)
108 Apendice C: Teora wavelet
(b)
f(x) =

k=
f,
J,k
(x)
J,k
(x) +

j=

k=
f,
j,k

j,k
(x),
f(x) =

k=
c
J,k

J,k
(x) +

j=

k=
d
j,k

j,k
.
(C.38)
Lo importante aqu es que la descomposici on de la funcion f(x) para valores lo
sucientemente grandes de J, puede ser aproximada arbitrariamente cerca de V
J
. Esto
que alg un > 0
|f(x)

k=
c
J,k

J,k
(x)| < . (C.39)
La aproximaci on por el truncamiento de la descomposicion wavelet puede ser
aproximada como:
f(x)

k=
c
J,k

J,k
(x). (C.40)
Esta expresi on indica que algunos componentes nos (frecuencias altas) que per-
tenecen al espacio wavelet W
j
para la funcion f(x) son eliminados y los componentes
coarse (frecuencias bajas) que pertenecen al espacio escalado V
j
son preservados para
aproximar la funci on original a una escala J. En realidad, la mayora de los procesos
din amicos son en general pasa bajos.
Entonces (C.40) nos dice que cualquier funci on f(x) L
2
(R) puede ser aproxima-
da por una combinaci on lineal nita.
Observacion 6 De la ecuacion (C.40) se puede observar que la expresion de la de-
recha tiene la estructura adecuada para ser una red neuronal wavelet de 3 capas,
mostrada en la Figura C.5, lo cual sera usada como base en el dise no de un PID
wavenet.
C.5. Analisis sub-banda
Una forma eciente para realizar el analisis multiresolucion basada en wavelets es
desarrollarla en una estructura de codicaci on sub-banda, la condicaci on sub-banda
fue propuesta por Croisier, Esteban y Galand [8], usando una clase especial de ltros
llamados ltros de espejo de cuadratura FEC y por Crochiere, Webber y Flanagan
Apendice C: Teora wavelet 109
Figura C.5: Arquitectura de una red neuronal wavelet SISO.
[7], esto permiti o el estudio de banco de ltros de reconstrucci on perfecta. Un banco
de ltro puede ser usado bajo ciertas condiciones para generar bases wavelets, como
lo mostro I. Daubechies [10], los cuales permiten realizar un descomposici on de una
se nal f(x) L
2
(R).
El proceso requerido para el an alisis multiresoluci on empleando el esquema de
codicacion sub-banda, esta compuesto de dos etapas: El an alisis de descomposici on
mostrado en la Figura C.6, y la sntesis de descomposicion mostrado en la Figura C.7.
Figura C.6: Analisis de descomposici on de la funci on f[n].
En el an alisis de descomposici on la se nal de entrada f[n] (donde f[n] es la se nal
muestreada de f(x)) es pasada a traves de un ltro pasa bajas h[k] y el otro es un
ltro pasa altas g[k] (que son los ltros conjugados de h[k] y g[k]), los cuales manejan
la mitad del ancho de banda de la se nal de entrada f[n]. El smbolo 2 representa
la operacion de decimacion a dos (down sampling). La salida del ltro pasa bajas se
vuelve a enviar a otro par de ltros de las mismas caractersticas. De este modo se va
reduciendo el ancho de banda de la se nal y eso se traduce en la reduccion a la mitad
110 Apendice C: Teora wavelet
Figura C.7: Sntesis de descomposici on de la se nal f[n].
de la resoluci on. Lo que signica que a mayor n umero de etapas de ltrado se tendr a
una mayor resoluci on [54].
En la sntesis de descomposici on se recupera la se nal f[n] a traves de las se nales
descompuestas c
m,k
y d
m,k
, pasando primero por una interpolaci on a dos (up sampling)
representado por el smbolo 2, seguida de un ltro pasa bajas h[k] para c
m,k
y un
ltro pasa altas g[k] para d
m,k
.
A continuaci on se desglosa un poco mas estas etapas, para tratar con la con-
volucion seguida de una decimaci on (como se muestra en la Figura C.6) la cual es
requerida para la descomposicion de la se nal, la interpolaci on a dos seguida de una
convoluci on (como se muestra en la Figura C.7) requerida para la recuperacion de la
se nal.
C.5.1. Analisis de descomposicion
El proceso del an alisis de descomposici on consiste en tomar una se nal f[n] y
descomponerla hasta un nivel de descomposici on N. Pasando la se nal f[n] a traves
de un par de ltros conjugados h[k] y g[k], generando c
1,k
y d
1,k
, para posteriormente
tomar la se nal c
1,k
y pasarla a traves de un par de ltros conjugados de las misma
caractersticas que los anteriormente mencionados, generando las se nales c
2,k
y d
2,k
,
y as hasta obtener las se nales c
N,k
y d
N,k
en el nivel de descomposici on N, como se
muestra en la Figura C.6. De manera general el proceso consiste de tomar una se nal
c
i1,k
pasarla a traves del par de ltros conjugados h[k] y g[k] y entregar las se nales c
i,k
y d
i,k
. Estos pasos son repetitivos en cada nivel de descomposici on, adem as el proceso
de tomar la se nal y pasarla a traves del ltro conjugado, tambien es repetitivo.
Apendice C: Teora wavelet 111
Dado i = 1, 2, , N, donde N es el nivel de descomposicion. Para un nivel de
descomposici on i. Se tiene que, c
i1,k
es la se nal de entrada y h[k] el ltro conjugado,
que genera la se nal c
i
(para generar la se nal d
i,k
se emplea el ltro conjugado g[k])
como se muestra en la Figura C.8.
Figura C.8: Diagrama de una convolucion seguida de una decimaci on a dos, donde
c
i1
[n], c
i,k
[n] y
i,k
[n] son la se nal de entrada, la se nal de salida y la se nal resultante
de la convoluci on entre la entrada y el ltro conjugado h[k] de longitud .
El diagrama mostrado en la Figura C.8, es una convolucion seguida de una deci-
macion a dos, cuya representaci on matem atica puede ser expresada como:
c
i
[n] = c
i1,k
[n] h[n]
2
, (C.41)
donde c
i
es la se nal de salida despues de ser descompuesta, c
i1,k
es la se nal de entrada
a ser descompuesta, h[k] es ltro conjugado de longitud . Si
i
[n] es la salida de la
convoluci on entre c
i1
[n] y h[n] representado matem aticamente como [21]:

i,k
[n] =
1

k=0
h[k]c
i1,k
[n k], (C.42)
entonces la decimaci on a dos de
i,k
[n] es:
c
i
[n] = [2n] =
1

k=0
h[k]c
i1,k
[2n k], (C.43)
de la misma forma para calcular d
i,k
se calcula como (C.44) y la Figura C.9 muestra
su diagrama para el proceso.
d
i
[n] = [2n] =
1

k=0
g[k]c
i1,k
[2n k], (C.44)
donde

i,k
[n] =
1

k=0
g[k]c
i1,k
[n k]. (C.45)
Para el caso en que el i = 1 considera a c
0,k
como f[n]. El algoritmo para el analisis
de descomposici on es dado por el Algoritmo C.2.
112 Apendice C: Teora wavelet
Figura C.9: Diagrama de una convolucion seguida de una decimaci on a dos, donde
d
i1
[n], d
i,k
[n] y
i,k
[n] son la se nal de entrada, la se nal de salida y la se nal resultante
de la convoluci on entre la entrada y el ltro conjugado g[k] de longitud .
ALGORITMO C.2: Algoritmo de analisis de descomposicion
1. Se toma la se nal f[n] y se calcula c
1,k
[n] y d
1,k
[n] con (C.43) y (C.44),
respectivamente. Considerando a f[n] = c
0,k
.
2. Ahora se toma c
i1,k
[n], y se calcula c
i
[n] y d
i
[n] con (C.43) y (C.44), res-
pectivamente, para i = 2, 3, , N.
C.5.2. Sntesis de descomposicion
El proceso de la sntesis de descomposicion consiste en tomar las se nales c
N,k
y
d
N,k
desde el nivel de descomposici on para recuperar la se nal c
N1
, posteriormente
ahora tomar las se nales c
N1
y d
N1
para obtener c
N2
y as hasta obtener f[n],
como se muestra en la Figura C.7. Para la elaboracion de este proceso en cada nivel
de sntesis se requiere de hacer una interpolaci on a dos seguida de una convoluci on.

Esto para recuperar la se nal c


i,k
y d
i,k
y obtener c
i1,k
en un nivel de sntesis i, para
i = 1, 2, , N.
Figura C.10: Diagrama de una interpolacion a dos seguida de una convoluci on, donde
c
i
[n], c

i,k
[n] y
i,k
[n] son la se nal de entrada, la se nal de salida y la se nal resultante
de la interpolaci on a dos de la entrada, y g[k] es el ltro de longitud .
En la Figura C.10, se muestra una interpolaci on a dos seguida de una convoluci on,
cuya representacion matematica es dada por:
c

i,k
= h[k] c
i,k

2
, (C.46)
Apendice C: Teora wavelet 113
donde c

i,k
es la se nal de salida, h[k] es el ltro de longitud , c
i,k
es la se nal se nal de
entrada (para el caso de d

i,k
como salida y c
i,k
como entrada el ltro utilizado es g[n]).
Si
i,k
[n] es el resultado de interpolar a dos a c
i,k
, y cuya representacion matem atica
es:

i,k
[n] =
_
c
i,k
[
n
2
], para n = 2, Z,
0, en otro caso,
(C.47)
por lo que la salida c

i,k
es dada por:
c

i,k
[n] =
1

k=0
h[k]
i,k
[n k]. (C.48)
Para d

i,k
se recupera de la misma forma con (C.49), y la Figura C.11 muestra el
diagrama para el proceso
d

i,k
[n] =
1

k=0
g[k]
i,k
[n k], (C.49)
donde

i,k
[n] =
_
d
i,k
[
n
2
], para n = 2, Z,
0, en otro caso.
(C.50)
Figura C.11: Diagrama de una interpolacion a dos seguida de una convoluci on, donde
d
i
[n], d

i,k
[n] y
i,k
[n] son la se nal de entrada, la se nal de salida y la se nal resultante
de la interpolaci on a dos de la entrada, y g[k] es el ltro de longitud .
Una vez calculadas c

i,k
[n] y d

i,k
[n], la se nal recuperada c
i1,k
[n] para el siguiente
nivel de sntesis, es obtenida por:
c
i1,k
[n] = c

i,k
[n] + d

i,k
[n]. (C.51)
114 Apendice C: Teora wavelet
ALGORITMO C.3: Algoritmo de sntesis de descomposicion
1. Se toma la se nal c
N,k
[n] y d
N,k
[n] y se calcula c
N1,k
, con (C.47) - (C.51).
2. Ahora se toma c
i,k
y d
i,k
[n], y se calcula c
i1
[n] y d
i1
[n] con (C.47) - (C.51),
para i = 1, 2, 3, , N 1.
El algoritmo para recuperar un se nal desde el nivel de sntesis N, es dado en el
Algoritmo C.3.
C.6. Comentarios
En este apendice se presentan los fundamentos basicos de la teora wavelet, que son
necesarios para el entendimiento de la descomposicion multiresolucion de una se nal,
que en el caso de control cl asico es la se nal de error, que permite el desarrollo de un
control PID multiresolucion. Adem as, se puede observar que la aproximaci on de una
funci on C.40 est a dada como una combinaci on lineal de wavelets ponderadas por los
coecientes c
i
, esta representacion permite tener una estructura de una red neuronal
wavelet. En el siguiente apendice se presenta los fundamentos de redes neuronales para
tener un mayor entendimiento sobre las wavenets que son presentadas en el Apendice
E.
Apendice D
Redes neuronales articiales
El objetivo de este apendice es dar un breve repaso sobre el tema de redes neu-
ronales articiales, las cuales son empleadas para generar redes wavelets y que estas
a su vez, se emplean dentro del esquema de un control PID wavenet para sintonizar
sus par ametros. De aqu la importancia de este apendice sobre el trabajo de la te-
sis, para dar un panorama muy general sobre las partes en que est a conformado una
red neuronal de simple capa, multicapa y las redes neuronales con funciones de base
radial.
El apendice se encuentra organizado de la siguiente manera: Primeramente en
la Secci on D.1 se presenta una introducci on sobre el origen del estudio de las redes
neuronales articiales, posteriormente se muestra el esquema del perceptr on de simple
capa y multicapa, en la Secci on D.3 se muestra el esquema de las redes de base radial,
y por ultimo en la Seccion D.4 se dan los comentarios referentes a este apendice.
D.1. Introduccion
Una red neuronal es una red interconectada de elementos de procesamiento simple,
i.e. escalados y ltrados. Estos elementos de procesamiento interact uan a lo largo de
rutas estrechas las cuales cuando son adaptadas adecuadamente pueden producir
colectivamente un comportamiento complejo deseado. El dise no de la red neuronal
fue inspirado por la investigacion biologica de c omo trabaja el cerebro humano. El
objetivo de la red neuronal es imitar a las neuronas del cerebro humano por el enlace
de muchos procesadores simple, llamadas neuronas articiales o nodos, las cuales se
interconectan a traves de los pesos [25, 73].
Uno de los primeros modelos de neuronas fue desarrollado por McCulloch y Walter
Pitts, que era un modelo simplicado de una neurona biol ogica. El modelo consiste de
multiples entradas y una salida con una unidad central de procesamiento CPU [33].
115
116 Apendice D: Redes neuronales articiales
La Figura D.1 muestra el modelo para una neurona, la cual es descrita por
y = f
_
L

l=1
w
l
x
l
v
t
_
, (D.1)
donde x
l
es la l-esima se nal de entrada, w
l
es el peso que conecta la l-esima estrada
con el CPU, v
t
es un umbral o bias, que proporciona una tendencia a la funcion de
activaci on f(), y y es la se nal de salida de la neurona. En 1949, Hebb sugiere una
simple f ormula matem atica para adaptar los cambios de los pesos en proporcion a la
actividad entre la pres-pre-sinapsis y post-sinapsis de la neurona
w
i
(k) = y(k)x
i
(k), (D.2)
donde 0 < R es la velocidad de aprendizaje para todo el tiempo k.
Figura D.1: Modelo de McCulloch-Pitts de una neurona, donde x
l
, w
l
, f(), y, y v
t
,
son la l-esima se nal de entrada, el peso que conecta la l-esima entrada con el CPU,
la funci on de activacion, la se nal de salida y el umbral, respectivamente.
D.2. El perceptron y el perceptron multicapa
Otro de los modelos de neuronas que mejora al modelo propuesto por McCulloch y
Pitts, es el perceptron. En 1958, Rosenblat demostro la ecacia de este modelo sobre
algunas aplicaciones pr acticas [57], el perceptron es una conexi on de nivel simple de
neuronas de McCulloch-Pitts algunas veces llamadas redes de simple capa. Esta red
es capaz de separar linealmente los vectores de entrada en patrones de clases por un
hiperplano. La Figura D.2 muestra la red neuronal del tipo perceptr on de una capa,
Apendice D: Redes neuronales articiales 117
y su representaci on matem atica de la l-esima salida esta dada por
y
l
= f
_
J

j=1
w
j,l
x
j
v
t
_
, (D.3)
donde l = 1, 2, , L, j = 1, 2, , J, L es el n umero de nodos en la salida y J el
n umero de entradas, y la regla de aprendizaje es basada en el ajuste de los pesos en
proporci on al error entre las neuronas de salida y la salida deseada, la adaptaci on de
los pesos es dada por:
w
j,l
(k) = [d
l
(k) y
l
(k)] x
j
(k), (D.4)
donde 0 < R es la velocidad de aprendizaje para todo el tiempo k y d
l
es la salida
deseada en el nodo l al tiempo k.
Figura D.2: Estructura de un perceptr on de una capa, donde x
j
, w
j,l
, f(), y
l
, v
t
, son
la j-esima se nal de entrada, el peso que conecta la j-esima entrada con l-esimo nodo
de la capa de salida, la funcion de activacion, la l-esima se nal de salida y el umbral,
respectivamente.
Para procesos donde la red de simple capa no es la adecuada por sus limitaciones
fundamentales que posee [25], las redes multicapas fueron sugeridas por Minsky y
Papert en 1969. El perceptron multicapa introduce una o m as capas ocultas, llamadas
neuronas ocultas. La funcion de las neuronas ocultas es el de intervenir entre las
entradas externas y la salida de la red. La Figura D.3 muestra un perceptr on multicapa
de tres capas, que consta de una capa de entrada, una capa oculta y una capa de salida.
Los nodos de entrada en la capa de entrada consiste de J elementos de los patrones
los cuales constituyen las se nales de entrada aplicado a L neuronas en la primera
118 Apendice D: Redes neuronales articiales
capa oculta. La se nal de salida de las L neuronas en la capa nal oculta H de la red
neuronal constituye la respuesta completa de la red para los patrones suministrados en
los nodos de entrada. La funci on f(), es llamada funcion de activacion, la cual dene
la salida de una neurona en terminos del nivel de actividad a su entrada (rangos de -1
a 1 o 0 a 1). En la Tabla D.1 se dan algunos ejemplos de funciones de activaci on, donde
las mas empleadas son la funci on sigmoidal y la funci on de la tangente hiperb olica.
Figura D.3: Estructura de un perceptron multicapa de tres capas, donde x
j
, w
j,l
, w
l,k
,
f(), y
l
, v
t
, son la j-esima se nal de entrada, el peso que conecta la j-esima entrada con
l-esimo nodo en la primera capa, el peso que conecta el l-esima nodo de la primera
capa con el k-esimo nodo de la capa de salida, la funcion de activaci on, la l-esima
se nal de salida y el umbral, respectivamente.
Un metodo para el aprendizaje supervisado que actualiza los pesos de la red, es el
algoritmo backpropagention [25], desarrollado por R. Hinton y Williams en 1986. El
algoritmo emplea un metodo interactivo del gradiente descendente de minimizaci on,
la cual minimiza el error cuadr atico medio entre la salida deseada y la salida de la
red, denido como
E =
1
2
N

n=1
L

l=1
e
2
(n), (D.5)
con
e
l
(n) = d
l
(n) y
(H)
l
(n), (D.6)
donde L es el n umero de neuronas en la capa de salida, N es el n umero de datos de
entrenamiento en la entrada, n es el n umero de interacciones, cuando H es igual a la
capa de salida, se tiene
v
(h)
l
(n) =
J

j=1
w
(h)
l,j
(n)y
(h1)
j
(n), (D.7)
Apendice D: Redes neuronales articiales 119
Nombre Denici on
Lineal f(x) = x
Paso f(x) =
_
, si x x
k
,
, si x < x
k
,
com unmente = 1, = 0, x
k
= 0,
Rampa f(x) =
_
_
_
, si x > ,
x, si [x[ < ,
, si ,
Sigmoidal f(x) =
1
1+e
2x
, > 0,
Hiperb olica f(x) = tanh(x) =
1e
2x
1+e
2x
, > 0,
Racional f(x) =
_
x
2
1+x
2
, si x > 0,
0, en otro caso,
Gaussiana f(x) =
1

2
e

(x)
2
2
2

,
donde es el centro de la funci on Gaussiana y
es la media de propagacion.
Tabla D.1: Algunos ejemplos com unes de funciones de activacion
donde y
(h1)
j
(n) es la se nal de funci on de la neurona j en la capa previa h 1 a la
interaccion n, w
(h)
l,j
(n) es el peso que conecta la neurona l en la capa h con la neurona
j en la capa h 1.
Entonces la se nal de salida de la neurona l en la capa h es
y
(h)
l
= f
_
v
l
l
(n)
_
, (D.8)
f() es la funci on de activaci on, s la neurona l est a en la primera capa oculta (h = 1),
entonces el conjunto y
(0)
l
(n) = x
l
(x).
Haciendo el c alculo hacia atras, se tiene

l
(n) =
E
l
v
l
, (D.9)
el cual es llamado el error local o los gradientes locales, se puede simplicar (D.9)
como:
(b) para la neurona l en la capa de salida H

H
l
(n) = e
H
l
(n)f

(v
H
l
(n)), (D.10)
120 Apendice D: Redes neuronales articiales
(b) para la neurona l en la capa de salida h,

h
l
(n) = f/(v
h
l
(n))

(h+1)
k
(n)w
(h+1)
k,l
(n). (D.11)
donde f

() es la derivada de la funci on de activaci on con respecto a v(n),


La actualizacion de los pesos w de la red en la capa h se actualizan de acuerdo a
la regla delta generalizada:
w
(h)
l,j
(n + 1) = w
(h)
l,j
(n) +
(h)
l
(n)y
(h1)
j
(n), (D.12)
donde: 0 < R es la velocidad de aprendizaje, com unmente de 0.01. Si despues
de actualizar los pesos, el error E no se minimiza, una nueva interacci on (epoca) se
requiere hasta que el error E sea mnimo.
D.3. Redes neuronales con funciones de base ra-
dial
Las redes neuronales con funciones de base radial RBF fueron empleadas por
primera vez por Broomhed y Lowe en 1988 [25]. Las redes de RBF b asicamente
est an formadas de tres capas completamente diferentes como se muestra en la Figura
D.4; una capa de entrada, una capa oculta de dimensiones sucientes y una capa de
salida. La transformaci on desde la capa oculta a la capa de salida es en forma lineal,
sin embargo, la transformaci on desde la entrada a la capa oculta es no lineal. Cada
neurona o nodo en la capa oculta forma una combinacion lineal de la funcion base, la
cual produce una respuesta bien localizada con respecto a la se nal de entrada. Esto es
que la RBF producen una respuesta signicativa diferente de cero unicamente cuando
la entrada cae dentro de una peque na regi on localizada en el espacio de entrada.
La funcion base m as com un de la RBF es la funci on Gaussiana, la cual tiene la
siguiente representaci on

l
(X) = e

(XC
l
)
T
(XC
l
)
2
2
l

, (D.13)
donde
l
es la salida del l-esimo nodo en la capa oculta, X es el patron de entrada,
C
l
es el vector de pesos para el l-esimo nodo en la capa oculta, i.e. es el centro de la
funci on Gaussiana para el nodo l;
l
es el par ametro de normalizacion o la media de
propagaci on para el l-esimo nodo, y l = 1, 2, , L. Siendo L el n umero de neuronas
en la capa oculta. La salida i-esima de la red de funciones de base radial esta dada
por
y
i
= W
T
i
(X
l
), (D.14)
Apendice D: Redes neuronales articiales 121
Figura D.4: Estructura de una red neuronal con funciones de base radial, donde x
j
,
C
l
, W
i
, () y y
i
son la entrada en el nodo j, el vector de pesos del nodo l, el vector
de pesos del nodo i, la funci on de activaci on y la salida en el nodo i, respectivamente.
donde y
i
es la salida del i-esimo nodo en la capa de salida, W
i
es el vector de pesos
del nodo i, (X) es el vector de salidas desde la capa oculta, y i = 1, 2, , I. Siendo
I el n umero de nodos en la capa de salida.
Existen dos forma comunes de calcular la media de propagacion
2
l
de los datos
asociado a cada nodo:
1. Encuentra la media de propagaci on desde el conjunto de todos los patrones
de entrenamiento agrupados con cada centro cluster, i.e., los hace igual a la
distancia del centro cluster y los patrones de entrenamiento:

2
l
=
1
N
l

kC
l
(X
k
C
l
)
T
(X
k
C
l
) , l = 1, 2, , k, , L, (D.15)
donde N
l
es el n umero de patrones que pertenecen al l-esimo cluster, k es el
ndice de un patr on que pertenece a el l-esimo cluster.
2. Encontrar la media de propagacion desde el centro (heurstica del vecino p m as
cercano):

2
l
=
1
L
L

k=1
(C
k
C
l
)
T
(C
k
C
l
) , l = 1, 2, , k, , L, (D.16)
Una elecci on popular de algoritmos de clustering usados en el entrenamiento de
redes RBF (para dar una clase k) es el algoritmo Lloyd generalizado o el algoritmo
de clustering K-means. El algoritmo dise nado por J. MacQueen en 1967 provee un
mecanismo simple para minimizar la suma de los errores cuadraticos con k clusters,
donde cada cluster consiste en un conjunto de N
l
muestras x
1
, x
2
, , K, , N
l
,
que son similares con cada una de las otras. El algoritmo K-means es:
122 Apendice D: Redes neuronales articiales
ALGORITMO D.2: Algoritmo K-means
1. Seleccione un conjunto de clusters C
1
, C
2
, , K, , C
k
arbitrario.
2. Asigne los N
l
muestras a el k clusters usando la regla de distancia mnima
Euclidiana: Si |XC
l
| = min
l
|XC
l
| X C
l
.
3. Calcular el nuevo centro cluster C
k
=
1
N
l

kC
l
X
k
4. Si cualquier centro cluster cambia, regrese al paso 2; en otro caso, terminar.
D.4. Comentarios
En este apendice se da una introducci on sobre las redes neuronales articiales, las
cuales junto con la teora wavelet vistas en el Apendice C, forma las redes wavelets
(wavenets), las cuales son dadas en el Apendice E, y sirven para el desarrollo del
control PID wavenet multiresolucion que es el tema principal de esta tesis.
Apendice E
Teora wavenet
El objetivo de este apendice es desarrollar los algoritmos que hacen uso de la
combinacion de redes neuronales y las wavelets, para modicar las ganancias de los
controladores propuestos. Las redes neuronales wavelets adaptable, no s olo son em-
pleadas para control adaptable, si no tambien, para la identicaci on de sistemas no
lineales y aproximaci on de funciones no lineales, debido a la gran capacidad de r apido
aprendizaje y a las propiedades de las wavelets. Una ltro IIR es empleado en cascada,
para garantizar la estabilidad y la convergencia de la red neuronal wavelet adaptable.
E.1. Introduccion
Combinando la teora de la transformada wavelet con el concepto basico de redes
neuronales, se propone un nuevo mapeo de red llamado red neuronal wavelets adap-
table o wavenet como una alternativa a las redes neuronales de alimentacion hacia
adelante para aproximar funciones arbitrarias no lineales. Los algoritmos wavenet con-
sisten b asicamente de dos procesos: la auto-construccion de las redes y la minimizacion
del error. En el primer proceso, las estructuras de las redes aplicadas para la repre-
sentaci on son determinadas usando an alisis wavenet. La red gradualmente combina
unidades ocultas para cubrir eciente y sucientemente la region tiempo-frecuencia
ocupada por una meta dada. Simult aneamente, los par ametros de la red son actua-
lizados para conservar la topologa de la red y aprovechar el proceso posterior. En
el segundo proceso, las aproximaciones de los errores instantaneos son minimizadas
usando una tecnica de adaptaci on basada en los algoritmos LMS

Los par ametros de la


red inicializada son actualizados usando el metodo del gradiente de pasos descenden-
tes. Cada unidad oculta tiene una ventana cuadrada en el plano tiempo-frecuencia.
La regla de optimizaci on es solamente aplicada a las unidades ocultas donde el punto
seleccionado cae en sus ventanas. Por lo tanto, el costo del aprendizaje puede ser
reducido. Todas estas ventajas que se tienen de las redes wavenets son aprovechadas
123
124 Apendice E: Teora wavenet
en el controlador wavenet que se propone en este trabajo de tesis.
E.2. Algoritmos wavenets
Como se vio en la Seccion C.4, una funcion f(t) L
2
(R) puede ser aproximada
mediante una combinaci on lineal empleando (C.40), la cual tiene similitud con una
red neuronal de base radial. La Figura E.1 es la arquitectura de la red neuronal wave-
let adaptable, que aproxima cualquier se nal deseada y(t) mediante la generalizaci on
de una combinaci on lineal de un conjunto de wavelets hijas (), donde estas son
generadas por una dilatacion a y una traslacion b de la wavelet madre (t):
() =
_
t b
a
_
, a, b R, =
t b
a
, (E.1)
con el factor de dilatacion a > 0. Se puede observar que (E.1) es similar a la Denicion
39, Apendice C pero sin la normalizaci on de energa.
Figura E.1: Diagrama de una red neuronal, donde u(t), y son la se nal entrada, la se nal
de salida de la red neuronal, respectivamente y (), w son la funcion de activaci on
y los pesos que hay entre las neuronas, respectivamente.
Y, para lograr la aproximacion, se asume que la funcion de salida de la red satisface
la condici on de admisibilidad y la red aproxima sucientemente la meta, es decir, que
la regi on tiempo-frecuencia es cubierta efectivamente por sus L ventanas. La se nal
aproximada de la red y(t) puede ser representada por:
y(t) = u(t)
L

l=1
w
l

l
(), y, u, w R, (E.2)
Apendice E: Teora wavenet 125
en la cual
l
() =
_
tb
l
a
l
_
para l = 1, 2, , L, donde L Z es el n umero de
neuronas en la capa de la red neuronal wavenet.
Deniendo los vectores W, A, B y como
W [w
1
w
2
w
l
w
L1
w
L
]
T
, (E.3)
A [a
1
a
2
a
l
a
L1
a
L
]
T
, (E.4)
B [b
1
b
2
b
l
b
L1
b
L
]
T
, (E.5)
() [
1
()
2
()
l
()
L1
()
L
()]
T
, (E.6)
ahora (E.2), puede ser representada por:
y(t) =
T
()Wu(t), (E.7)
y, como una wavenet es una red local en la cual la funcion de salida esta bien localizada
en ambos tiempo-frecuencia. En adici on, una red local doble puede ser lograda por
la combinaci on de una red neuronal en cascada con un ltro de respuesta innita al
impulso (IIR), el cual provee un metodo computacional eciente para el aprendizaje
del sistema [14]. En la Figura E.2 se muestra la estructura del ltro IIR y en la Figura
E.3 se muestra la estructura nal, de la wavenet con el ltro IIR.
Figura E.2: Diagrama del ltro IIR, donde z(t), y son la se nal de entrada, la se nal de
salida del ltro IIR, respectivamente y c, d, son los coecientes del ltro.
Deniendo
C [c
0
c
1
c
m
c
M1
c
M
]
T
, (E.8)
D [d
1
d
2
d
j
d
J1
d
J
]
T
, (E.9)
Z(t) [z(t) z(t 1) z(t m) z(t M + 1) z(t M)]
T
, (E.10)

Y(t) [ y(t 1) y(t 2) y(t j) y(t J + 1) y(t J)]


T
, (E.11)
126 Apendice E: Teora wavenet
Figura E.3: Diagrama de la wavenet con el ltro IIR, donde u(t), y son la se nal de
entrada, la se nal de salida de la wavenet con un ltro IIR, respectivamente, a, b, w y
c, d, son los par ametros de la wavenet y coecientes del ltro IIR, respectivamente.
con c, d, z, v R. Ahora la se nal aproximada y(t) con el ltro IIR en cascada, puede
ser expresada en forma vectorial como
y(t) = C
T
Z(t)u(t) +D
T

Y(t)v(t), (E.12)
donde
z(t) =
T
()W. (E.13)
Los par ametros de la wavenet IIR w, a, b, c y d pueden ser optimizados en el
sentido de LMS minimizando la funcion de energa del error E, denida como
E =
1
2
T

t=1
e
2
(t), (E.14)
e(t) = y(t) y(t), (E.15)
donde y(t) es la respuesta deseada.
Se minimiza a E con el metodo del gradiente de pasos descendentes, el cual requiere
los gradientes
E
W
,
E
A
y
E
B
de los par ametros de la red wavenet y
E
C
,
E
D
de los
coecientes de la estructura IIR, los cuales son expresados como:
Apendice E: Teora wavenet 127
E
W
=
_
E
w
1
E
w
2

E
w
l

E
w
L1
E
w
L
_
T
, (E.16)
E
A
=
_
E
a
1
E
a
2

E
a
l

E
a
L1
E
a
L
_
T
, (E.17)
E
B
=
_
E
b
1
E
b
2

E
b
l

E
b
L1
E
b
L
_
T
, (E.18)
E
C
=
_
E
c
1
E
c
2

E
c
m

E
c
M1
E
c
M
_
T
, (E.19)
E
D
=
_
E
d
1
E
d
2

E
d
j

E
d
J1
E
d
J
_
T
, (E.20)
donde:
E
w
l
=
T

t=1
e(t)u(t)
M

m=0
c
m
( m), (E.21)
E
b
l
=
T

t=1
e(t)u(t)
M

m=0
c
m
w
l
( m)
b
l
, (E.22)
E
a
l
=
T

t=1
e(t)u(t)
M

m=0
c
m
w
l

( m)
b
l
=
E
b
l
, (E.23)
E
c
m
=
T

t=1
e(t)u(t)z(t m), (E.24)
E
d
j
=
T

t=1
e(t)v(t) y(t j), (E.25)
de manera similar, los cambios incrementales de cada par ametro son solo el negativo
de sus gradientes:
128 Apendice E: Teora wavenet
W =
E
W
, (E.26)
A =
E
A
, (E.27)
B =
E
B
, (E.28)
C =
E
C
, (E.29)
D =
E
D
, (E.30)
de este modo, cada coeciente es actualizado acorde a la siguiente regla:
W(n + 1) = W(n) +
W
W, (E.31)
A(n + 1) = A(n) +
A
A, (E.32)
B(n + 1) = B(n) +
B
B, (E.33)
C(n + 1) = C(n) +
C
C, (E.34)
D(n + 1) = D(n) +
D
D, (E.35)
donde R es el coeciente de velocidad de aprendizaje, para cada uno de los
par ametros.
E.3. Comentarios
En este apendice se resumen los resultados b asicos de las redes wavenets para
la aproximaci on de funciones, es decir dada una se nal de entrada u(t) arbitraria se
aproximo por y(t) que es la salida de la red neuronal wavenet. Esta conguraci on de
red es empleada en los Captulos 4 y 5 para la identicacion de la planta.
Apendice F
Algoritmos programados en
MATLAB y simulink
El objetivo de este apendice es de mostrar los algoritmos empleados para la im-
plementaci on para control PID wavenet, y el control PID wavenet multiresolucion
desarrollados en esta tesis. Los algoritmos de los controladores PID wavelet y PID
wavenet est an programados en MATLAB 2012a y simulink.
F.1. MATLAB
F.1.1. Etapa de identicaci on
MATLAB F.1: Funci on: Red neuronal wavelet para la identicacion del sistema
function [gamma, E, e, z, a, b, W, ye, C, D, h, dh] = fcn(u, yr, t, zm1, zm2, zm3,
a1, a2, a3, b1, b2, b3, w1, w2, w3, yem1, yem2,c1, c2, c3, c4, d1, d2, h1m1, h2m1,
h3m1, h1m2, h2m2, h3m2, h1m3, h2m3, h3m3, dh1m1, dh2m1, dh3m1, dh1m2,
dh2m2, dh3m2, dh1m3, dh2m3, dh3m3)
K=3;
M=3;
N=2;
epsilon = 0;
muw=0.00000000000000000005;
129
130 Apendice F: Algoritmos programados en MATLAB y simulink
mub=0.000000000000000005;
mua=0.000000000000005;
muc=0.000000000000000000005;
mud=0.0000000000000000005;
s=zeros(K,1);
h=zeros(K,1);
dh=zeros(K,1);
hm1=[h1m1; h2m1; h3m1];
hm2=[h1m2; h2m2; h3m2];
hm3=[h1m3; h2m3; h3m3];
dhm1=[dh1m1; dh2m1; dh3m1];
dhm2=[dh1m2; dh2m2; dh3m2];
dhm3=[dh1m3; dh2m3; dh3m3];
if t =0
C = [c1; c2; c3; c4];
W = [w1; w2; w3];
a = [a1; a2; a3];
b = [b1; b2; b3];
D = [d1; d2];
else
W = (zeros(K,1));
a = [10;10;10];
b = [3/K;3/K;3/K];
C = [.1; .05; 0; .15];
D = [0; 0];
end
zt=0;
for k=1:K
s(k,1) = (t-b(k,1))/a(k,1);
h(k,1) = cos(s(k,1))exp(-0.5s(k,1)

2);
dh(k,1) = 1/a(k,1)(sin(s(k,1))exp(-0.5s(k,1)

2)+s(k,1)h(k,1));
zt=zt+(W(k,1)h(k,1));
end
z=zt;
v=u/5;
gamma=c1z+c2zm1+c3zm2+c4zm3;
yem=(c1z+c2zm1+c3zm2+c4zm3)u;
yen=(d1yem1+d2yem2)v;
ye=yem+yen;
Apendice F: Algoritmos programados en MATLAB y simulink 131
e=(yr-ye);
E=(1/2)(ee);
if E>epsilon;
dEdw=((u.e)c1h+c2hm1+c3hm2+c4hm3);
dEdb=((u.e))c1Wdh+c2Wdhm1+c3Wdhm2+c4Wdhm3;
dEda=sdEdb;
dEdc=euzm1;
dEdd=euyem1;
W=W+muwdEdw;
b=b+mubdEdb;
a=a+muadEda;
C=C+mucdEdc;
D=D+muddEdd;
end
F.1.2. Modelo matematico
MATLAB F.2: Funci on: modelo matematico
function [q1pp, q2pp]= fcn(q1p,u,q2,q2p)
g = 9.8;
M = 0.52;
m = 0.23;
B1 = 0.1;
B2 = 0.01;
l = 0.32;
J=0.007;
H = [(M+m) , mlcos(q2) ; mlcos(q2) , J+m(l

2)];
C = [0 , -ml(sin(q2))q2p ; 0 , 0];
qp = [q1p ; q2p];
G = [0 ; -mglsin(q2)];
F = [-B1q1p ; -B2q2p];
T = [u ; 0];
qpp= ( inv(H) ) ( -(Cqp) -G -F +T);
q1pp=qpp(1,1);
q2pp=qpp(2,1);
132 Apendice F: Algoritmos programados en MATLAB y simulink
F.1.3. PID wavenet
MATLAB F.3: Funci on: PID discreto adaptable
function [u, PID] = fcn(um1, e, em1, em2, kp, ki, kd, ei, gamma)
T=0.001;
Ti=kp/ki;
Td=kd/kp;
k0=kp(1+(T/Ti)+(Td/T));
k1=-kp(1+2(Td/T));
k2=kp(Td/T);
u = um1+ k0e + k1em1 + k2em2;
miup=9999999999999999999;
miui=9999999999999999999;
miud=9999999999999999999;
nkp=kp+miupeigamma(e-em1);
nki=ki+miuieigammae;
nkd=kd+miudeigamma(e-2em1+em2);
PID=[nkp; nki; nkd];
F.1.4. Analisis de la multiresolucion
MATLAB F.4: Programa: Analisis de la multiresolucion
[C,L] = wavedec(x,5,db2);
ex5H = wrcoef(a,C,L,db2,5);
ex1L = wrcoef(d,C,L,db2,1);
ex2L = wrcoef(d,C,L,db2,2);
ex3L = wrcoef(d,C,L,db2,3);
ex4L = wrcoef(d,C,L,db2,4);
ex5L = wrcoef(d,C,L,db2,5);
F.1.5. PID wavenet multiresoluci on
Apendice F: Algoritmos programados en MATLAB y simulink 133
MATLAB F.5: Funci on: PID wavenet multiresolucion
function [nkH, nkH2, nkM, nkM2, nkL, nkL2, u] = fcn(eL, eLm1,eL2, eL2m1,
eM, eMm1, eM2, eM2m1, eH, eHm1, eH2, eH2m1, kH, kH2, kM, kM2, kL, kL2,
ei, gamma, um1)
u = um1+ kH*(eH-eHm1) + kM*(eM-eMm1) + kL*(eL-eLm1)+ kH2*(eH2-
eH2m1) + kM2*(eM2-eM2m1) + kL2*(eL2-eL2m1);
miul=500;
mium=500;
miuh=500;
miul2=500;
mium2=500;
miuh2=500;
nkL=(kL*.01+miul*gamma*(eL-eLm1))/.01;
nkM=(kM*.01+mium*gamma*(eM-eMm1))/.01;
nkH=(kH*.01+miuh*gamma*(eH-eHm1))/.01;
nkL2=(kL2*.01+miul2*gamma*(eL2-eL2m1))/.01;
nkM2=(kM2*.01+mium2*gamma*(eM2-eM2m1))/.01;
nkH2=(kH2*.01+miuh2*gamma*(eH2-eH2m1))/.01;
Apendice G
Artculos sometidos
G.1. European Control Conference
13th European Control Conference (ECC) from the 24th to the 27th of June 2014
in Strasbourg, France
135

You might also like