Professional Documents
Culture Documents
VNM
to su VNM ?
Organizacija mozga
Modeli neurona
Arhitektura mree
Reprezentacija znanja
Vizualizacija procesa u neuronskim mreama
AI i neuronske mree
Istorijat
Biologija je inspiracija
Ljudski mozak sadri
oko 10 milijardi nervnih elija (neurona)
Svaki neuron je povezan sa ostalima preko oko
10000 sinapsi
Mozak moe da naui, reorganizuje se na osnovu
iskustva
On se prilagoava okruenju
Robustan je i tolerantan na greke
Bioloki neuron
Neuron ima
Ulaze - dendrite
Jedan izlaz - Akson
Inspiracija iz neurobiologije
Neuron: Mnogo ulaza
jedan izlaz
Moe da doe do
pobuivanja neurona (ali i
ne mora)
Jaina signala na ulazu
odreuje da li e neuron
da opali
ta je neuron ?
Nelinearna funkcija vie promenljivih sa
ogranienim opsegom izlaza
x2
y f w0 wi xi
i 1
w0
x1
n 1
x3
Koncept sinapse
Otpor sinapse prostiranju dolaznog
signala moe da se menja tokom procesa
uenja [1949]
Hebbovo pravilo:
Ako impuls na ulazu neprestano ini da neuron
okida u sinapsi se dogaa metabolika promena
koja uzrokuje smanjenje otpora odgovarajueg ulaza
Matematika predstava
Neuron rauna zbir proizvoda ulaza i njima odgovarajuih teina.
Taj rezultat uporeuje sa pragom aktivacije. Ako je suma vea od
praga aktivacije vrednost izlaza je 1. u suprotnom rezultat je -1
(moe da bude 0)
Nelinearnost
Perceptron
Mrea od jednog neurona
Promena teine je
proporcionalna razlici
dobijene i eljene
vrednosti izlaza
Wi = * (D-Y).Ii izlaz
Brzina
obuavanja
Oekivana
vrednost
Dobijena
vrednost
Obuavanje percepretona
Linearna separabilnost
Structure
Single-Layer
Two-Layer
Three-Layer
Types of
Decision Regions
Exclusive-OR
Problem
Half Plane
Bounded By
Hyperplane
Convex Open
Or
Closed Regions
Abitrary
(Complexity
Limited by No.
of Nodes)
Faza obuavanja
Na osnovu iskustva: trening set
Naueno se nalazi u teinama svake veze
Mrea se prilagoava reenju promenom
teina
U radnom reimu teine su fiksirane
Online
Uvek ue
Obino su sloenije arhitekture
Faze rada
Kontinualni proces:
Raunanje izlaza
Podeavanje teina Uenje
Obrada novog ulaza
Vrste obuavanja
Vrste uenja:
Nadgledano
Nenadgledano
Nadgledano uenje
Profesor daje ocenu dobijene vrednosti
Mrei se saoptava broj poznatih parova
ulaznih vektora i oekivanih izlaza
Ocenjuje se koliko je mrea pogreila
Podeavaju se teine tako da mrea daje
bolju aproksimaciju eljenog izlaza
Nenadgledano uenje
Bez pomoi spolja
Nema trening skupa niti informacije o eeljenim
izlazima
Mrea prouava strukturu, uoava pravilnosti i
na osnovu toga podeava teine
Primer: Kohonens zakon obuavanja
Winner takes all
menjaju se teine iskljuivo neurona sa najjaim
signalom na ulazu
Generalizacija i specijalizacija
Primene VNM
Prepoznavanje
Neodreeni problemi
Predikcija
klasifikacija
Asocijacija podataka
Konceptualizacija podataka
Filtriranje
planiranje
Primene VNM
Predvianje na osnovu iskustva
Stanje na tritu
Vremenska prognoza
Rizik od oboljenja
klasifikacija
Obrada i prepoznavanje
Verovatnoa bankrota kompanija
Veliina premije za ivotno osiguranje
Primene VNM
Prepoznavanje
Prepoznavanje pravilnosti SNOOPE
detektor bombi na aerodromima
Prepoznavanje teksta
Prepoznavanje rukopisa
Asocijacija
Otkriva situacije kada npr. prepoznavanje
teksta ne radi pravilno
Primene VNM
Konceptualizacija
Na osnovu podataka iz baze kupaca povezuje kupce i
proizvode koje oni vole da kupuju
Filtriranje signala
Proiavanje telefonskog signala
Planiranje
Planiranje manevra podmornice na osnovu
oslukivanja neprijatelja
Prednosti i mane
Prednosti
Dobro snalaenje u nepoznatim situacijama
Velika inertnost na greke u delovima mree
Nezavisni procesi obuavanja i generalizacije
Nedostatci
Nisu egzaktne postoji konana greka
Visoka kompleksnost strukture
Aktivacione funkcije
20
18
16
yx
Linearna
14
12
10
8
6
4
2
0
10
12
14
16
18
20
2
1.5
1
Logistika
0.5
0
-0.5
1
1 exp( x)
-1
-1.5
-2
-10
-8
-6
-4
-2
10
Tangens hiperbolikus
1.5
1
exp( x) exp( x)
y
exp( x) exp( x)
0.5
0
-0.5
-1
-1.5
-2
-10
-8
-6
-4
-2
10
Izlazni sloj
Drugi
skriveni sloj
Prvi skriveni
sloj
x1
x2
..
xn
Rekurentne VNM
0
1
0
0
1
x1
x2
Dobre za aproksimaciju
dinamikih sistema
Signali iz prethodnih stanja
ulaze u proraun
Tei za treniranje
esti problemi
VNM
Univerzalni modeli za aproksimaciju funkcija
Teorema: Svaka neprekidna funkcija moe da
bude aproksimirana VNM koja ima konaan broj
neurona
Vrste aproksimatora
Linearni broj parametara raste eksponencijalno sa
porastom broja promenljivih funkcije
Nelinearni broj parametara raste linearno sa
porastom broja promenljivih funkcije
Adaptivnost
Sposobnost generalizacije u situacijama kada
nemamo sve podatke
Example
Neuro-raunarstvo u poreenju
sa tradicionalnim
Paper content
Introduction
Mathematical Presentation of RANN
Training Algorithms and RNN Synthesis
Example
Conclusion
Introduction
This paper presents an approach to optimization of
recurrent artificial neural networks (RNN) that leans on the
appliance of stochastic search (SS).
In certain sense, suggested approach is more appropriate
for engineering practice than back propagation error (BPE)
method, because it does not condition the differentiability of
activation neuron function, as well as transformation of
RNN in corresponding multi-layered network with forward
propagation signal, and after that applying BPE i.e. BPE
through time algorithm.
Relatively simply SS algorithm, constructions easy
adjustment to the present problem, a slight noise
sensitivity, a good behavior in singular dots environment
and, which is the most important an convergence to the
optimum grows with complexity of a system.
Mathematical Presentation of
RANN
It was proven as an adequate approach that RNN are
seen from the aspect of ay state system concept.
1
u1
dx
~
y 2 a) x ( x, u , , )
u2
x
N
dt
x ,u , ,
ym
un
y ( x),
t t0
U
u1
w
u2
- xr
b)
....
......
u3
1
c
(x)
1 e x
x
( x) tanh
1 e x
2
x(k 1) x(k ), u (k ), ,
y (u ) x(k ),
tk
k=0,1,2 , N
-1
u1
up
...
...
y (n 1) f i (n)
-1
...
-1
...
...
and u q B
bias
-1
...
...
u u 1 , u 2 , u q
and u p A
-1
...
ueks u1 , u2 ,K u p
...
e j ( n)
0,
Q ( n)
if
e ( n)
2
jQ
j Q
j Q
ij (n 1) ij ( n) ij (n)
ij (n)
Q(n)
ij (n)
ij (n)
1,2,...N
SS algorithm is of a SS AI type
Q*1 max Q ( s ) 1
ij
where
( N ) T
for Q ( s ) 1 0
Example
This example elaborates input variables that are
connected to the copper content in the flotation
process
Conclusion
In the paper there has been an attempt to offer relatively simple approach in
RNN training applying stochastic search.
The fact is that the algorithms suggested here have the characteristic to
become more efficient with enhancement of a structure complexity, in
optimization procedures that are used for FNN, i.e. RNN training.
Considerable advantage of SS algorithms is that they do not ask for
differentiability of optimization object.
On the basis of having these characteristics, the appliance of SS algorithms
gives valid results when some of the familiar ones are breaking down. In the
following researches presented procedure of stochastic search with
accumulation information will be to extend modeling a nonlinear adaptive
prediction of non-stationary signals in real-time.
This characteristic along with others stated in this work make algorithms in
stochastic research concurrent in their appliance on complex RNN and
complex conditions in which they function.
Discussion