Slide 1 - Ninova

advertisement
Hatırlatma
Bir Yapay Sinir Ağı Tanımı (Alexander, Morton 1990)
Yapay sinir ağı, basit işlemci ünitelerinden oluşmuş, çok
yoğun, parallel ve dağılmış düzende çalışan bir işlemcidir.
Deneysel bilgiyi depolama ve kullanıma sunma özelliğine
sahiptir.
Sinir
hücresi
Beyni iki şekilde andırır:
1) Ağ, bilgiyi ortamdan öğrenme yolu ile elde eder.
2) Gerekli bilgiyi depolama için basit işlemci ünitelerin
arasındaki bağlantıları kullanır.
Kenetleyici
ağırlıklar
http://filipinovoices.com/wp-content/uploads/2009/06/neurons.jpg
ağırlık
matrisi
girişler
girişler
girişler
girişler
Hatırlatma
Ağ Yapıları
İleri yol
Tam bağlaşımlı
Karma
girişler
girişler
girişler
ağırlık matrisi
ağırlık
matrisi
girişler
gizli katman
girişler
ağırlık matrisi
ağırlık
matrisi
çıkış katmanı
çıkışlar
girişler
http://fbim.fh-regensburg.de/~saj39122/jfroehl/diplom/e-12-text.html
öznitelik dönüşümü
Hatırlatma
Öğrenme Süreçleri
Ağın içinde bulunduğu ortamdan etkilenerek parametrelerini
değiştirmesi işlemi öğrenmedir.
Öğrenme şekli,
parametrelerin nasıl değiştirildiği ile belirlenir.
Öğrenme Süreçleri
Eğiticili Öğrenme
Eğiticisiz Öğrenme
Pekiştirmeli
Öğrenme
Özdüzenlemeli
Öğrenme
Hatırlatma
Eğiticili Öğrenme
Ortam
x
Eğitici
yd
+
Eğitilen Sistem
y
e

Hatırlatma
Özdüzenlemeli Öğrenme
Ortam
Eğitilen Sistem
Hatırlatma
Pekiştirmeli Öğrenme
Eğitilen Sistem
δ
Kritik
Değer Atama
Ödül r
Ortam
davranış
“Bilgi”’nin Gösterimi
“Bilgi” İnsan
veya
Makina
Nasıl anlayacağız?
Yorumlama
Öngörme
Uygun yanıt
verme
Depolanmış
enformasyon
veya
model
Nasıl gösterimi oluşturacağız?
Kurallar: (1) Benzer sınıflardan benzer girişler ağda
benzer gösterimler oluşturmalı ve böylece
aynı kategoriye ait olarak sınıflanmalı,
(2) Farklı sınıflara ayrılacak nesnelere, ağda
çok farklı gösterimler atanmalı,
(3) Belirli bir özellik önemli ise ağda onun
gösterimi ile görevlendirilen hücre sayısı
daha fazla olmalı,
Benzerliğin bir ölçütü - Norm
V vektör uzayı olmak üzere, aşağıdaki dört özelliği sağlayan
fonksiyon . :V  R normdur
x 0
x 0  x0
x   x
x y  x  y
Gösterim için bir yol
İşlem uygulayacağımıza göre
nasıl ifade edebiliriz?
Bir T harfi
Bir L harfi
1 
0 
 
0 
 
1 
L  0 
 
0 
1 
 
1 
1 
 
1 
1 
 
1 
 
0 
T  1 
 
0 
0 
 
1 
0 
 
İleri Yol Ağı ve Eğiticili Öğrenme
x1
x1
h11
h11
1
h2
x2
x2
xn
1
y11
y11
1
2
y
1
1hm y1m
2 11
2
h
y
Giriş vektörü
h12
h1ç
h12
h1ç
h22
h2ç
y2
hk2
2
2
h
hlç
1
1
h2ç
y1
yl
y2
Gizli katmanlar
Çıkış katmanı Çıkış vektörü
y  Rl
x  Rn
xn
y1
hm1
y
1
1
m
hk2
hlç
1
yl
Çok Katmanlı Algılayıcı-ÇKA
(Multi-Layer Perceptron)
Teorem: (Kolmogorov 1957)
f ( x1, x2 ,..., xn )
g ij (.)
h j (.)
xi [0,1]n , n  2
f ( x1 , x2 ,..., xn ) ‘e bağlı olmayan
monoton artan
sürekli
tek değişkenli fonksiyon
sürekli
tek değişkenli fonksiyon
 n

f ( x1 , x2 ,..., xn )   h j   gij xi 
j1
 i 1

2n1
Teoremin sonuçları.....
• Kolmogorov Teoremi bir varlık teoremi
f ( x1 , x2 ,..., xn ) ‘i özel bir şekilde ifade edebileceğimizi
söylüyor.
g ij (.)
ve
h j (.) ‘nin ne yapıda olduklarını ve kaç tanesinin
yeterli olacağını söylüyor.
• Kolmogorov Teoremi bir varlık teoremi olduğundan
h j (.) nasıl belirlenir söylemiyor.
g ij (.),
Kolmogorov Teoreminde bazı şeylerden vazgeçelim, tam
olmasın yaklaşık olsun ama fonksiyonları bilelim.
Teorem: (Cybenko 1989)
N yeterince büyük,  j  R ,  herhangi bir sürekli sigmoid
N
fonksiyon
T

f ( x1 , x2 ,..., xn ) ~
  j w j x   j
j1

df
a, b  R ve a  b f : R  R
0
dx
lim f ( x)  a lim f ( x)  b
f
x
Giriş
x
Gizli katman Gizli
1
katman 2
Çıkış
http://www.oscarkilo.net/wiki/images/8/84/Ffperceptron.png
sigmoid
• Ağ yapısı
giriş katmanı
işlem yapan gizli katmanlar
işlem yapan çıkış katmanı
• Nöron
sürekli türetilebilir,
lineer olmayan aktivasyon
fonksiyonu var
• Eğitim
eğiticili öğrenme
• Öğrenme algoritması
geriye yayılım
x
x1
y1   ( w1 x)
y2   ( w2 y1 )
x2
y   ( wo y )
2
xn
e
- +
yd
Gizli katman ve çıkış katmanındaki her nöron iki iş yapıyor:
(i) nöron çıkışındaki işareti nöron girişindeki işaretler
cinsinden hesaplıyor,
(ii) gradyen vektörünü geriye yayılım için yaklaşık olarak
hesaplıyor
Eğitim Kümesi
x 
q
x , y 
q
P
q
d
P
q 1
q 1
y 
q
d
T2
T1
L1
L2
T3
P
q 1
T,L
L3
Giriş vektörü
İstenilen Çıkış vektörü
xR
yd  R
T1  1 1 1 1 n 1 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0' lT  0 1'
L1  1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 1 1 1 1' L  1 0'
x1
x2
h11
y11
1
h2
1
2
y
h12
h1ç
y1
e1
h22
h2ç
y2
yd 1
e2
yd 2
xn
 x1 
x 
 2
  x 
  1 
  x2 
 xn  
 
  1 
  y1 
 xny12 
 
 
 1
 ym 
1
 v11 
 1
 v2 
 
 1
vm 
1
hm
y1
m
1
hk2
hlç
el
1
 y1 
 y12 
v12 
 
 2
 2
 y2 
 y2 
v2 
 x1 
 
1 
1



w12 ... w1( n1)  
1



y
1 2 
1
x
2

w22vk ... w12(ynk1)  2   (.) yy1l 
 1
 2

 y1

 
2
2
w1 12 ... w1 1( n1)xn 1
2



y
1
wm 22
wm2( n1)   y2 
ym2 





w
...
w

(.)
1
22
2 ( n 1)  
 2  
 
 y2 
 
  
 
1


 2
 ym 
 2
2
2
2
w
w
w
v
 k   k1 k 2
k ( n 1) 
 y k 
 1 
 
 y11 
 1
 y2 
 v11    w111
 1   y1 1
 v2   mw21
 2  2
 1v1    w
1 11

vmv2   ww
m12
21
yl
ydl
x1
x2
h11
y11
1
2
h
y1
2
h12
h1ç
2
2
ç
2
h
h
e1
y1
yd 1
y2
e2
yd 2
xn
1
1
hm
y1
m
hk2
hlç
1
el
1
 xx11q 
1
2
1
2
Kümesindeki
q. çifte
ilişkin



 çıkış



 xEğitim

y
y
v
v
1
1
1
1
q
q
q
q
2




j.
nörondaki
hata:




 xkatmanındaki
e

y

y
1
2
2
1
2
j
dj
j
y
y
v
v
2
2




2
2
 
 1
 
q 2 
 
 Nöron

 j için ani


(
e
hata:
j)


 2
2
 
 1


1
2
 ym 
vm 
vk  l  y k 
 xnq 
 xnToplam

ani hata: ( q ) 1
 
(e qj ) 2
2 j 1

Ortalama karesel hata:
yl
 ort
1

p
p

q 1
(q)
ydl
 y1 yddq11  y11  e1q 
  y q  y   q 
e2 
22 

 y2  dd 22

 


 
  q 
  q
 ylydldl  yll  el 
Eğiticili Öğrenme
Amaç Ölçütü
Toplam ani hata:
(q)
1

2
l

(e qj ) 2
j 1
veya
Ortalama karesel hata:
 ort
1

p
p

q 1
olan bir eniyileme problemi
 
min 
wij R
(q)
( k 1)
Öğrenme kuralı: w ji
 1
 min 
wij R 2


(e ) 

j 1
l

(k )

E
 w(jik )   ( k )
w ji
q 2
j
(q)
1
E
2
l

1
ej 
2
j 1
2
 y
l
j 1
dj
 yj
ç

e

y

v
E
E j
j
j

wçji e j y j v çj wçji
 
2
1

2


 yd   
 j 
j 1 

l
r

i 1

w y  


2
ç ç 1
ji i
E
ç
ç 1


e
(

1
)

(
v
)
y
j
j
i
wçji
  çj
Yerel gradyen
1ç  e1   1 (v1ç )
 ç    1 ç 
 2  ˆ e2    (v2 )
    

 ç    1 ç 
 l  el   (vl )
h11
x1
y11
1
2
h
x2
y1
2
h12
h1ç
2
2
ç
2
h
h
e1
y1
yd 1
y2
e2
yd 2
1
hm
xn
1
y1
m
hk2
hlç
1
yl
el
1
ydl
E
w (k  1)  w (k )   ç  wçji (k )   çj (k ) yiç 1 (k )
11 
 12  w ji k
 1ç 
 yd 1  y1  e1 
ç11 
 ç21 
E
 yç2  y   
ç 1  ç 
ç 1
w
(
k

1
)

w
(
k
)



w
(
k
)


(
k
)
yi d 2 (k ) 2  e2 
ji 2 
ji  2 
j
ç 1

ji2 

w ji
k

  
 
 
 

  
 1
 2
 ç
 ydl  yl  el 

E



w





2
2
2
2
1
 jil(k  1)  w ji l(k)  
l j(k ) yi (k )

w
(
k
)

ji
w2ji
ç
ji
ç
ji
k
E
w (k  1)  w (k )   1
w ji
1
ji
 w1ji (k )   1j (k ) xi (k )
1
ji
k
Download