İlk Yapay Sinir Ağları Dr. Hidayet htakci@gmail.com http://htakci.sucati.org
Tek katmanlı algılayıcılar (TKA) Perceptrons (Rosenblat) ADALINE/MADALINE (Widrow and Hoff) 2
Perseptron eptronlar Basit bir perseptron Yapı: Eşik fonksiyonu tabanlı çalışır. w i,(i = 1 n) ağırlıkları ile n tane giriş düğümü Sınıflandırma problemlerinin çözümünde kullanılır çıkış değerinin 0 veya 1 değeri alıp almamasına bağlı olarak Örnek: giriş örüntüleri: (x 1, x 2 ) Giriş örüntülerinin iki grubu (0, 0) (0, 1) (1, 0) (-1, -1) (2.1, 0) (0, -2.5) (1.6, -1.6) x 1 -x 2 = 2şartı sağlanmak üzere (x 1, x 2 ) düzlemi bir çizgi ile ayrılabilir w 1 = 1, w 2 = -1, threshold = 2 (w 0 =-2) ile bir perseptron tarafından sınıflandırma yapılabilir. 3
Perseptron eptronlar (-1, -1) (1.6, - 1.6) Bir x 0 düğümü, eşiğin yerine getirilmesi için kullanılıyor Sabit çıktı 1 (Yapay sinir ağı tasarımında genel bir pratik) w 0 ağırlığı = - threshold 4
Perseptron eptronlar Doğrusal ayrılabilirlik Eğer (x 1, x 2 ) düzleminde bir hat varsa iki sınıfa ait iki boyutlu örüntülerin (x 1, x 2 ) bir kümesi doğrusal olarak ayrılabilir. w 0 + w 1 x 1 + w 2 x 2 = 0 Bir sınıftan diğerine bütün örüntüleri ayır Bir perceptron; Ağırlıkları (w 0, w 1, w 2 ) ve girişleri (x 0 = 1, x 1, x 2 ) olan üç girişi ile inşa edilebilir. n boyutlu örüntüler (x 1,, x n ) Düzlem w 0 + w 1 x 1 + w 2 x 2 + + w n x n = 0 uzayı iki parçaya bölüyor Örnek örüntülerin bir kümesinden ağırlıkları elde edebilir miyiz? Eğer problem doğrusal olarak ayrılabilir ise o zaman EVET (perceptron öğrenimi ile) 5
6 Doğrusal olarak ayrılabilir sınıfların örnekleri - Mantıksal AND fonksiyonu örüntüler (bipolar) karar sınırı x1 x2 output w1 = 1-1 -1-1 w2 = 1-1 +1-1 w0 =-1 +1-1 -1 +1 +1 +1-1 + x1 + x2 = 0 - Mantıksal OR fonksiyonu örüntüler (bipolar) karar sınırı x1 x2 output w1 = 1-1 -1-1 w2 = 1-1 +1 +1 w0 = 1 +1-1 +1 +1 +1 +1 1 + x1 + x2 = 0 o o x o x:class I (output =1) o:class II (output=-1) x o x: class I (output = 1) o: class II (output = -1) x x
Perceptron Yapısı x1 x2 xn Bias=1 y w1 wn Gövde Çıktı (Soma) Vektörü [Sinaps] Wn =Wn + LR*Xn*E Tek katmanlı perceptronlar sadece doğrusal problemlerde kullanılır + + - - - - - - - - - - - - + + + + + - - - - - - - + + + + + + + + - - - 7 Ağırlık Vektörü = W Hard-Lim aktivasyon foksiyonu Her girişin ağırlıkları atanıyor g()=đf Σ(wi.xi)>0 then 1 else 0 Çıktı Vektörü başka katmanları besleyebilir
Perceptron Nerelerde Kullanılır? Perceptron doğrusal bir fonksiyonla ayrılabilen bütün fonksiyonlarda kullanılabilir. 8
Terimler Epoch : Olası girdiler için ağırlıkların güncellenme sayısıdır. Error: Ölçülen çıktı değeriyle beklenen değer arasındaki farktır. Örneğin, eğer biz çıktı olarak 0 bekleyip de 1 aldığımızda hata (error) değeri -1 dir. 9
Terimler Target Value, T :Perceptrondan öğrenmesini beklediğimiz değerdir. Örneğin, eğer AND fonksiyonuna [1,1] girdisini verirsek bekleyeceğimiz sonuç 1 dir. Output, O : Perceptron un verdiği çıktıdır. Xi : Neuron a verilen girdi Wi :Xi inci girdinin ağırlık değeri 10 LR : Learning rate. Bir perceptron un hedefe varması için gereken adım büyüklüğü.
Perseptron Öğrenmesi Epoch hata ürettiği sürece { Girdilere göre çıktıyı hesapla Error = T O If Error > 0 then Wi = Wi + LR * Xi Else Wi = Wi - LR * Xi End If } 11
ADALINE/MADALINE Perseptronlar gibi tek katmanlı algılayıcıdır. Ondan tek farkı öğrenim kuralıdır Perseptronlar perseptron öğrenme kuralını kullanırken ADALINE ağı Delta öğrenim kuralını kulanır. 12
ADALINE/MADALINE ADALINE üniteleri birleşerek MADALINE ünitesini meydana getirir. MADALINE, ADALINE ünitelerinden gelen değerleri mantıksal bir sonuç ünitesinden geçirerek değer elde eder. AND, OR gibi üniteler kullanılır. 13
ADALINE Öğrenmesi Epoch hata ürettiği sürece { Girdilere göre çıktıyı hesapla Error = T O If Error <> 0 then Wi = Wi + LR * Xi*Error End If } 14
XOR Problemi 2 ) 1 0,5 0 - - - --1.5 0- - 0,5 1 1,5 15
XOR? 1 0-1 0 0.5 1 1.5 Đkinci Girdi kümesi için hatalı 16
Çözülemeyen XOR Problemi Tek katmanlı Algılayıcılar XOR problemi gibi doğrusal olarak sınıflandırılamayan problemleri çözümünde başarısızdır.? 17
Çözüm Çok Katmanlı Algılayıcı (ÇKA) 18
Önemli Not Ders notlarının hazırlanmasında; başta Internet olmak üzere çeşitli kaynaklardan faydalanılmış ve bize ait bir son ürün ortaya konmuştur. Faydalandığımız kaynaklar için herkese teşekkürler. Bu kaynağı değiştirmeden kullanacakların ise referans göstererek çalışmamızı kullanmalarında bir sakınca yoktur. Dr. Hidayet GYTE Bilgisayar Müh. Böl. Öğretim Elemanı 19