Çok katmanlı ileri sürümlü YSA da standart geri yayıyım ve momentum geri yayılım algoritmalarının karşılaştırılması. (Eğitim/Hata geri yayılım)

Benzer belgeler
YAPAY SİNİR AĞLARI. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ

Yapay Sinir Ağları. (Artificial Neural Networks) DOÇ. DR. ERSAN KABALCI

T.C. KIRIKKALE ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ YAPAY SİNİR AĞLARI. Doç.Dr. Necaattin BARIŞÇI FİNAL PROJESİ

Geriye Yayılım ve Levenberg Marquardt Algoritmalarının YSA Eğitimlerindeki Başarımlarının Dinamik Sistemler Üzerindeki Başarımı. Mehmet Ali Çavuşlu

ROBOTLARIN YAPAY SİNİR AĞLARI KULLANILARAK DENETİMİ.

Çok Katmanlı Algılayıcı (Multilayer Perceptron) DOÇ. DR. ERSAN KABALCI

ALTIN ORAN ARAMA (GOLDEN SECTION SEARCH) METODU

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

YAPAY SĠNĠR AĞLARININ EKONOMĠK TAHMĠNLERDE KULLANILMASI

TUĞLA VE KİREMİT FABRİKALARININ HAVA KİRLİLİĞİNE KATKILARININ YAPAY SİNİR AĞI MODELLEMESİ İLE ARAŞTIRILMASI

Altın Oran Arama Metodu(Golden Search)

ÇİMENTO BASMA DAYANIMI TAHMİNİ İÇİN YAPAY SİNİR AĞI MODELİ

PARÇACIK SÜRÜ OPTİMİZASYONU BMÜ-579 METASEZGİSEL YÖNTEMLER YRD. DOÇ. DR. İLHAN AYDIN

YÖNEYLEM ARAŞTIRMASI - III

Yapay Sinir Ağları (Artificial Neural Networks)

İleri Diferansiyel Denklemler

İÇİNDEKİLER ÖNSÖZ Bölüm 1 SAYILAR 11 Bölüm 2 KÜMELER 31 Bölüm 3 FONKSİYONLAR

Yrd. Doç. Dr. A. Burak İNNER

MAK 308 MAKİNA DİNAMİĞİ Bahar Dr. Nurdan Bilgin

İleri Diferansiyel Denklemler

Yapay Sinir Ağları. (Artificial Neural Networks) DOÇ. DR. ERSAN KABALCI E S N E K H E S A P L A M A Y Ö N T E M L E R İ - II

KARINCA KOLONİ ALGORİTMASI BMÜ-579 Meta Sezgisel Yöntemler. Yrd. Doç. Dr. İlhan AYDIN Fırat Üniversitesi, Bilgisayar Mühendisliği Bölümü

4. HAFTA BLM323 SAYISAL ANALİZ. Okt. Yasin ORTAKCI.

İleri Diferansiyel Denklemler

İKİ BOYUTLU ÇUBUK SİSTEMLER İÇİN YAPI ANALİZ PROGRAM YAZMA SİSTEMATİĞİ

OPTİMİZASYON TEKNİKLERİ. Kısıtsız Optimizasyon

Aşağı Link MC-CDMA Sistemlerinde Kullanılan PIC Alıcının EM-MAP Tabanlı Olarak İlklendirilmesi

... ROBOTİK VE KODLAMA EĞİTİMİ ÇERÇEVESİNDE ÖĞRETİM YILI BİLİŞİM TEKNOLOJİLERİ DERSİ ÜNİTELENDİRİLMİŞ YILLIK DERS PLANI

SAYISAL ÇÖZÜMLEME. Sayısal Çözümleme

Meslek lisesi ve devlet lisesine giden N tane öğrenci olduğu ve bunların yıllık okul harcamalarına ait verilerin olduğu varsayılsın.

Tek Değişkenli Optimizasyon OPTİMİZASYON. Gradient Tabanlı Yöntemler. Bisection (İkiye Bölme) Yöntemi

B = 2 f ρ. a 2. x A' σ =

2.1 Bir Sınıfı Örneklerinden Öğrenme Vapnik-Chervonenkis (VC) Boyutu Olası Yaklaşık Doğru Öğrenme... 21

Erzurum Teknik Üniversitesi Mühendislik Mimarlık Fakültesi Bilgisayar Programlama Dersi Ödevi Soru

Yıldız Teknik Üniversitesi Fen Bilimleri Enstitüsü Bilgisayar Mühendisliği Bölümü. Şekil Tanıma Final Projesi. Selçuk BAŞAK

k ise bir gerçek sayı olsun. Buna göre aşağıdaki işlemler Matlab da yapılabilir.

YAPAY SİNİR AĞLARI YÖNTEMİ İLE PAFTALARININ SAYISALLAŞTIRILMASI ARTIFICIAL NEURAL NETWORKS METHOD FOR MAP DIGITIZATION

MAT101 MATEMATİK I BÖLÜM 3 FONKSİYONLAR

İSTANBUL TİCARET ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ BİLGİSAYAR SİSTEMLERİ LABORATUARI

DENEYSEL SONUÇLARIN ANALİZİNDE YAPAY SİNİR AĞLARI KULLANIMI VE BETON DAYANIM TESTİ İÇİN BİR UYGULAMA

RASGELE SÜREÇLER İ.Ü. ELEKTRİK ELEKTRONİK MÜHENDİSLİĞİ İLETİŞİM LABORATUVARI ARALIK, 2007

NÜMER IK ANAL IZ. Nuri ÖZALP. Sabit Nokta ve Fonksiyonel Yineleme. Bilimsel Hesaplama Matemati¼gi

2. HAFTA BLM323 SAYISAL ANALİZ. Okt. Yasin ORTAKCI.

Yatırım Analizi ve Portföy Yönetimi 5. Hafta

İlk Yapay Sinir Ağları. Dr. Hidayet Takçı

OTOMATİK KONTROL SİSTEMLERİ. DİNAMİK SİSTEMLERİN MODELLENMESİ ve ANALİZİ

İleri Diferansiyel Denklemler

Elektromanyetik Dalga Teorisi Ders-3

Yrd. Doç. Dr. A. Burak İNNER

KÜTAHYA İLİNİN YAPAY SİNİR AĞLARI KULLANILARAK ELEKTRİK PUANT YÜK TAHMİNİ

Yüksek Mobiliteli OFDM Sistemleri için Ortak Veri Sezimleme ve Kanal Kestirimi

Kompozit Malzemeler ve Mekaniği. Yrd.Doç.Dr. Akın Ataş

PSM 11 PEM YAKIT HÜCRELERİNİN YAPAY SİNİR AĞLARI İLE MODELLENMESİ

Taş Dolgu Dalgakıranların Yapay Sinir Ağları ile Ön Tasarımı 1

İKİNCİ DERECEDEN BİR BİLİNMEYENLİ DENKLEMLER,, olmak üzere 2. ÜNİTE. İKİNCİ DERECEDEN DENKLEMLER, EŞİTSİZLİKLER ve FONKSİYONLAR

Öğr. Elemanı: Dr. Mustafa Cumhur AKBULUT

EŞANJÖR (ISI DEĞİŞTİRİCİSİ) DENEYİ FÖYÜ

MIT Açık Ders Malzemesi İstatistiksel Mekanik II: Alanların İstatistiksel Fiziği 2008 Bahar

ÖDEV (Vize Dönemi) CEVAPLAR. 1. Ekrana Merhaba Dünya! yazdıran algoritmanın akış diyagramını çiziniz ve sözde kod olarak yazınız.

Kısıtsız Optimizasyon OPTİMİZASYON Kısıtsız Optimizasyon

Ege Üniversitesi Elektrik Elektronik Mühendisliği Bölümü Kontrol Sistemleri II Dersi

DERS BİLGİLERİ Ders Kodu Yarıyıl T+U Saat Kredi AKTS Çok Değişkenli İstatistik EKO428 Bahar Ön Koşul Dersin Dili

DENEY 3: DTMF İŞARETLERİN ÜRETİLMESİ VE ALGILANMASI

RÜZGAR TÜRBİNLERİNİN KANAT AÇILARININ YAPAY SİNİR AĞI TABANLI DENETİMİ

ELE 371 SİNYALLER VE SİSTEMLER PROJE 1 - RAPOR

İSTANBUL TİCARET ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ BİLGİSAYAR SİSTEMLERİ LABORATUVARI LİNEER KRİPTANALİZ

Uzaktan Algılama Teknolojileri

ELKE315-ELKH315 Introduction to Control Systems FINAL January 2, 2016 Time required: 1.5 Hours

Çok Katmanlı Algılayıcılar. Dr. Hidayet Takçı

Analog Alçak Geçiren Filtre Karakteristikleri

Hızlı Düzey Küme Yöntemine Bağlı Retinal Damar Bölütlemesi. Bekir DİZDAROĞLU. KTÜ Bilgisayar Mühendisliği Bölümü

İş Zekası. Hafta 6 Kestirimci Modelleme Teknikleri. Yrd. Doç. Dr. H. İbrahim CEBECİ

Zeki Optimizasyon Teknikleri

SIMÜLASYON DERS SORUMLUSU: DOÇ. DR. SAADETTIN ERHAN KESEN. Ders No:5 Rassal Değişken Üretimi

ALGORİTMA ANALİZİ. Cumhuriyet Üniversitesi Bilgisayar Mühendisliği Bölümü

Bulanık Mantık Bilgisayar Mühendisliği Bölümü Arasınav - 11 Nisan 2014 Süre: 1 Saat 30 Dakika

SİNYALLER VE SİSTEMLERİN MATLAB YARDIMIYLA BENZETİMİ

NÜMER IK ANAL IZ. Nuri ÖZALP L INEER OLMAYAN DENKLEMLER IN ÇÖZÜMÜ 1 / Bilimsel Hesaplama Matemati¼gi

ÜSTEL DÜZLEŞTİRME YÖNTEMİ

Açı Yöntemi. 1 ql 8. Açı yöntemi olarak adlandırılan denklemlerin oluşturulmasında aşağıda gösterilen işaret kabulü yapılmaktadır.

NÜMER IK ANAL IZ. Nuri ÖZALP MATEMAT IKSEL ÖNB ILG ILER. Bilimsel Hesaplama Matemati¼gi

Sistem Dinamiği. Bölüm 2- Dinamik Cevap ve Laplace Dönüşümü. Doç.Dr. Erhan AKDOĞAN

T.C. YILDIZ TEKNİK ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ İNVERTER KLİMA AKILLI ETKİLEŞİM SİSTEM TASARIMI MURAT TAŞKIRAN

Dairesel Temellerde Taban Gerilmelerinin ve Kesit Zorlarının Hesabı

BAŞKENT ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ BENZER SÜREÇLERDE ÜRETİLEN ÜRÜNLER İÇİN YAPAY ZEKA İLE ZAMAN TAHMİNİ SONER ŞÜKRÜ ALTIN

Çırpan Kanat Aerodinamik Kuvvetlerinin Yapay Sinir Ağları ile Modellenmesi

PENDİK ANADOLU İMAM HATİP LİSESİ EĞİTİM VE ÖĞRETİM YILI 10.SINIF MATEMATİK DERSİ YILLIK PLANI

BSM-767 MAKİNE ÖĞRENMESİ. Doğrusal Ayırıcılar (Linear Discriminants)

ISK116 - Bölüm 1. Grup Teknolojisi

Karaciğerde Oluşan Hastalıkların Tespitinde Makine Öğrenmesi Yöntemlerinin Kullanılması

MİKROŞERİT HAT ENDÜKTANS BÜYÜKLÜĞÜNÜN BİLGİ TABANLI YAPAY SİNİR AĞLARI ile MODELLENMESİ

CEVAP ANAHTARI. Tempo Testi D 2-B 3-A 4-A 5-C 6-B 7-B 8-C 9-B 10-D 11-C 12-D 13-C 14-C

WEB SAYFALARINA İLİŞKİN YAPAY SİNİR AĞLARI İLE SINIFLANDIRMA YÖNTEMİ

Esnek Hesaplamaya Giriş

Duyarlılık analizi, bir doğrusal programlama probleminde belirlenen katsayı değerlerinin

(Mekanik Sistemlerde PID Kontrol Uygulaması - 3) HAVA KÜTLE AKIŞ SİSTEMLERİNDE PID İLE SICAKLIK KONTROLÜ. DENEY SORUMLUSU Arş.Gör.

Rastgele Değişkenlerin Dağılımları. Mühendislikte İstatistik Yöntemler

EME 3117 SİSTEM SİMÜLASYONU. Üçgensel Dağılım. Sürekli Düzgün Dağılım. Sürekli Rassal Değişkenlerin Modellemesinde Kullanılan Dağılımlar

Kümülatif Dağılım Fonksiyonu (Sürekli)

Transkript:

Çok katmanlı ileri sürümlü YSA da standart geri yayıyım ve momentum geri yayılım algoritmalarının karşılaştırılması (Eğitim/Hata geri yayılım) Özetçe Bu çalışmada çok katmanlı ve ileri sürümlü bir YSA da geri hesaplama için iki algoritma yapısı incelenmiş ve aşama aşama bu algoritmaların özellikleri verilmiştir. Çalışma boyunca kullanımının kolaylığından dolayı MATLAB TM programı kullanılmış ve algoritmanın kodları MATLAB TM program dilinde yazılmıştır. 1. Giriş Bu çalışmada özel-veya (EX-OR) işlevini gerçekleyen {,1} yapısında sigmaoidal aktivasyonlu bir YSA nın geri yayılım ile eğitilmesi konusunda iki yöntem incelenmiştir. Yöntemler standart geri yayılım ve momentum geri yayılım algoritmalarıdır. YSA nın başlangıç parametreleri ağa rasgele olarak gösterilmiş ve giriş-çıkış örnekleri ağa rasgele olarak verilmiştir. Tüm çalışma boyunca maliyet fonksiyonu(cost Function) olarak 4 iterasyon öncesine ait hataların karesel ortalaması kullanılmıştır. Maksimum iterasyon sayısı olarak 1000 değeri seçilmiştir. Şekil 1 de incelenen YSA için ağ yapısı gösterilmektedir. X 1 1 11 1 V 1 logsig 11 V 1 logsig 1 X V logsig θ θ Şekil 1 :İncelenen YSA için ağ yapısı

YSA giriş ve çıkış katmanlarından oluşmaktadır ve YSA için gizli katman bulunmamaktadır. Giriş katmanı iki hücreden ve çıkış katmanı da bir hücreden oluşmaktadır. Tüm YSA için kullanılacak giriş parametreleri için eşitlikler denklem 1.1-1.5 arasında verilmiştir. Bu eşitliklerde lar kollardaki ağırlık parametrelerini, θ lar her bir katman için sıfırıncı dereceden bağımsız değişkenin katsayısını, X ise hali hazırda ağ girişinde bulunan giriş sinyalini göstermektedir. 11 1 = (denklem.1.1) 1 X [ 11 1] 1X = (denklem.1.) θ1 θ = (denklem1.3) θ [ θ ] θ = 1 (denklem.1.4) X = [ X 1 X ] (denklem.1.5) 1.1 Çok Katmanlı YSA İçin İleri Hesaplama Çok katmanlı YSA da bir hücre için çıkış değerinin bulunması temel olarak üç aşamadan oluşmaktadır. İlk aşama olarak hücrelere giriş yapan kollardaki sinyaller ile bu sinyallerin yol aldığı kollardaki ağırlık katsayıları çarpılarak bir değer elde edilmektedir. İkinci aşama olarak elde edilen bu değer bir sabit sayı ile toplanarak sıfırıncı dereceden bağımsız değişkenin katsayısı denkleme dahil edilmektedir. Bu aşamada elde edilen değer V sembolü ile gösterilmektedir. Son aşama olarak ise elde edilen bu değerler toplamı aktivasyon fonksiyonu adı verilen belirli bir fonksiyondan geçirilerek hücre çıkışı elde edilmektedir. Son aşama ile elde edilen değer Y sembolü ile gösterilmektedir. Genel olarak sinüs ve kosinüs fonksiyonları elde etme kolaylığından dolayı sıkça tercih edilmektedir bununla beraber bu çalışma boyunca sigmaoidal bir aktivasyon fonksiyonunun kullanılması uygun görülmüştür. Çalışma boyunca kullanılan ve ileri hesaplama için gerekli olan eşitlikler denklem 1.6 1.11 arasında verilmektedir. Denklemlerde kullanılan Ψ o hücre için kullanılan aktivasyon fonksiyonunu göstermektedir. T T [ X +θ ] V = (denklem.1.6) T 11 1 T θ1 V = [ X 1 X ] + (denklem.1.7) 1 θ X V V T [ +θ ] = Y T [ ] + θ ] 1 1 (denklem.1.8) = 11 Y (denklem.1.9) X Y Ψ V ( ) = (denklem.1.10) Y Ψ V ( ) = (denklem.1.11)

1.. Çok Katmanlı YSA İçin Standart Geri Yayılım Algoritması Çok katmanlı YSA da ileri hesaplama yöntemi ile bir tek iterasyon için bir YSA çıkışı elde edilmektedir. İleri hesaplama boyunca sistem parametreleri ile ilgili herhangi bir güncelleme ya da değiştirme yapılmamaktadır. Fakat sabit,hiç değişmeyen, başlangıç değerleri ile eğitilen bir ağın tüm olası giriş değerleri için makul sonuçlar verememesi gerçeği bulunmaktadır. Dolayısı ile yolların ağırlık katsayılarının güncellenmesi ile bu tekdüze ağ yapısından uzaklaşılmaktadır. YSA için geri hesaplama aşamasında bahsi geçen bu nedenlerden dolayı belirli kurallara bağlı kalınarak parametre güncellemesi yapılmaktadır. Geri besleme için önerilen akış şeması şekil de verilmiştir. Çalışma boyunca kullanılan ve geri hesaplama için gerekli olan eşitlikler denklem 1.1 1.18 arasında verilmektedir. Bu denklemlerde Y a sistem çıkışını, Y d istenen sitem çıkışını göstermektedir. e (n) Y d ile Y a arasındaki mutlak olmayan fark değerini belirtmektedir. ε (n) son dört iterasyon için karesel ortalama hatayı vermektedir. ε (n) değeri sayesinde ağ yapısı çıkışındaki hata, belirli bir eşik değerindeki hata seviyesinden aşağıya düştüğü zaman sistemin eğitilmiş olduğu sonucuna varılmaktadır. δ lar ilgili katman için gradyent sinyallerini göstermektedir. ağırlık parametrelerinin güncellenme miktarını saklamaktadır. Öğrenme katsayısı olarak isimlirilen η ise parametresinin oluşturulması sırasında kullanılmaktadır ve parametresinin güncelleme değeri için bir sınırlayıcı görevi görmektedir. Y a = Y (denklem.1.1) e( n) = Y d Y a (denklem.1.13) ( e( n) + e( n 1) + e( n ) + e( n 3) ) ε ( n) = (denklem.1.14) 4 ( ) 1 δ = e( n). Ψ V (denklem.1.15) = η. δ ( n). yi ( n) (denklem.1.16) j δ θ = + (denklem.1.17) T ( V )[. w * δ ] 1 = Ψ (denklem.1.18) ı Ψ ( V ) θ ı Ψ ( V ) δ δ Şekil :İncelenen YSA için geri besleme

1..1 Standart Geriye Yayılım Algoritması İçin Yazılan Program Kodları clc; clear all; close all; DUYARLILIK=0.00001; %1=[-0.88 0.05 ; -0.0 0.08] %=[0.07 ; -0.06] %TETA1=[0 ; 0] %TETA=[0] 1=rand/10; % Giriş katmanı için rastgele ağırlık parametreleri =rand(,1)/100; % Çıkış katmanı için rastgele ağırlık parametreleri TETA1=rand(,1)/100; % Giriş katmanı için rastgele sabit sayılar TETA=rand/100; % Çıkış katmanı için rastgele sabit sayılar GIRISLER=[1 1 ; 0 0 ; 0 1 ; 1 0]; % İkili sayı fırmatında giriş değerleri YDLER=[0 0 1 1]; % İkili sayı fırmatındaki bu giriş değerli için arzu edilen çıkış değerleri NU=1; % Öğrenme katsayısı i=1; while( i<1000 ) % Toplamda 50 tur (epoch) için for sayi=1:1:4 V1=1'*GIRISLER(sayi,:)'+TETA1; % Formüllere uygun olarak gerekli denklemler % işleniyor ve sonuçlar elde ediliyor Y1=logsig(V1); V='*Y1+TETA; Y=logsig(V); Ya=Y; e(i)=ydler(sayi)-ya; if(i>=4) EPSILON(i)=(e(i)^+e(i-1)^+e(i-)^+e(i-3)^)/4; % Son dört iterasyon için hataların karesel ortalama değeri elde ediliyor. plot(epsilon); % Her aşama için bulunan hata değerleri ve karesel ortalama hata değerleri ekrana bastırılıyor. delta=e(i)*logsig(1-logsig(v)); % Geri hesaplama için delta değerleri bulunuyor deltaw=nu*delta*y1; yeni_=+deltaw; % ve bulunan bu delta değerleri yardımıyla yeni ağırlık % katsayıları belirleniyor. delta1=logsig(1-logsig(v1)).*(delta*); deltaw1=nu.*(delta1*girisler(sayi,:)); yeni_1=1+deltaw1; 1=yeni_1; % Bulunan yeni ağırlık katsayıları güncelleniyor. =yeni_; i=i+1; 1.3. Çok Katmanlı YSA İçin Momentum Geri Yayılım Algoritması Çok katmanlı YSA da bir başka geri yayılım yöntemi olan Momentum geri yayılım algoritması aslında işleyiş bakımından standart geriye yayılım algoritmasından çok büyük farklılıklar barındırmamaktadır. Standart geri yayılım algoritmasına ek olarak ağırlık katsayılarının güncellenebilmesi için alfa (α) ve beta (β) gibi iki değere gereksinim duyulmaktadır. Algoritmayı standart geri yayılımdan ayıran en önemli özellik ise ağırlık katsayısı güncellemesi yapılırken iki iterasyon öncesine ait ağırlık katsayısı değerlerinin de kullanılmasıdır. Momentum geri yayılım algoritması için güncelleme eşitlikleri denklem 1.19 1.0 arasında verilmiştir. ( n 1) + bδ ( n ) = η. δ ( n). yi ( n) + αδ (denklem.1.19) j alfa (α) ve beta (β) : Sabit reel sayılar (denklem.1.0)

1.3.1 Momentum Geriye Yayılım Algoritması İçin Yazılan Program Kodları clc; clear all; close all; DUYARLILIK=0.00001; 1=[-0.88 0.05 ; -0.0 0.08] =[0.07 ; -0.06] TETA1=[0 ; 0] TETA=[0] % 1=rand/10; % Giriş katmanı için rastgele ağırlık parametreleri % =rand(,1)/100; % Çıkış katmanı için rastgele ağırlık parametreleri % TETA1=rand(,1)/100; % Giriş katmanı için rastgele sabit sayılar % TETA=rand/100; % Çıkış katmanı için rastgele sabit sayılar GIRISLER=[1 1 ; 0 0 ; 0 1 ; 1 0]; % İkili sayı fırmatında giriş değerleri YDLER=[0 0 1 1]; % İkili sayı fırmatındaki bu giriş değerli için arzu edilen çıkış değerleri NU=1; % Öğrenme katsayısı i=1; beta=0.1; % Momentum geri yayılımın tipik özelliği olan alfa ve beta katsayıları alfa=1; while( i<1000 ) for sayi=1:1:4 V1=1'*GIRISLER(sayi,:)'+TETA1; Y1=logsig(V1); V='*Y1+TETA; Y=logsig(V); Ya=Y; e(i)=ydler(sayi)-ya; if(i>=4) EPSILON(i)=(e(i)^+e(i-1)^+e(i-)^+e(i-3)^)/4; % Son dört iterasyon için hataların karesel ortalama değeri elde ediliyor. plot(epsilon); % Her aşama için bulunan hata değerleri ve karesel ortalama hata değerleri ekrana bastırılıyor. delta=e(i)*logsig(1-logsig(v)); deltaw=nu*delta*y1; yeni_=+deltaw; delta1=logsig(1-logsig(v1)).*(delta*); deltaw1=nu.*(delta1*girisler(sayi,:)); yeni_1=1+deltaw1; if( i> ) % Momentum geri yayılım kullanılarak ağırlık parametreleri güncelleniyor 1=deltaw1 + alfa*1_sakla(:,:,i-1) + beta*1_sakla(:,:,i-); =deltaw + alfa*_sakla(:,:,i-1) + beta*_sakla(:,:,i-); 1_SAKLA(:,:,i)=1; _SAKLA(:,:,i)=; else 1=yeni_1; =yeni_; 1_SAKLA(:,:,i)=1; _SAKLA(:,:,i)=; i=i+1;

. Sonuçlar Çok katmanlı YSA da geri yayılım kullanılarak ağın makul parametreler ile çalışması sağlanmaktadır. Böylece başlangıçta uygun olmayan değişken değerleri geri yayılım algoritması sayesinde kolayca makul değerlere çekilebilmektedir. Standart Geri Yayılım ve Momentum Geri Yayılım Algoritmaları ile elde edilen hata grafikleri Şekil.3 te verilmektedir. Grafikten Momentum geri yayılım algoritmasının başarımının standart geri yayılım algoritmasına göre daha iyi olduğu söylenebilmektedir. Fakat bununla beraber momentum geri yayılımda herhangi bir iterasyon aşamasında hatalı bir güncelleme yapılırsa, sistem boyunca bu hatanın etkisi hatalı geri beslemeden dolayı görülmektedir. Şekil 3 :İncelenen YSA için farklı algoritmaların karesel ortalama hata değerleri

Çok katmanlı ileri sürümlü YSA da standart geri yayıyım ve momentum geri yayılım algoritmalarının karşılaştırılması (Eğitim/Hata geri yayılım)