Şekil 3.9 Hopfield ağının yapısı (Ağırlık sayıları siyah nöron sayıları kırmızı ile gösterilmiştir)



Benzer belgeler
kadar ( i. kaynağın gölge fiyatı kadar) olmalıdır.

uzayında vektörler olarak iç çarpımlarına eşittir. Bu iç çarpım simetrik ve hem w I T s formuna karşılık gelir. Buna p u v u v v v

dir. Bir başka deyişle bir olayın olasılığı, uygun sonuçların sayısının örnek uzaydaki tüm sonuçların sayısına oranıdır.

Makine Öğrenmesi 6. hafta

Korelasyon ve Regresyon

Kİ-KARE TESTLERİ A) Kİ-KARE DAĞILIMI VE ÖZELLİKLERİ

Sıklık Tabloları ve Tek Değişkenli Grafikler

VEKTÖRLER VE VEKTÖREL IŞLEMLER

Kİ-KARE TESTLERİ. şeklinde karesi alındığında, Z i. değerlerinin dağılımı ki-kare dağılımına dönüşür.

MIT Açık Ders Malzemeleri Bu materyallerden alıntı yapmak veya Kullanım Koşulları hakkında bilgi almak için

Sürekli Olasılık Dağılım (Birikimli- Kümülatif)Fonksiyonu. Yrd. Doç. Dr. Tijen ÖVER ÖZÇELİK

Kİ KARE ANALİZİ. Doç. Dr. Mehmet AKSARAYLI Ki-Kare Analizleri

5.3. Tekne Yüzeylerinin Matematiksel Temsili

Deney No: 2. Sıvı Seviye Kontrol Deneyi. SAKARYA ÜNİVERSİTESİ Dijital Kontrol Laboratuvar Deney Föyü Deneyin Amacı

PARÇALI DOĞRUSAL REGRESYON

bir yol oluşturmaktadır. Yine i 2 , de bir yol oluşturmaktadır. Şekil.DT.1. Temel terimlerin incelenmesi için örnek devre

X, R, p, np, c, u ve diğer kontrol diyagramları istatistiksel kalite kontrol diyagramlarının

ÇOKLU REGRESYON MODELİ, ANOVA TABLOSU, MATRİSLERLE REGRESYON ÇÖZÜMLEMESİ,REGRES-YON KATSAYILARININ YORUMU

ALTERNATİF AKIM DEVRE YÖNTEM VE TEOREMLER İLE ÇÖZÜMÜ

( ) 3.1 Özet ve Motivasyon. v = G v v Operasyonel Amplifikatör (Op-Amp) Deneyin Amacı. deney 3

Sistemde kullanılan baralar, klasik anlamda üç ana grupta toplanabilir :

UYUM ĐYĐLĐĞĐ TESTĐ. 2 -n olup. nin dağılımı χ dir ve sd = (k-1-p) dir. Burada k = sınıf sayısı, p = tahmin edilen parametre sayısıdır.

Merkezi Eğilim (Yer) Ölçüleri

BÖLÜM 5 İKİ VEYA DAHA YÜKSEK BOYUTLU RASGELE DEĞİŞKENLER İki Boyutlu Rasgele Değişkenler

Doğrusal Korelasyon ve Regresyon

ZKÜ Mühendislik Fakültesi - Makine Mühendisliği Bölümü ISI VE TERMODİNAMİK LABORATUVARI Sudan Suya Türbülanslı Akış Isı Değiştirgeci Deney Föyü

HAFTA 13. kadın profesörlerin ortalama maaşı E( Y D 1) erkek profesörlerin ortalama maaşı. Kestirim denklemi D : t :

6. NORMAL ALT GRUPLAR

1. KEYNESÇİ PARA TALEBİ TEORİSİ

KISITLI OPTİMİZASYON YAKLAŞTIRMA PROBLEMLERİ

ENERJİ. Isı Enerjisi. Genel Enerji Denklemi. Yrd. Doç. Dr. Atilla EVCİN Afyon Kocatepe Üniversitesi 2007

Cebir Notları. Karmaşık Sayılar Testi z = 1 2i karmaşık sayısının çarpmaya göre tersinin eşleniğinin sanal kısmı kaçtır?

Akköse, Ateş, Adanur. Matris Yöntemleri ile dış etkilerden meydana gelen uç kuvvetlerinin ve uç yerdeğiştirmelerinin belirlenmesinde;

DENEY 4: SERİ VE PARALEL DEVRELER,VOLTAJ VE AKIM BÖLÜCÜ KURALLARI, KIRCHOFF KANUNLARI

Communication Theory

Standart Model (SM) Lagrange Yoğunluğu. u, d, c, s, t, b. e,, Şimdilik nötrinoları kütlesiz Kabul edeceğiz. Kuark çiftlerini gösterelim.

11. z = 1 2i karmaşık sayısının çarpmaya göre tersinin eşleniğinin sanal kısmı kaçtır? 14. eşitliğini sağlayan z karmaşık sayısı kaçtır? 15.

OLASILIĞA GİRİŞ. Biyoistatistik (Ders 7: Olasılık) OLASILIK, TIP ve GÜNLÜK YAŞAMDA KULLANIMI

KARMAŞIK SAYILAR. Derse giriş için tıklayın...

Bilgisayarla Görüye Giriş

Direct Decomposition of A Finitely-Generated Module Over a Principal Ideal Domain *

2 MANYETİZMA. 7. Etki ile mıknatıslanmada mıknatısın 5. K L M F F S N S N S N

Rasgele Değişken Üretme Teknikleri

Fumonic 3 radio net kablosuz duman dedektörü. Kiracılar ve mülk sahipleri için bilgi

Basel II Geçiş Süreci Sıkça Sorulan Sorular

ELEMANLARI DENK KÜMELER OLAN VE HER FARKLI İKİ ELEMANININ SİMETRİK FARKINI İÇEREN KÜMELERİN ELEMAN SAYILARININ EN BÜYÜK DEĞERİ

ELM201 ELEKTRONİK-I DERSİ LABORATUAR FÖYÜ

BAŞKENT ÜNİVERSİTESİ MAKİNE MÜHENDİSLİĞİ BÖLÜMÜ MAK MAKİNE MÜHENDİSLİĞİ LABORATUVARI DENEY - 8

HİPERSTATİK SİSTEMLER

Deprem Tepkisinin Sayısal Metotlar ile Değerlendirilmesi (Newmark-Beta Metodu) Deprem Mühendisliğine Giriş Dersi Doç. Dr.

YER ÖLÇÜLERİ. Yer ölçüleri, verilerin merkezini veya yığılma noktasını belirleyen istatistiklerdir.

4.5. SOĞUTMA KULELERİNİN BOYUTLANDIRILMASI İÇİN BİR ANALIZ

GM-220 MÜH. ÇALIŞ. İSTATİSTİKSEL. Frekans Dağılımı Oluşturma Adımları VERİLERİN SUNUMU. Verilerin Özetlenmesi ve Grafikle Gösterilmesi

DOĞRUSAL HEDEF PROGRAMLAMA İLE BÜTÇELEME. Hazırlayan: Ozan Kocadağlı Danışman: Prof. Dr. Nalan Cinemre

TEMEL DEVRE KAVRAMLARI VE KANUNLARI

ÖRNEK SET 5 - MBM 211 Malzeme Termodinamiği I

PARAMETRİK OLMAYAN HİPOTEZ TESTLERİ Kİ-KARE TESTLERİ

3. Parçaları Arasında Aralık Bulunan Çok Parçalı Basınç Çubukları

ITAP Fizik Olimpiyat Okulu

Türk Dilinin Biçimbilim Yapısından Yararlanarak Türkçe Metinlerin Farklı İmgelere Ayrılarak Kodlanması ve Sıkıştırılması

Tek Yönlü Varyans Analizi (ANOVA)

Fizik 101: Ders 15 Ajanda

JFM316 Elektrik Yöntemler ( Doğru Akım Özdirenç Yöntemi)

TEKNOLOJĐK ARAŞTIRMALAR

ADIYAMAN ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ MATEMATİK ANABİLİM DALI YÜKSEK LİSANS TEZİ SOFT KÜMELER VE BAZI SOFT CEBİRSEL YAPILAR.

SEK Yönteminin Güvenilirliği Sayısal Bir Örnek. Ekonometri 1 Konu 11 Sürüm 2,0 (Ekim 2011)

Manyetizma Testlerinin Çözümleri. Test 1 in Çözümü

İki veri setinin yapısının karşılaştırılması

Elektrik ve Manyetizma

BÖLÜM 1 1.GİRİŞ: İSTATİSTİKSEL DOĞRUSAL MODELLER

Elektrik Akımı. Test 1 in Çözümleri. voltmetresi K-M arasına bağlı olduğu için bu noktalar arasındaki potansiyel farkını ölçer. V 1. = i R KM 1.

2.7 Bezier eğrileri, B-spline eğrileri

Makine Öğrenmesi 10. hafta

Bulanık Mantık ile Hesaplanan Geoid Yüksekliğine Nokta Yüksekliklerinin Etkisi

ARAŞTIRMA MAKALESİ/RESEARCH ARTICLE TEK ÇARPIMSAL SİNİR HÜCRELİ YAPAY SİNİR AĞI MODELİNİN EĞİTİMİ İÇİN ABC VE BP YÖNTEMLERİNİN KARŞILAŞTIRILMASI ÖZ

TEKNOLOJİK ARAŞTIRMALAR

ENDÜSTRİYEL BİR ATIK SUYUN BİYOLOJİK ARITIMI VE ARITIM KİNETİĞİNİN İNCELENMESİ

2009 Kasım. FRENLER GENEL M. Güven KUTAY frenler-genel.doc

Işığın Kırılması Test Çözümleri. Test 1'in Çözümleri 3. K

Sinirsel Bulanık Sistemler İle Trafik Gürültüsünün Tahmini

Adi Diferansiyel Denklemler NÜMERİK ANALİZ. Adi Diferansiyel Denklemler. Adi Diferansiyel Denklemler

A İSTATİSTİK. 4. X kesikli rasgele (random) değişkenin moment çıkaran. C) 4 9 Buna göre, X in beklenen değeri kaçtır?

TEKNOLOJİ, PİYASA REKABETİ VE REFAH

SEK Tahmincilerinin Arzulanan Özellikleri. SEK Tahmincilerinin Arzulanan Özellikleri. Ekonometri 1 Konu 9 Sürüm 2,0 (Ekim 2011)

Bölüm 3. Tanımlayıcı İstatistikler

Asimetri ve Basıklık Ölçüleri Ortalamalara dayanan (Pearson) Kartillere dayanan (Bowley) Momentlere dayanan asimetri ve basıklık ölçüleri

ELEKTRİK DEVRE TEMELLERİ

NİTEL TERCİH MODELLERİ

BİRLEŞİK DALGACIK-SİNİR AĞI MODELİ YAKLAŞIMI İLE ELEKTRİK GÜÇ SİSTEMLERİNDE ARIZA SINIFLAMA

STANDART VE HİBRİD YAPILAR KULLANARAK YAPAY SİNİR AĞLARI İLE İMZA TANIMA

ÇUKUROVA ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ YÜKSEK LİSANS TEZİ

Kİ-KARE VE KOLMOGOROV SMİRNOV UYGUNLUK TESTLERİNİN SİMULASYON İLE ELDE EDİLEN VERİLER ÜZERİNDE KARŞILAŞTIRILMASI

SİLİS DUMANI KATKILI BETONLARIN ÇARPMA DAYANIMININ YAPAY SİNİR AĞI İLE BELİRLENMESİ

ELEKTRİK DEVRELERİ. Devreden geçen akım, Devreden geçen akım, ampermetresi i = 4A okur. ampermetresi ise 2A i gösterir. olur. A 1

III - ELEKTROMAGNETİK GENELLEŞTİRME

İÇME SUYU ŞEBEKELERİNİN GÜVENİLİRLİĞİ

VANTİLATÖR TASARIMI. Şekil 1. Merkezkaç vantilatör tipleri

VEKTÖRLER Koordinat Sistemleri. KONULAR: Koordinat sistemleri Vektör ve skaler nicelikler Bir vektörün bileşenleri Birim vektörler

PROJE SEÇİMİ VE KAYNAK PLANLAMASI İÇİN BİR ALGORİTMA AN ALGORITHM FOR PROJECT SELECTION AND RESOURCE PLANNING

T. C. GÜMÜŞHANE ÜNİVERSİTESİ MÜHENDİSLİK FAKÜLTESİ MAKİNE MÜHENDİSLİĞİ BÖLÜMÜ MAKİNE MÜHENDİSLİĞİ DENEYLER 1 ÇOKLU ISI DEĞİŞTİRİCİSİ DENEYİ

Transkript:

Ger dönüşümlü Recrrent ağlar Ger dönüşümlü ağların temel özellğ; ağın grşne yglanan verler, şlendkten sonra blnan çıktıları tekrar ağa yönlendrmes yan ger beslemel olmasıdır. Ger dönüşümlü ağlar, tam ger dönüşümlü ve ksm ger dönüşümlü olmak üzere kye ayrılır. Brada amaç, bell lmtler sağlayan sonl sayıda çözümden, eldek değer fonksyonn en-yleyecek olanı belrlemektr. B ağ yapısına sahp en y blnen örnekler; Hopfeld ağı, Boltzmann maknası ve Çok katmanl drak ağlarıdır Mlt Layer Perceptron[7,11,13,19]. Tam ger dönüşümlü br ağ olan, Çok katmanl drak ağı daha öncek bölümde açıklanmıştı. Şmd dğer k ağ yapısını nceleyelm. 3.6.1. Hopfeld Ağı Hopfeld ağı ger beslemeye sahp tek katmanlı br ağdır. Şekl 3.9 de görüldüğü gb her br nöronn çıkışı dğer nöronların grşne bağlıdır. Hopfeld ağları; keskl ve sürekl olmak üzere kyeayrılır. Sürekl Hopfeld ağı, keskl ağın yapısı le aynıdır. Tek fark şaret sgnm fonksyon yerne sgmod fonksyonn kllanmasıdır [7,13]. Onn çn sadece brn keskl tp ncelemek yeterldr. Şekl 3.9 Hopfeld ağının yapısı Ağırlık sayıları syah nöron sayıları kırmızı le gösterlmştr Nöronlar arası bağlantının ağırlığı ş şeklde fade edleblr Kronecker Delta: w = m P, pp p1,, p, 3.4 Brada hata MSE le hesaplanır.

Hopfeld ağı ger beslemel br YSA dır. Her nöronn çıkışı dğer her br nöronn grşne bağlıdır. Ağın çalışması; d dt n 1 w o I 3.41 eştlğ le tanımlanır. Brada. nöronn grş I, çıkışı o, nöron çıkışı le nöron arasındak bağlantının ağırlığı w le gösterlmştr. Ağırlıkların düzenlenmes; 1, a Fh a 1veya,a o, degsmez,a 3.42 le verlr. 3.6.2 Boltzmann Maknası Boltzmann maknası yapı olarak Hopfeld ağına benzer, ancak ısıl şlem benzetm kllanılarak çıkış fonksyonna br olasılık bleşen katılmıştır. 1 P E 1 e E / T 3.43 olasılıkla çıkışını 1 yapar. Ağ grş ş şeklde fade edlr; E T o I 3.44 Brada T: 1 den başlayıp a gden soğtma parametresn belrtr. T sıcaklığı sıfır oldğ nokta se keskl Hopfeld ağına karşılık gelr. Ağırlıkların değşm; w P P 3.45 Brada, P lern br grş dğerde çıkış nöronlarına attr. Boltzmann maknasında nöronların çıkışları veya 1 dr.

4. DİĞER ÖĞRENME KURALI TİPLERİ 4.1 Rastlantısal Hebb öğrenme kralı Donald Hebb, hücresel sevyede beynn öğrenmesn şöyle açıklamıştır: Br nöron snr dendrt yolyla gelen br aksonal grş onn br darbe üretmesne neden olr. B yapılan davranışın mükafatı olarak, sonrak aksonal grşlern darbe üretme olasılığı daha fazladır. İler beslemel br ağ yapısına sahp olan Hebb öğrenme kralı doğrsal brleştrc assocator kllanarak k,y k grş/çıkış vektör çftn en ygn olarak eğtmeye yönelktr. Yan, w ağırlık matrsnn en y değernn blnmasını sağlamaktır. Öğrenme kralının eştlğ şöyle fade edlr [3]: w n+1=wn+y k k T 4.1 İterasyona bağlı olarak X k,y k vektör çft çn yen w ağırlık değerler daha y olr. W ağırlık matrsnn başlangıç değernden başlayıp, küçük artmalar le alması gereken son değer; w = y 1 T 1 +y 2 T T 2 +...+y L L 4.2 Brada L; gözlem sayısı grş-çıkışvektör sayısı olarak tanımlanır. Eğer 1, 2,... L vektörler orta normal seler ş şeklde dönüşüm yaptırılır; y k =w k k=1,2,...,l gözlem değerler 4.2 Ortanormal büyüklük çn, + = T = T = =1 eğer = = eğer # 4.3 Eğer k vektörler ortanormal se, doğrsal brleştrc stenldğ gb çalışır. Yan stenen vektör w den elde edlr. X k vektörler ortanormal olmadığı zaman, en y ağırlık vektörünü blmak çn karesel ortalama hatamean sqare error-mse den faydalanılır. B aynı ağın performansını belrtrç L Fw=1/L k1 y k w k 2 4.4 4.2. Adaptf Rezonans Teors ART öğrenme kralı

4.2.1. Genel Tanıtımı Adaptf Rezonans Teors ART mmars, Grossberg tarafından ler sürüldüğü gb, nöronların k katmanı arasında adaptf yayılma ve ger besleme düşüncesne dayanır. ART1 Carpenter ve Grossberg n belrttğ gb grş örneklern kl kümelere ayırmak çn dzayn edlmştr[8]. ART2 se, yne Carpenter ve Grossberg n belrttğ gb analog grd örneğn kümelere ayırmak çn tasarlanmıştır. Daha sonra Carpenter ve Grossberg b k modelnn bleşm olan ART3 gelştrmşlerdr[27]. ART ağı grş vektörlernn bellektek örneklere ygn sınıflandırılmasını yapan öğretcl vektör sınıflandırıcısıdır. Ağ, eğer nöron mevct kümeden çok farklı se grş örneğne ygn yen br nöron olştrablr. Böylece, ART mmars kllanıcıya aynı küme çndek örneklern benzerlk derecelern kontrol etme olanağı tanır Bkz. Şekl 4.1. Şekl 4.1 Bastleştrlmş ART mmars 4.2.2. ART1 öğrenmes ART ağlarında hem hızlı, hem de yavaş öğrenme mümkündür. Brada hızlı öğrenmeden bahsedlecektr. Bnn çn aşağıdan ykarıya ve ykarıdan aşağıya LTM Long Term Memory öğrenme eştlkler aynı temel formda olr, ama aşağıdan ykarıya çzg eştlğ aşağıdak gb çevrlecektr.

dv dt k kf S 1 v h v h k 4.5 dw dt w h 4.6 f S Brada, k ve λ değşmezdr, fs =y F2 çnde nod çn çıkıştır ve h F1 çnde nöron çn çıkıştır. Ykarıdan aşağıya öğrenme eştlğ daha basttr ve şöyle verleblr: 4.6 eştlğnn 4.5'den daha bast olmasının neden k ve λ sabtlernn olmamasıdır. Ykarıda belrtldğ gb onların her ks 4.6 eştlğnde 1'e eşttr. Weber Kann ve Eştlklernn bozlması kralına göre LTM öğrenme aşağıdan ykarı ve ykarıdan aşağıya bellek araştırmasında benzerlk blndğnda, ya da yen yüzey tanınıpta, şlenmemş F2 yapay nöronların kllanılablr oldğnda mümkündür. 4.5 ve 4.6'da belrtlen LTM eştlkler kısa şeklde aşağıdak gb fade edleblr. Kaydetmek gerekeblr k, aşağıdan ykarıya öğrenme F1 çnde I nöron ve F2 çnde nöron aktf olrsa ve fs =y =1 le h =1 se, başka br deyşle,v F1 çnde pasf olrsa ve F2 çnde aktf olrsa çabk bozlarak sıfıra dönüşür. Yan, F2 çnde nöron pasf oldçta öğrenme olmaz. Ykarıdan aşağıya LTM öğrenme çnde, ykarıda bahsedlen 3 seçeneğe ygn benzer eştlk çıkıyor. Böylece, F1 çnde I nöron ve F2 çnde nöron pasf olrsa v üstel olarak sıfıra gder ve F2 çnde nöron pasf olnca hçbr öğrenme gerçekleşmez. F2 yüzeynde düzenl aramanın verml olmasını ve şlenmemş F2 nodlarının onlar yen kategorye seçlnceye kadar grş örneğnden öğrenmemesn sağlamak çn aşağıdan ykarıya ve ykarıdan aşağıya ağırlıkları v ve w y sırasıyla tanıtmak gerekr. Aşağıdan ykarıya ağırlıkların lk değerler şöyle tanımlanablr: dv dt k 1 v v X k X v 1 v 1 m Eğer F1 de nod ve F2 de nod aktf se1 Eğer F1 de I pasf ve F2 de nod aktf se1 Eğer F2 de nod pasf se 4.7 Brada, m-f2 yüzey nodlarının sayısıdır. B, drek erşm eştszlğ olarak da blnr. Ykarıdan aşağıya ağırlıklarının başlangıç değerler geçc öğrenme eştszlğ le tanımlanır: b 1 1 w 1 d 4.8

Brada d-aktf F2 nöron çıkışları çn poztf olarak değşmeyen br çarpandır. Böylece, hızlı öğrenme şlem süresnce ağırlık değer her br öğrenme üçlüğü çn aşağıdak gb kısıtlayıcı asmptotalara yaklaşır [25]: v f X 1 X f X 4.9 w 1 f f X X 4.1 4.2.3. ART1:Temel şlemler B bölümde ART1 ağ mmars ve şlemler ncelenecektr. ART1 n grds kl bnary değerlerdr, b kl değerler karakter resmnn şlenmş bt hartası olablr. ART2 genşletlmş mmarye sahptr ve gerçel reel değerlern grd olarak kllanılmasına olanak tanır. Şekl 4.2 de ART ağının genel yapısı verlmştr. Şekl 4.2 ART ağının genel yapısı ART1 mmars k nöron katmanından olşr: karşılaştırma katmanı ve tanıma katmanı. Sınıflandırma kararı tanıma katmanında br nöronla belrlenr. Karşılaştırma katmanındak nöronlar örnektek ntelklere karşılık veryor. B k katman arasındak lşkler ağırlıklar her k yönde değşeblr, b da k çeşt öğrenme kralına ygndr. Tanıma katmanı nöronları rekabete olanak sağlayan yavaşlatıcı bağlantılara sahptrler. B mekanzma YSA mmars çn önemldr ve byolok sstemlern görsel nöropskolosnden esnlenr. Ağ

mmars kazanç-1, kazanç-2 ve Reset le gösterlen 3 lave modüle sahptr. B özel sstem ler besleme ve ger besleme ntelklerne sahp k katman karşılaştırma ve tanıma nörondan olşr. Sstem grlen örneğn brktrlmş prototplern herhang brsne ygn olp olmadığını denetler. Eğer benzerlk mevct se, rezonans krlr. Yönlendrlen alt sstem tanıma katmanında aşağıdan ykarıya ve ykarıdan aşağıya örneklemeler arasında geçşten sormldr. Tanıma katmanı htyat mekanzması yardımıyla ornal grş vektörü le karşılaştırılan grş vektörünü cevaplandırıyor. İhtyat tanıma katmanı nöron le grş vektörü arasında zaklık ölçümünü sağlar. Eğer htyat başlangıca kadar düşerse, yen kategor olştrlmalı ve grş vektörü b kategorde brktrlmeldr. Böylece tanıma katmanında önceden yer belrlenmş vektör yen grş örneğne ygn yen küme kategorsnde yer alır. Tanıma katmanı kazanan hepsn alır prensb üzere çalışır. Eğer grş vektörü htyat değern geçerse kazanan nöron grş vektörüne en fazla benzeyen grş vektörünün ntelklern belrleyen alanın merkeznde yer alır. Karşılaştırma katmanı F1 aşağıdan ykarı katmandır. Tanıma katmanı- F2 se ykarıdan aşağı katmandır. Karşılaştırma ve Tanıma katmanları Şekl 4.3 ve 4.4 te gösterlmştr. Şekl 4.3 ART ağının karşılaştırma katmanı

Şekl 4.4 ART ağının tanıma katmanı Tanıma katmanının her br nöronn reel değere sahp B ağırlık vektörüne sahptr. B vektör grş örnekler kategors çn örnek brkmn tanımlar. Her br nöron kend ağırlık vektörü B vasıtasıyla karşılaştırma katmanının çıkışını c vektörü örnek alır.tanıma katmanı nöronnn çıktısı şöyledr. net M 1 b c 4.11 r f net 1 for net Otherwse net for all Brada, c ; sayılı karşılaştırma nöronnn çıkışıdır, f adım fonksyondr ve r sonç değer kl adettr. M se karşılaştırma katmanı nöron sayısıdır. Şekl 4.3 te gözüktüğü gb, karşılaştırma katmanının her br nöron 3 grş kabl eder. - X grş örneğnn bleşen - Her br nöron çn aynı grş değerne sahp G1 snyal - Tanıma katmanından gelen ve tanıma katman çıkışı ağırlık toplamı olan ger besleme snyal t kl, ağırlığı vasıtasıyla P ger beslemes şöyle tanımlanır: P N 1 t r for 1,..., M 4.12 Brada r tanıma katmanı sayılı nöronnn çıkışı, N se tanıma katmanı nöron sayısıdır.şekl 4.5 T tanıma katmanı sayılı nöronn ağırlık vektörüdür. C vektörü G r r2... rn 1 2... 1 M 4.13

karşılaştırma katmanı çıkışını tanımlar, C se, sayılı nöronn çıkışıdır. Brada, R vektörü olnca ve X grş vektörünün OR mantıksal bleşen 1 olnca Kazanç1 Gan 1 e eşttr. Aşağıdak C++ kod örneğ Kazanç1 n hesaplanmasını gösterr. nt ARTNET::Gan1{ nt,g; G=Gan2; for =; <M; ++ { f RVect[]==1 retrn ; } /* endfor */ retrn G; } X grş vektörünün OR mantıksal bleşen 1 oldğnda Kazanç 2 de 1 e eşt olr. Aşağıdak C++ kod örneğ Kazanç 2 nn hesaplanmasını gösterr. nt ARTNET: Gan2{ nt ; for =; <M; ++ { f XVect[]==1 retrn 1; } /* endfor */ } Karşılaştırma katmanı k-ç kralını kllanır. B krala göre eğer üç grşten ks 1 e eştse, çıkış 1 e eşttr,aks halde a eşttr. Aşağıdak eştlk b kralı gösterr: c for 1 for G G 1 1 P P 2 2 Aşağıdak C++ kod örneğ k üç kralı le nöron çıkışını gösterr. vod ARTNET::RnCompLayer{ nt,; for =; <M; ++ { =XVect[]+Gan1+PVect[];

f >=2 { CVect[]=1; } else { CVect[]=; } /* endf */ } /* endfor */ } ART şlem safhalara ayrılır. İlk önce, hç br grş yoktr, böylece 4.19 eştlğnden görüldüğü gb, G2 dır. Eğer ağa, Şekl 4.5 ve 4.6 te gösterldğ gb X grş vektörü yglanırsa, ağ tanıma aşamasına geçer. Şekl 4.5 ART şlem Adım 1. G1=1. Grş vektörü karşılaştırma katmanından tanıma katmanına taşınır Şekl 4.6 ART şlem Adım 2. Tanıma katmanının en y nöron kazanan gb seçlr. Kazanan kend ykarıdan aşağıya ağırlığı le karşılaştırma katmanına snyaller gönderr.

Tanıma katmanı ger besleme vektörü R tanıma aşamasının başlangıcında a eşt olr. Tanıma aşamasının lkn drmndan bell oldğ gb karşılaştırma katmanın C çıkış değernden X vektörünün kendsdr. Böylece, Şekl 4.7 dan görüldüğü gb karşılaştırma katmanı X vektörünün tanıma katmanına götürür. Sonra, tanıma katmanının her br nöronn reel değerl B ağırlığı le C karşılaştırma katmanı çıkışı vektörü arasında nokta vermn hesaplar. Kazanan vektör tanıma katmanındak dğer nöronları engelleyerek tetklenr. Böylece, R vektörünün r bast bleşen 1 e eşt olr ve R n dğer tüm bleşenler olr. B karşılaştırma safhasını başlatır. Şekl 4.7 ART şlem Adım 3. Grş vektörü ve tanıma katmanından P vektörü karşılaştırılır. İhtyat kaldırılır. Kazanan vektör Reset mekanzmasıyla engellenr. Başka br deyşle, tanıma safhası sonc her br tanıma katmanı nöron kend prototpn aşağıdan ykarıya brktrlmş ağırlıklar grş örneğ B ve C nn nokta verm le karşılaştırır. Sonçta en y benzer p-date edlr. 4.2.4. ART1 Algortması İlk olarak b ağılığı aynı aşağı değerle başlatılıyor. Brada m; grş vektörünün bleşen b L L 1 m 4.14 sayısı ve L sabttr L2. ART1 mmarsnn algortması şöyledr:

1. X grş örneğ ağa tanıtıldıkta, tanıma katmanı kazananı tüm çıkışların maksmm olarak seçer. net N 1 b c 4.15 Brada, N karşılaştırma katmanı nöron sayısıdır. 2. İhtyat test yglanır. nöronnn htyat ötürmes yalnız aşağıdak şart dahlnde mümkündür net N 1 p 4.16 Brada p htyat başlangıcıdır. 2.a Eğer kazanan testten geçmezse şmdk kazananı şaretle ve başka kazanan seçmek çn adım 1 e dön. 2.b İhtyat testn geçen kazanan blnncaya kadar adım 1 le adım 2.a arasını tekrarla, kazanan blndğnda adım 4 e atla. 3. Eğer hç br nöron testten geçmezse, yen örneğe yan yen nöron olştr. 4. Kazanan nöron çn ler besleme ağırlıklarını belrle. Kazanan nöronn grşne ygn ger besleme ağırlıklarını düzenle. b t c L 1 L C 1 c k 4.17 Aşağıdan ykarı ve ykarıdan aşağı öğrenmey dare eden eştlk brada c karşılaştırma vektörünün sayılı bleşen se Tanıma katmanı kazanan vektörünün ndsdr. 4.3. ART2 model öğrenme ART2 mmars ART1 n düşüncesne Bağlı olarak 2 katmanlı ve ağırlıkların 2 yönde değşeblrlğ esasında krlmştr. ART1 ve ART2 mmarlernn ks de dkkat ve yönelme alt sstemler çerr. ART1 e benzer olarak, ART2 de ART1 dek fonksyonlara sahp karşılaştırma katmanı ve tanıma katmanı çeren yönelme alt sstem çerr.

Şekl 4.8 ART1 n karşılaştırma katmanı yerne çok katmanlı nöron kümes kllanan ART2 mmarsn tasvr eder. Ayrıca yönelme alt sstem reel değerler üzernde şlem yapar. Şekl 4.8 ART2 mmars Şeklde gösterlen fazla kodlar aşağıdak görevler yapmak çn dzayn edlmştr. Gürültü yok etmey hesaba katmak Normalleştrme vs örneğn belrl kısımlarının yoğnlğn artırmak Yenleme mekanzması çn gerekl aşağıdan ykarı ve ykarıdan aşağı snyaller karşılaştırmak Reel değerl very paylaştırmak

ART2 model ART1 den daha karmaşıktır. Bnnla brlkte ART2 n öğrenme kralları daha basttr. ART2 çn benzerlk krter S, ART1 çn X ve C kl değere sahp olmadıkça kllanılamaz. ART2 de grş vektörü le prototp vektörü arasındak açının kosnüsü htyat dv g y p v bottom p dt dw g y p w top down 4.18 dt değern hesaplamada kllanılır. ART2 nn yapısının ART1 e nazaran daha fazla karmaşık olmasına bakmayarak öğrenme şlem yaklaşık olarak aynıdır. LTM öğrenme eştlkler bazen daha basttr. ART çn ykarıdan aşağıya ve aşağıdan ykarıya eştlkler aşağıda verlmştr. Eğer verlen grş çn, STM örneğ LTM örneğnn yeternce kapattığı her hang brkmş F2 nöronna şlem elemanına ygn gelrse, b nöron örneğn, nöron J kazanan olarak seçlr. Öğrenme statüsü başlar. B drmda ykarıdak eştlkler; dv dt J dw dt J d1 d v 1 d J d1 d w 1 d J 4.19 4.2 bçmnde yazılablr. Dğer tüm F2 nöronları çn J, dv /dt= ve dw J /dt= oldğndan b nöronlarda öğrenme gerçekleşmez. Brada, şlenmemş F2 nöronlarına at ağırlıkların lk değerler ve w J kötü sonçlar alındığında tekrar yüklemey önlemek çn sıfıra yakın olmalıdır. Aşağıdan ykarıya LTM çzgs v de sıfıra yakın başlangıç değerde olmalıdır. Eğer v J nn başlangıç değer 1/1-d den büyük seçlerse, deneme sürecnde şlenmemş nöron seçen grş değer şlenmemş nöronlarla değş-tokş edlr. Bnn çn, aşağıdan ykarıya ağırlığın lk değernden daha küçük rastgele sayıda olması gerekr. Daha sonra ART3, ARTMAP ve Fzzy ART gb aşka ART modellerde gelştrlmştr [28-31]. Bnların eğtm performansları benzetm katsayısına bağlıdır. Zra, katsayının küçük olması sınıf sayısını azaltır, büyük olmasıda sınıf sayısını artırır yan daha fazla benzerlk stenr. İstenen benzerlk düzeyne laşılmazsa yen sınıflar olştrlr. 4.4. Rekabete dayalı Kohonen öğrenme kralı Kohonen gb rekabete dayalı kompettf öğrenme krallarının hepsnde ortak özellk br yarışma stratesnn şlem elemanlarının tamamına veya br kısmına yglanmasıdır. B

yarışma sonc kazanan şlem elemanının ağırlıkları değştrlr. Kohonen ağında grş katmanına ek olarak, brbrleryle topolok olarak lşkl nöronlardan olşan tek br çıkış katmanı vardır. Şekl 4.9 da görüldüğü gb, her br grş, çıkış katmanındak her br nörona bağlıdır [9-1]. Ağ, önce rastgele ağırlıklarla çalışmaya başlar. Herhang br grş yglandığında, grş vektörüne Ökld zaklığı en az olan nöron seçlr ve b nörona gelen bağlantı grş ağırlıkları grş vektörüne yaklaşacak şeklde yenlenr. B kazanan nöron le brlkte, onn topolok komşlğnda blnan bell sayıda nörona gelen ağırlıklarda benzer şeklde değştrlr. Şekl 4.9 İk boytl 2-B Kohonen ağı ve topolok komşlk lşks N tane şlem elemanına nörona sahp ve n grşl br ağı ele alalım. Eğer ağırlık vektörünü w se, grş le nöron arasında w ı ağırlığı blnr. Kohonen şlem elemanının yoğnlğ; I =Dw, 4.21 Brada D,v zaklık ölçü fonksyonn gösterr. Örneğn ökld zaklığı çn; D,v= -v=-v 2 1/2 4.22 Yarışmanın şartı şdr: Herbr Kohonen şlem elemanı nöron kend grş yoğnlğn hesapladıktan sonra br yarışma le en küçük grş yoğnlğ olan eleman blnr, ve çıkış şaret Z, =1 alınır. En küçük eleman; Merkezde evet/çevrede hayır Merkezde evet/çevrede hayır veya Eşk değer Threshold vale le blnablr. Yarışma sonc hang W nn X e yakın oldğ belrlenr. B açıklamaya göre Kohonen öğrenme kralı: w w w Z yen esk esk 4.23 Brada, ; grş vektörü, α se, genel olarak le 1 arası değşen br sabttr. Kazana nöronları 1, kaybedenler olarak tanımladığımızda 4.31 eştlğ; w w yen yen 1 w w esk esk kazanan kaybeden 4.24

olr. Daha çok grşe benzesn dye, yarışı kazananın ağırlığı değşmektedr. Yan grş zayının olasılık yoğnlk fonksyonna daha çok benzemek çn taklt edlr. Kohonen ağırlıkları grş etrafında br blt olştracak şeklde dağılır. ÖRNEK: Grş vektörü; X= [.28,.59,.78] olan, Kohonen ağına at ağırlık vektörlernn grşde şöyle olsn; W 1 = [.53,.27,.81], W 2 = [.424,.566,.77], W 3 = [.44,.871,.22] ve α sabtn.3 olsn. Kohonen öğrenme kralına göre hesaplamaları yaparsak; XW 1 =.28.53 +.59.27 +.78.81 =.894 XW 2 =.28.424 +.59.566 +.78.77 =.974 XW 3 =.28.44 +.59.871 +.78.22 =.777 Brada, W 2 kazanandır. B drmda yen değern blmak çn b ağırlık yenden düzenlenrse: W yen =.424 +.3.28.424 =.359, W yen =.566 +.3.59.566 =.573, W yen =.77 +.3.78.77 =.729, Yen W 2 ağırlıkları: W 2 = [.359,.573,.729] olr. Fltreleme Grossberg öğrenme kralı Grossberg öğrenme kralında ağırlıklar br Fltreleme le tayn edlr. Grş şaret br zaman sers olarak düşünülerek, bna lşkn ağırlık, yne zaman sers olarak düşünülen çıkış şaret gözönüne alınarak blnr [21,28]. Volan Flywheel denklemnden faydalanılarak gelştrlen b öğrenme kralında; belrl br grş şaretne lşkn ağırlık, çarpımsal olarak ortalama aktvtey öğrenmeye çalışır. Volan denklem: Zt+1=Zt+ a[it Zt] 4.25 Brada, t ayrk zaman şaret, I grş şaretn belrtr. a, le 1 arasında değşen br sabttr. Aynı denklem ş şeklde de yazılablr: Zt+1 -bzt= ait, b=1-a 4.26 Brada, bz frenleme torkn, ai, grş torkn belrtr. 4.26 eştlğnn çözümü aşağıdak gb verlr: Z t I t 1 s1 b t 1 s t 4.27

Brada, I ; ortalama grş şaretdr. Grossberg b denklem, beynn yarılması stmülü olayına adapte etmştr. Beynn çeştl alanlarından gelen şaretler şartlı yarması, dışarıdan gelen şartsız yarma se y olsn. Bna göre: w yen w esk a esk [ y w ], <a<1 4.28 1, s brm adm fonk. s 4.29, dger Eğer, se, ağırlık değşmez. Ama > se ağırlıklar aşağıdak gb değşr: w yen w esk a[ y w esk ] 4.3 4.6. Kosko ve Klopf öğrenme kralı B öğrenme kralında ağırlık değerler seçlen şlem elemanı, grş şaretnn kends ve türevlerne bağlı olarak saptanır. Sözkons türevlerden dolayı dnamk şartlarda temsl edlr. Kısaca, grş şaretnn türevlernnde öğrenme de kllanılması gerektğn öne süren br kraldır. B öğrenme kralı brbrnden bağımsız olarak Kosko ve Klopf tarafından 198 l yıllarda önerld [27]. Önerdkler resprok şlem elemanı Şekl 4.1 da gösterlmştr. Şekl 4.1 Resprok şlem elemanı B ağ yapısnda, şlem elemanları nöronlar negatf olmayan çıkış şaretlerne sahptr., den önce aktf olr. nn aktf olmasından sonra aktf olr. Kosko-Klopf öğrenme kralı nöron ağlarının eğtlmes sırasında brbr ardı sıra aktf olan şlem elemanları arasında temporal bağlantılar olştrma fkrne dayanır. Şekl 4.1 dak şlem elemanları çn w ağırlığı artırılır. Dğer se w ağırlığı azaltılır. B dz, pek çok defalar tekrar edlr. Eğtme sırasında den ye fazlaca br geçş olmayacaktır. B tür bağlantılara temporal bağlantılar

denr. Temporal bağlantı YSA na zamanla değşen br dnamk sağlar. Temporal aktf olma sırasına göre bağlantılarla YSA ya br zamanlamada öğretmş olrz. Eğer, ağırlıkları eşt olarak arttırırsak w = w ; YSA kendne lerye ve gerye doğr tanıtılan şekle eşt cevap verr. Dolayısıyla eğtme sırasnda zamanlamanın önem kalmaz. ] [ esk esk esk yen c bw aw w w 4.31 Brada, ; brm adım fonksyon, a, b, ve c; poztf sabtlerdr a<<b. ve nn türevl fadeler, ve değşmn zaman oranını verr. asabtnn amacı, artması stenmeyen ağırlıkların sıfıra gtmesn sağlamaktır, öğrenmede br etks yoktr. Eştlk 4.31 dek; ] [ esk bw c term Grossberg denklemn andırır. Şekl 4.11 den de görüleceğ gb sadece br bölgede öğrenme olyor. A bölges Bbölges 1 C bölges Şekl 4.11 X ve X değşmn zamana göre