Yapay Sinir Ağları (Artificial Neural Networks)

Ebat: px
Şu sayfadan göstermeyi başlat:

Download "Yapay Sinir Ağları (Artificial Neural Networks)"

Transkript

1 Yapay Sinir Ağları (Artificial Neural Networks)

2 Yapay Sinir Ağları (Artificial Neural Networks) Yapay Sinir Ağları (YSA) genelde doğrusal olmayanolaylarımodellememetodudur. Bir kuralı veya algoritması olmayan problemlerin çözümünde kullanılan sistemlerdir. Yapay Sinir Ağları proses elemanları ve bağlantılardan oluşur. Verilen girdi setine karşılık çıktı seti verir. En temel görevi: Öğrenme yolu ile ilk kez karşılaşılan problemler karşısında yeni bilgiler türetmektir.

3 Yapay Sinir Ağları (Artificial Neural Networks) Yapay Sinir Ağları ile başından itibaren doğrusal olmayan modelleri oluşturmak için geliştirilmiştir. Genel durumda, doğrusal olmayan modellerin parametrelerini bulmak son derecede zordur, ama YSA lar için verimli algoritmalar geliştirilmiştir. YSA bugünkü en güçlü ve en esnek makine öğrenme yaklaşımıdır.

4 Yapay Sinir Ağları (Artificial Neural Networks) Yapay sinir ağları, insan beyninin özelliklerinden olan öğrenme yolu ile yeni bilgiler türetebilme, yeni bilgiler oluşturabilme ve keşfedebilme gibi yetenekleri herhangi bir yardım almadan otomatik olarak gerçekleştirmek amacı ile geliştirilmişlerdir.

5 Yapay Sinir Ağları (Artificial Neural Networks) YSA Özellikleri : Doğrusal olmama, Öğrenme, Genelleme, Uyarlanabilirlik, Hata toleransı, Donanım ve hız, Analiz ve tasarım kolaylığı

6 YSA Uygulama Alanları : Yapay Sinir Ağları (Artificial Neural Networks) Endüstriyel uygulamalar Finans uygulamaları Askeri ve Savunma uygulamaları Tıp ve Sağlık uygulamaları Mühendislik uygulamaları Robotbilim Görüntü İşleme

7 YSA uygulamaları : konuşma tanıma karakter tanıma yapay görme robot navigasyonu otomatik sürme vb. Yapay Sinir Ağları (Artificial Neural Networks)

8 Yapay Sinir Ağları (Artificial Neural Networks) Yapay Sinir Ağları Eğiticili Öğrenme metodunu kullanır (Supervised Learning)

9 Yapay Sinir Ağları (Artificial Neural Networks) YSA nin tarihi 1960 yıllarda başladı. YSA başlangıcı beyin bilimindeki gelişmelere bağlıydı. Beyin, bizim bilişsel işlevlerimiz için temel araçtır (biliş, düşünme, soyut düşünme, duygu) Beyin, özel biyolojik nöron hücrelerinden oluşmuştur. Beyindeki nöronlar yüksek derecede birbirlerine bağlıdır. Temel elektriksel seviyede, nöronlar lineer toplama cihazlarıdır.

10 Biyolojik Sinir Hücresi (Nöron) Sinir Hücreleri (nöron), sinir sisteminin temel işlem elemanıdır. Nöronun axon, dentrite, synapse ve soma olma üzere dört önemli bölümü bulunmaktadır. İnsan beyninde yaklaşık 10 milyar sinir hücresi ve 60 trilyon synapse bulunmaktadır. Dendritler : alıcılar Soma : nöron hücresi gövdesi (giriş sinyalleri toplanır) Axonlar : verici Synapse : iletim noktası

11 Biyolojik Sinir Hücresi (Nöron) Biyolojik nöronlarda birçok giriş (dendritler) ve bir çıkış (axson) mevcuttur. Dentritlerin görevi hücreye girdilerin sağlanmasıdır. Axon ise nöron çıktısını göndermeye yarayan uzantıdır. Bir hücrenin tek bir axon uzantısı bulunur. Ancak bu axon uzantıdan çıkan çok sayıda uzantı ve bunların ucunda synapstik bağlantılar bulunur.

12 Biyolojik Sinir Hücresi (Nöron) Synapslar, sinir hücrelerindeki axonlarının, diğer sinir hücreleri ve/veya onların dentriteleri üzerinde sonlanan özelleşmiş bağlantı noktalarıdır. Bu bağlantı noktalarının görevi axondaki elektriksel iletinin diğer hücrelere aktarılmasıdır. Bu bağlantı noktalarında iletiler elektro-kimyasal süreçlerle diğer hücrelere geçirilir. Synapslar bağlandıkları dentrite veya nöronda bölgesel olarak elektrik kuvvetini pozitif veya negatif yönde etkileyebilme yeteneğine sahiptirler. Böylelikle bir nöronun diğerini etkileyebilmesi söz konusu olmaktadır.

13 Biyolojik Sinir Hücresi (Nöron) Bir nöron, diğer nörondan synapslar aracılığıyla elektriksel sinyallerini alıp dendritlere iletir ve soma üzerinde gelen girdilerin ağırlıklı toplamını yapar. Bir çıktının olup olmayacağı veya çıktının elektriksel olarak yoğunluğu, synapsların etkileri sonucu hücreye gelen tüm girdilerin, toplam değeri tarafından belirlenmektedir.

14 Biyolojik Sinir Hücresi (Nöron) Somaya gelen girdilerin ağırlıklı toplamı axon üzerinde çıktı oluşturacak değere ulaştığında, bu değere "eşik değer" adı verilmektedir ve nöron ateşlendi (fired) olarak ifade edilmektedir. Toplam sinyaline göre, aksonda çıkış olarak ikili elektriksel sinyal oluşturulabilir. Bu sinyal diğer nöronlara girdi olarak uygulanıp orada ikinci sinyali oluşturabilir. Bu şekilde girdiler nöron tarafından değerlendirilerek çıktıya dönüştürülmüş olur.

15 Biyolojik Sinir Hücresi (Nöron) Çalışma Şekli Nöron, diğer nöronlardan gelen uyarıları (elektriksel sinyaller) snapsları üzerinden dentritlerine alır. Bu sırada gelen sinyaller snapslar tarafından güçlendirilir ya da zayıflatılır. Dentritler sinyalleri hücre gövdesine iletirler. Hücre gövdesi gelen sinyalleri birbirlerini kuvvetlendirme ve zayıflatma etkilerine göre işler. Eğer sonuçta sinyaller birbirlerini yeteri kadar kuvvetlendirerek bir eşik değerini aşabilirlerse, axsona sinyal gönderilir ve nöron aktif hale getirilir. Aksi halde, axsona sinyal gönderilmez ve nöron pasif durumda kalır.

16 YSA temel elemanı yapay nöron: McCullogh-Pitts model

17 YSA temel elemanı yapay nöron x 1 Ağırlıklar x 2 Girişler W 1 W 2 Toplama fonksiyonu (net) Σ Aktivasyon Fonksiyonu f(net) net f(net)=çıkış W n W 0 x n bias x 0 = +1 Özel sabit ek giriş genellikle bias denir. Çıktının sıfır olmasını engellemek için +1 yada -1 değeri verilir.

18 YSA temel elemanı yapay nöron Girişler Ağırlıklar Toplama fonksiyonu Aktivasyon fonksiyonu Çıkış

19 YSA temel elemanı yapay nöron Girişler : Yapay sinir hücresine (nöron) dışarıdan verilen bilgilerdir. x = [x 0 x 1 x 2 x 3. x n ] t

20 YSA temel elemanı yapay nöron Ağırlıklar : Yapay sinir hücreleri (nöronlar) arasındaki bağlantıların sayısal değeridir. Bir nöron un üzerine gelen bilginin değerini ve hücre üzerindeki etkisini gösterir. w = [ w 0 w 1 w 2 w 3.. w n ] t

21 YSA temel elemanı yapay nöron Toplama fonksiyonu (net): Nörona gelen net girdinin hesaplanmasını sağlayan fonksiyondur. En yaygın kullanım şekli her girdi değerinin kendi ağırlığıyla çarpılarak toplanmasıdır. net = (w 0.x 0 )+(w 1.x 1 )+(w 2.x 2 )+. (w n.x n )

22 YSA temel elemanı yapay nöron Aktivasyon fonksiyonu (f(net)) : Bu fonksiyon nörona gelen net girdinin işlenmesiyle nöronun bu girdiye karşılık üretileceği çıktıyı belirlemesini sağlar.

23 Aktivasyon Fonksiyonları Yapay nöron modellerinde, çeşitli tipte aktivasyon fonksiyonları kullanılabilir. Aktivasyon fonksiyonları sabit parametreli yada uyarlanabilir parametreli seçilebilir.

24 Aktivasyon Fonksiyonları Unipolar step f(net) 1 f(net) = 1 eğer net > θ = 0 eğer net < θ 0 θ net Bipolar step 1 f(net) f(net) = 1 eğer net > θ = -1 eğer net < θ 0 θ net 1 Step Fonksiyonlar

25 Aktivasyon Fonksiyonları Sigmoid f(net) 1 1 f(net) = exp (-λ.net) 0 net Tanjant Hiperbolik Sigmoid f(net) 1 net f(net) = exp (-λ.net) λ diklik veya eğim katsayısıdır. Genelde 1 alınır.

26 Aktivasyon Fonksiyonları

27 En Yaygın Kullanılan Aktivasyon Fonksiyonları

28 YSA temel elemanı yapay nöron: Çıkış: Çıkış = f(net) = f((w 0.x 0 )+(w 1.x 1 )+(w 2.x 2 )+. (w n.x n ))

29 Basit Algılayıcı (Basic Perceptron) Basit Algılayıcılar (Perceptrons), son derece sınırlı olmalarına karşın en eski sinir ağlarından biridir. Basit Algılayıcı (Perceptron), bir yapay sinir hücresinin birden fazla girdiyi alarak bir çıktı üretmesi prensibine dayanır.

30 Basit Algılayıcı (Basic Perceptron) x 1 Ağırlıklar W 1 x 2 Girişler W 2 Σ f(net)=çıkış x n W n w 0 x 0 =+1 Basit Algılayıcı (Perceptron) / McCulloch-Pitts yapısı

31 Basit Algılayıcı (Basic Perceptron) Nörona verilen girdi x = [x 0 x 1 x 2 x 3 x n ] Ağırlık değerleri w = [ w 0 w 1 w 2 w 3 w n ] olmak üzere; Her nöron 2 temel hesaplama gerçekleştirir: Ağırlıklandırılmış girişlerin toplamı; nn net = xx ii 00 ii ww ii = (w 0.x 0 )+(w 1.x 1 )+(w 2.x 2 ) + (w n.x n ) = Aktivasyon fonksiyonunun uygulanması; f(net) = Çıkış nn f(net) = f ( xx ii 00 ii ww ii ) = f((w 0.x 0 )+(w 1.x 1 )+(w 2.x 2 ) + (w n.x n )) =

32 Basit Algılayıcı Öğrenme Modeli-1 1. Ağa girdi seti ve ona karşılık gelen beklenen çıktılar gösterilir. 2. Ağırlık değerleri başlangıçta rasgele verilir. 3. Nöron ünitesine gelen net girdi hesaplanır. 4. Nöron ünitesinin çıktısı hesaplanır. 5. Beklenen çıktı ile gerçekleşen çıktı aynı ise ağırlıklar değişmez. Eğer beklenen çıktı ile gerçekleşen çıktı farklı ise nöron ünitesine etki eden bütün ağırlıklar değiştirilir. Eğer çıkış beklenenden büyükse azaltılır, küçükse artırılır.

33 Basit Algılayıcı Öğrenme Modeli-1 Ağırlıklar rasgele atanır ve beklenen çıktı ile oluşan çıktıya göre ağırlıklar hesaplanır. Eğer, ağ çıkışı=f(net) = d ise ağırlıklar değiştirilmez. Eğer, ağ çıkışı=f(net) d ve f(net)<d ise ağırlıklar artırılır. w i (t+1) = w(t) + η.x i Eğer, ağ çıkışı=f(net) d ve f(net)>d ise ağırlıklar azaltılır. w i (t+1) = w(t) - η.x i d: beklenen çıktı (önceden bilinen) η : öğrenme katsayısı (0 < η <= 1)

34 Basit Algılayıcı Öğrenme Modeli Basit Algılayıcı Öğrenme Modelinin bir diğer hesaplama yöntemi de şu şekilde ifade edilebilir. Yöntem olarak ikisi de aynıdır.

35 Basit Algılayıcı Öğrenme Modeli-2 (x) x 1 w 1 (w) x 2 w 2 bias x 0 = +1 Σ w 0 net neuron çıkış = f(net) x n w n hata (d f(net) (d) eğitmen Öğrenme oranı (η) nn net = (w 0.x 0 )+(w 1.x 1 )+(w 2.x 2 )+ (w n.x n ) = xx ii 00 ii ww ii = Çıkış = f(net) = f(w t x) = f(w 0.x 0 + w 1 x w n x n ) Ağırlık adaptasyonu w i = η(d-f(net))x i δ = (d-f(net)) w i = ηδx i Yeni ağırlık w i (t+1) = w i (t) + w i

36 Basit Algılayıcı Öğrenme Modeli-2 1)Küçük değerli pozitif bir öğrenme katsayısı seçilir (0 < η <= 1) 2)Ağırlık değerleri w başlangıçta rastgele küçük değerler (0, 1 aralığında veya -1, +1 aralığında) olarak verilir. 3)Ağa eğitim vektörü (girişler) verilir ve yapay nöron ünitesinin çıktısı hesaplanır. Beklenen çıktı ile ağ çıkışı değeri aynı ise ağırlıklar değişmez. 4)Eğer beklenen çıktı ile gerçekleşen ağ çıkış değeri farklı ise yapay nöron a etki eden bütün ağırlıklar değiştirilir. w i (t+1) = w i (t) + η (d f(net)) x i = w i (t) + η δ x i Ağ hatası istenen düzeye ininceye kadar adımlar tekrarlanır. Adaline doğrusal ayrılabilir örüntüler için sonlu adımda eğitilebilir. Eğitim adım sayısı (k), öğrenme oranı (η) ve giriş dizisine bağlıdır. w k+1 = w k + η ( d k f(net) k ) x k

37 Basit Algılayıcı (Basic Perceptron) Basit algılayıcı (Perceptron) doğrusal bir fonksiyonla iki parçaya bölünebilen problemleri çözebilir. Bu problemler örneğin AND, OR, NOT fonksiyonları olabilir.

38 Doğrusal ayrılabilir (Linearly Separable) Doğrusal ayrılabilir Doğrusal ayrılamaz Sınıf Ayıracı : w o + w 1 x 1 + w 2 x 2 = 0 şeklinde tanımlanır.

39 Doğrusal ayrılabilir (Linearly Separable) Sınıf Ayıracı : w o + w 1 x 1 + w 2 x 2 + θ = 0 şeklinde tanımlanır. x 1 = -(w 2 x 2 + w o )/w 1 x 2 = -(w 1 x 1 + w o )/w 2 ( f (X) = WX = 0 ) durumunda iki sınıf birbirinden ayrılmış olur. AMA w 0, w 1, w 2, için uygun değerleri bilmiyoruz. Amaç bu değerleri tespit edip sınıf ayıracı doğrusunun pozisyonunu her iki sınıfı en iyi ayıracak şekilde belirlemektir.

40 Doğrusal Ayrılabilir /Doğrusal Ayrılamaz Sistemler Doğrusal olarak ayrılabilir sistemlerde doğrusal olan (türevi alınamayan) transfer fonksiyonları (step, sign, vs) kullanılır. Doğrusal olarak ayrılamayan sistemlerde doğrusal olmayan (türevi alınabilen) transfer fonksiyonları (sigmoid, tangent hiperbolic vs.) kullanılır.

41 Perceptron-ÖRNEK-1 Girişler x 2 x 1 W 2 W 1 Σ f(net)=çıkış Eğitim seti x1 x2 Sınıf (d) w 0 x 0 = Başlangıç değerleri : Ağırlıklar : w 0 = 0, w 1 = 1, w 2 = 0.5 Öğrenme oranı : η = 0.2 Kullanılacak aktivasyon fonksiyonu f(net) f(net) = 1 eğer net > 0 = 0 eğer net < net Step

42 Perceptron-ÖRNEK-1 w 0 + w 1 x 1 + w 2 x 2 = 0 eşitliğini sağlayan w 0, w 1, w 2 değerlerinin bulunması gerekir.

43 Perceptron-ÖRNEK-1 1. iterasyon x 1 = 1, x 2 = 1 d=1 w 0 =0, w 1 =1, w 2 = 0.5 η=0.2 net= w 0 + w 1 x 1 + w 2 x 2 + = 0 + 1* *1 = 1.5 net > 0 çıkış=f(net)=1 = d olduğundan ağırlıklar değiştirilmez.

44 Perceptron-ÖRNEK-1 2. iterasyon x 1 = 2, x 2 = -2 d=0 w 0 =0, w 1 =1, w 2 = 0.5 η =0.2 net= w 0 + w 1 x 1 + w 2 x 2 + = 0 + 1* *(-2) = 1 net > 0 olduğundan çıkış=f(net)=1 (çıkış=1) (d=0) Beklenen çıkışla ağ çıkışı eşit olmadığı için ağırlıklar değiştirilmeli. (çıkış=1) > (d=0) olduğundan ağırlıklar azaltılmalı. w 0 yeni = w 0 eski - η *b = 0 0.2*1 = -0.2 W 1 yeni = w 1 eski - η *x 1 = 1 0.2*2 = 0.6 W 2 yeni = w 2 eski - η *x 2 = *(-2) = 0.9

45 Perceptron-ÖRNEK-1 2. İterasyon (diğer hesaplama yöntemi ile) x 1 = 2, x 2 = -2 d=0 w 0 =0, w 1 =1, w 2 = 0.5 η =0.2 net= w 0 + w 1 x 1 + w 2 x 2 + = 0 + 1* *(-2) = 1 net > 0 olduğundan çıkış=f(net)=1 (çıkış=1) (d=0) Beklenen çıkışla ağ çıkışı eşit olmadığı için ağırlıklar değiştirilmeli. w i (t+1) = w i (t) + η (d f(net)) x i = wi(t) + η δ x i w 0 yeni = w 0 eski + η*(d-f(net))*b = *(0-1)*1 = -0.2 W 1 yeni = w 1 eski + η*(d-f(net))*x 1 = *(0-1)*2 = 0.6 W 2 yeni = w 2 eski + η*(d-f(net))*x 2 = *(0-1)*(-2) = 0.9

46 Perceptron-ÖRNEK-1 3. iterasyon x 1 = -1, x 2 = -1.5 d=0 w 0 =-0.2, w 1 =0.6, w 2 = 0.9 η =0.2 net= w 0 + w 1 x 1 + w 2 x 2 = (-0.2) + (0.6)*(-1) + 0.9*(-1.5) + = net<0 bu yüzden çıkış=f(net)= 0 (çıkış=0) = (d =0) Beklenen çıkışla ağ çıkışı eşit olduğu için ağırlıklar değiştirilmez.

47 Perceptron-ÖRNEK-1 4. iterasyon x 1 = -2, x 2 = -1 d=0 w 0 =-0.2, w 1 =0.6, w 2 = 0.9 η =0.2 net= w 0 + w 1 x 1 + w 2 x 2 = (-0.2) + 0.6*(-2) + 0.9*(-1) = -2.3 net < 0 bu yüzden çıkış=f(net)=0 (çıkış=0) = (d =0) Beklenen çıkışla ağ çıkışı eşit olduğu için ağırlıklar değiştirilmez.

48 Perceptron-ÖRNEK-1 5. iterasyon x 1 = -2, x 2 = 1 d=1 w 0 =-0.2, w 1 =0.6, w 2 = 0.9 η =0.2 net= w 0 + w 1 x 1 + w 2 x 2 = (-0.2) + 0.6*(-2) + 0.9*1 = -0.5 net < 0 bu yüzden çıkış=f(net)=0 (çıkış=0) (d =1) Beklenen çıkışla ağ çıkışı eşit olmadığı için ağırlıklar değiştirilmeli. (çıkış=0) < (d=1) olduğundan ağırlıklar artırılmalı. w 0 yeni = w 0 eski + η *b = (-0.2) + 0.2*1 = 0 W 1 yeni = w 1 eski + η *x 1 = *(-2) = 0.2 W 2 yeni = w 2 eski + η *x 2 = *(1) = 1.1

49 Perceptron-ÖRNEK-1 5. iterasyon (diğer hesaplama yöntemi ile) x 1 = -2, x 2 = 1 d=1 w 0 =-0.2, w 1 =0.6, w 2 = 0.9 η =0.2 net= w 0 + w 1 x 1 + w 2 x 2 = (-0.2) + 0.6*(-2) + 0.9*1 = -0.5 net < 0 bu yüzden çıkış=f(net)=0 (çıkış=0) (d =1) Beklenen çıkışla ağ çıkışı eşit olmadığı için ağırlıklar değiştirilmeli. w i (t+1) = w i (t) + η (d f(net)) x i = wi(t) + η δ x i w 0 yeni = w 0 eski + η*(d-f(net))*b = (-0.2) + 0.2*(1-0)*1 = 0 W 1 yeni = w 1 eski + η*(d-f(net))*x 1 = *(1-0)*(-2) = 0.2 W 2 yeni = w 2 eski + η*(d-f(net))*x 2 = *(1-0)*1 = 1.1

50 Perceptron-ÖRNEK-1 6. iterasyon x 1 = 1.5, x 2 = -0.5 d=1 w 0 =0, w 1 =0.2, w 2 = 1.1 η =0.2 net= w 0 + w 1 x 1 + w 2 x 2 = (0) + 0.2*(1.5) + 1.1*(-0.5) = net < 0 bu yüzden çıkış=f(net)=0 (çıkış=0) (d =1) Beklenen çıkışla ağ çıkışı eşit olmadığı için ağırlıklar değiştirilmeli. (çıkış=0)<(d=1) olduğundan ağırlıklar artırılmalı. w 0 yeni = w 0 eski + η *b = (0) + 0.2*1 = 0.2 W 1 yeni = w 1 eski + η *x 1 = *(1.5) = 0.5 W 2 yeni = w 2 eski + η *x 2 = *(-0.5) = 1

51 Perceptron-ÖRNEK-1 6. iterasyon (diğer hesaplama yöntemi ile) x 1 = 1.5, x 2 = -0.5 d=1 w 0 =0, w 1 =0.2, w 2 = 1.1 η =0.2 net= w 0 + w 1 x 1 + w 2 x 2 = (0) + 0.2*(1.5) + 1.1*(-0.5) = net < 0 bu yüzden çıkış=f(net)=0 (çıkış=0) (d =1) Beklenen çıkışla ağ çıkışı eşit olmadığı için ağırlıklar değiştirilmeli. w i (t+1) = w i (t) + η (d f(net)) x i = wi(t) + η δ x i w 0 yeni = w 0 eski + η*(d-f(net))*b = *(1-0)*1 = 0.2 W 1 yeni = w 1 eski + η*(d-f(net))*x 1 = *(1-0)*(1.5) = 0.5 W 2 yeni = w 2 eski + η*(d-f(net))*x 2 = *(1-0)*(-0.5) = 1

52 Perceptron-ÖRNEK-1 7. iterasyon 1 epoch tamamlanmıştır. (tüm örneklerin ağa girdi olarak verilip tekrar ilk örneğe dönüldüğü durum epoch olarak adlandırılır) Tekrar 1. örnek ağa girdi olarak verilir. x 1 = 1, x 2 = 1 d=1 w 0 = 0.2, w 1 = 0.5, w 2 = 1 η =0.2 net= w 0 + w 1 x 1 + w 2 x 2 = (0.2) + 0.5*(1) + 1*(1) = 1.7 net > 0 bu yüzden çıkış=f(net)=1 (çıkış=1) = (d =1) Beklenen çıkışla ağ çıkışı eşit olduğu için ağırlıklar değiştirilmez. Bu şekilde tüm örnekler için ağ çıkışı ve beklenen çıkışlar eşit olana kadar iterasyonlara devam edilir, bu durum gerçekleşirse ağ öğrenmeyi tamamlamış olur.

53 Perceptron-ÖRNEK-2 Öğrenme katsayısı η = 1 ve başlangıç ağırlıklarının hepsi sıfır alınacaktır. Bias: +1 Unipolar doğrusal aktivasyon fonksiyonu kullanılacaktır. (θ = 0) (eğer net > 0, çıkış: 1 değilse çıkış: 0) Eğitim Seti > > > > 0 Girişler Hedef Ağırlık Vektorü Net Çıkış W

54 Perceptron-ÖDEV Öğrenme katsayısı η = 0.1 ve başlangıç ağırlıkları w 1 = [ ] t şeklinde ise AND, OR, NAND ve NOR boolean fonksiyonları için ayrı ayrı Perceptron öğrenme sürecini gerçekleştiriniz. Bipolar doğrusal aktivasyon fonksiyonu kullanılacaktır. (θ = 0) x1 W2=0.5 W1=0.5 Σ O f(net) 1 0 θ f(net) = 1 eğer net > θ = -1 eğer net < θ net x2 W0 = X0=1

55 Basit Algılayıcı (Basic Perceptron) Basit algılayıcı modelinin en büyük problemi doğrusal olmayan problemlerin çözülmesinde başarılı olmamasıdır. Basit algılayıcı modelinin diğer problemi ise ağın her iterasyonda ağırlıklarını değiştirdikçe öğrendiklerini unutması olasılığıdır. Bir girdi seti ağırlıkları artırdıkça diğeri azaltmaktadır. Bu sorun çoğunlukla zaman içerisinde ağırlıkların bulunması ile çözülebilmektedir. Fakat eğitim zamanının uzamasına neden olmaktadır.

56 Tek katmanlı algılayıcı (Single layer perceptron) Tek katmanlı bir ağda birçok algılayıcıyı bir araya getirmek hiçbir şeyi değiştirmez. Hepsi bağımsız olarak öğreniyorlar. (Öyleyse XOR hala öğrenilemez.) Ancak, çıktı olarak 0 / 1'den daha fazlasını alabiliriz. İstediğimiz sayıda çıkış alabiliriz. Giriş katmanı Çıkış katmanı

57 ADALINE (Adaptive Linear Element) ADALINE (Adaptive Linear Element) 1960 yılında Widrow ve Marcian Hoff tarafından geliştirilen, en küçük ortalamalı kare (Least Mean Square, LMS) yöntemiyle eğim azaltmayı hedefleyen öğrenme algoritmasıdır. Karesel hatalar toplamının minimum olmasına dayanır. LMS algoritması, ortalama karesel hatayı (Mean Square Error, MSE) en aza indirmeyi sağlar.

58 ADALINE (Adaptive Linear Element) Adaline modeli birçok isimle de anılır The adaline rule

59 ADALINE (Adaptive Linear Element) ADALINE yapısı ile Perceptron birbirine benzerdir. Aradaki fark öğrenme kuralındadır. Tek fark basit algılayıcıda(perceptron) hata hesaplanırken aktivasyon fonksiyonun çıkışı ile beklenen hedef farkı alınırken ADALINE için aktivasyon fonksiyonunun girişi olan net değeri ile beklenen hedef farkı hesaplanır.

60 ADALINE (Adaptive Linear Element) Perceptron ve ADALINE genel olarak tek bir nörondan oluşan ağlardır. Hem ADALINE ağı hem de PERCEPTRON aynı sınırlamaya sahiptirler: sadece doğrusal olarak ayrılabilir problemleri çözebilirler.

61 ADALINE (Adaptive Linear Element) ADALINE Öğrenme kuralı Delta öğrenme kuralının özel bir durumu olarak düşünülebilir. Öğrenme kuralında, beklenen ağ çıkış değeri (d k ) ve nöronun aktivasyon değeri net k =w T x k arasındaki karesel hatayı en aza indirdiğinden, kullanılan nöronların aktivasyon fonksiyonundan bağımsızdır. Öğrenme kuralında, beklenen ağ çıkışı ile nöronun net değeri arasındaki hata oranı hesaplanır ve ona göre hatayı en azlayacak şekilde ağırlıklar değiştirilir.

62 ADALINE (Adaptive Linear Element) x 1 x 2 w k1 w k2 w T x... k Buradaki lineer fonksiyon sadece net değerinin kimlik fonksiyonudur. Girişi ile çıkışı aynıdır. y k = w T k x x n w kn Adaline (Adaptive Linear Element) Widrow [1960] Amaç: y = x = k w T k d k

63 ADALINE (Adaptive Linear Element)

64 Hata beklenen çıktı ile ağ çıktısı arasındaki farktır. δ = k d k δ: hata d: beklenen çıktı o: ağ çıktısı Toplam hata ise; Mean Square Error MSE = w R k = 1 T x T ( w x d k k k 2 ) Ortalama Karesel Hata (Mean Square Error) k: eğitim örnek sayısı Toplam hata istenen düzeye ininceye kadar epoch lar tekrarlanır. Amaç yapay sinir ağı için karesel hatayı en aza indirgemektir.

65 Adaline Öğrenme Algoritması Adaline, minimal hataya yol açan ağırlık vektörünü belirlemek için Gradient Descent kullanır. Gradient Descent, ağ hatası olan E'yi en aza indirmek istiyorsak, ağırlıkları (w) güncellememiz gerektiğini söyler. Ağ hatası : E = R k = 1 T ( w x d k k 2 ) Ağırlık güncelleme : w j E w j - η w Şimdi bu türevi hesaplayalım j E w j?

66 Adaline Öğrenme Algoritması = = R k k T k j j d w w E 1 2 ) ( x w = = R k k T k j k T k d w d 1 ) ( ) ( 2 x w x w = = R k k T j k w δ 1 2 x w k T k d k δ x w = = = = R k m i ki i j k x w w δ = = R k δ k x kj 1 2 = + R k kj k j j x δ η w w 1 2

67 Adaline Öğrenme Algoritması Ağırlıkların güncellenmesi j j j w E η w w - = = R k kj k j x δ w E 1 2 = + R k kj k j j x δ η w w 1 2 Sıklıkla 2'yi ihmal ederiz (yani öğrenme oranını yarıya indiririz) = + R k kj k j j x δ η w w 1 = = R k kj k j x δ η 1 w j j w j w w +

68 Adaline Öğrenme Algoritması (x) x 1 w 1 (w) x 2 w 2 bias x 0 = +1 Σ w 0 net neuron çıkış = o x n w n hata (d - net) (d) eğitmen Öğrenme oranı (η) nn net = (w 0.x 0 )+(w 1.x 1 )+(w 2.x 2 )+ (w n.x n ) = xx ii 00 ii ww ii = Çıkış = f(net) = f(w t x) = f(w 0.x 0 + w 1 x w n x n ) Ağırlık adaptasyonu w i = η(d-net)x i = ηδx i Yeni ağırlık w i (t+1) = w i (t) + w i

69 Adaline Öğrenme Algoritması 1)Küçük değerli pozitif bir öğrenme katsayısı seçilir (0 < η <= 1) 2)Ağırlık değerleri w başlangıçta rastgele küçük değerler (0, 1 aralığında veya -1, +1 aralığında) olarak verilir. 3)Ağa eğitim vektörü (girişler) verilir ve yapay nöron ünitesinin çıktısı hesaplanır. Beklenen çıktı ile ağ çıkışı değeri aynı ise ağırlıklar değişmez. 4)Eğer beklenen çıktı ile gerçekleşen ağ çıkış değeri farklı ise yapay nöron a etki eden bütün ağırlıklar değiştirilir. w i (t+1) = w i (t) + η (d - net) x i = w i (t) + η δ x i Ağ hatası istenen düzeye ininceye kadar adımlar tekrarlanır. Adaline doğrusal ayrılabilir örüntüler için sonlu adımda eğitilebilir. Eğitim adım sayısı (k), öğrenme oranı (η) ve giriş dizisine bağlıdır. w k+1 = w k + η ( d k - o k ) x k

70 ADALINE-ÖDEV-1 Öğrenme katsayısı η = 0.1 Bipolar doğrusal aktivasyon fonksiyonu θ = 0 alınabilir. f(net) θ f(net) = 1 eğer net > θ = -1 eğer net < θ net

71 ADALINE-ÖDEV-2 Öğrenme katsayısı η = 0.1 ve başlangıç ağırlıkları w 1 = [ ] t şeklinde ise aşağıda verilen eğitim veri seti göz önüne alındığında, 1 epoch için Adaline öğrenme sürecini gerçekleştiriniz. Bipolar doğrusal aktivasyon fonksiyonu kullanılacaktır. (θ = 0) Eğitim Veri Seti aşağıdaki gibidir. x1 x2 x3 Sınıf (d)

72 ADALINE-ÖDEV-2 x 1 W 1 =1 net, aktivasyon x 2 x 3 W 2 =-1 W 3 =0 çıkış W 0 =0.5 X 0 = +1 f(net) θ f(net) = 1 eğer net > θ = -1 eğer net < θ net

Yapay Sinir Ağları. (Artificial Neural Networks) DOÇ. DR. ERSAN KABALCI

Yapay Sinir Ağları. (Artificial Neural Networks) DOÇ. DR. ERSAN KABALCI Yapay Sinir Ağları (Artificial Neural Networks) J E O L O J İ M Ü H E N D İ S L İ Ğ İ A. B. D. E S N E K H E S A P L A M A Y Ö N T E M L E R İ - I DOÇ. DR. ERSAN KABALCI Yapay Sinir Ağları Tarihçe Biyolojik

Detaylı

Zeki Optimizasyon Teknikleri

Zeki Optimizasyon Teknikleri Zeki Optimizasyon Teknikleri Yapay Sinir Ağları (Artificial Neural Network) Doç.Dr. M. Ali Akcayol Yapay Sinir Ağları Biyolojik sinir sisteminden esinlenerek ortaya çıkmıştır. İnsan beyninin öğrenme, eski

Detaylı

YAPAY SİNİR AĞLARI. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ

YAPAY SİNİR AĞLARI. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ YAPAY SİNİR AĞLARI Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ İÇERİK Sinir Hücreleri Yapay Sinir Ağları Yapısı Elemanları Çalışması Modelleri Yapılarına Göre Öğrenme Algoritmalarına Göre Avantaj ve

Detaylı

İlk Yapay Sinir Ağları. Dr. Hidayet Takçı

İlk Yapay Sinir Ağları. Dr. Hidayet Takçı İlk Yapay Sinir Ağları Dr. Hidayet htakci@gmail.com http://htakci.sucati.org Tek katmanlı algılayıcılar (TKA) Perceptrons (Rosenblat) ADALINE/MADALINE (Widrow and Hoff) 2 Perseptron eptronlar Basit bir

Detaylı

Yapay Sinir Ağlarına Giriş. Dr. Hidayet Takçı

Yapay Sinir Ağlarına Giriş. Dr. Hidayet Takçı Yapay Sinir Ağlarına Giriş Dr. Hidayet Takçı htakci@gmail.com http://htakci.sucati.org Giriş Neden Yapay Sinir Ağları (YSA) Bazı işler insanlar tarafından kolaylıkla yerine getirilirken mevcut bilgisayarlar

Detaylı

Yapay Sinir Ağları. (Artificial Neural Networks) DOÇ. DR. ERSAN KABALCI E S N E K H E S A P L A M A Y Ö N T E M L E R İ - II

Yapay Sinir Ağları. (Artificial Neural Networks) DOÇ. DR. ERSAN KABALCI E S N E K H E S A P L A M A Y Ö N T E M L E R İ - II Yapay Sinir Ağları (Artificial Neural Networks) J E O L O J İ M Ü H E N D İ S L İ Ğ İ A. B. D. E S N E K H E S A P L A M A Y Ö N T E M L E R İ - II DOÇ. DR. ERSAN KABALCI Yapay Sinir Ağları Tarihçe Biyolojik

Detaylı

İSTANBUL TİCARET ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ BİLGİSAYAR SİSTEMLERİ LABORATUARI

İSTANBUL TİCARET ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ BİLGİSAYAR SİSTEMLERİ LABORATUARI İSTANBUL TİCARET ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ BİLGİSAYAR SİSTEMLERİ LABORATUARI Lineer Ayrılabilen Paternlerin Yapay Sinir Ağı ile Sınıflandırılması 1. Biyolojik Sinirin Yapısı Bilgi işleme

Detaylı

Çok Katmanlı Algılayıcı (Multilayer Perceptron) DOÇ. DR. ERSAN KABALCI

Çok Katmanlı Algılayıcı (Multilayer Perceptron) DOÇ. DR. ERSAN KABALCI Çok Katmanlı Algılayıcı (Multilayer Perceptron) J E O L O J İ M Ü H E N D İ S L İ Ğ İ A. B. D. E S N E K H E S A P L A M A Y Ö N T E M L E R İ - I DOÇ. DR. ERSAN KABALCI Perceptron Rosenblatt (1962): İlk

Detaylı

Esnek Hesaplamaya Giriş

Esnek Hesaplamaya Giriş Esnek Hesaplamaya Giriş J E O L O J İ M Ü H E N D İ S L İ Ğ İ A. B. D. E S N E K H E S A P L A M A Y Ö N T E M L E R İ - I DOÇ. DR. ERSAN KABALCI Esnek Hesaplama Nedir? Esnek hesaplamanın temelinde yatan

Detaylı

NÖRAL SİSTEMLERE GİRİŞ. Ders Notu

NÖRAL SİSTEMLERE GİRİŞ. Ders Notu NÖRAL SİSTEMLERE GİRİŞ Ders Notu 1 1. GİRİŞ... 4 2. ZEKA... 5 3. YAPAY ZEKA... 5 4. YAPAY ZEKA NIN GELİŞİM SÜRECİ... 5 5. YAPAY ZEKANIN AMAÇLARI... 7 6. YSA TESTLERİ... 7 6.1 Turing Testi... 7 6.2 Çin

Detaylı

BSM-767 MAKİNE ÖĞRENMESİ. Doğrusal Ayırıcılar (Linear Discriminants)

BSM-767 MAKİNE ÖĞRENMESİ. Doğrusal Ayırıcılar (Linear Discriminants) BSM-767 MAKİNE ÖĞRENMESİ Doğrusal Ayırıcılar (Linear Discriminants) Yrd. Doç. Dr. Ümit ATİLA umitatila@karabuk.edu.tr http://web.karabuk.edu.tr/umitatilla/ Perceptron Perceptron, bir giriş kümesinin ağırlıklandırılmış

Detaylı

Çok katmanlı ileri sürümlü YSA da standart geri yayıyım ve momentum geri yayılım algoritmalarının karşılaştırılması. (Eğitim/Hata geri yayılım)

Çok katmanlı ileri sürümlü YSA da standart geri yayıyım ve momentum geri yayılım algoritmalarının karşılaştırılması. (Eğitim/Hata geri yayılım) Çok katmanlı ileri sürümlü YSA da standart geri yayıyım ve momentum geri yayılım algoritmalarının karşılaştırılması (Eğitim/Hata geri yayılım) Özetçe Bu çalışmada çok katmanlı ve ileri sürümlü bir YSA

Detaylı

Beynin Anatomik Açıdan İncelenmesi ve Beyin Sisteminin İşleyişi

Beynin Anatomik Açıdan İncelenmesi ve Beyin Sisteminin İşleyişi Beynin Anatomik Açıdan İncelenmesi ve Beyin Sisteminin İşleyişi - Ana Hatlarıyla Merkezi Sinir Sistemi - Sinir Hücrelerinin (Nöronlar) Temel İşleyişi - Hücre Gövdesi, Dendrit, Aksonlar, Sinaptik Ağlar

Detaylı

Suleyman TOSUN

Suleyman TOSUN Suleyman TOSUN suleymantosun@gmail.com 1 2 İnsanların beynin çalışmasını sayısal bilgisayarlar üzerinde taklit etmek istemesi sonucunda yapay sinir ağları ortaya çıkmıştır. Temelde; beynin çalışma yapısı,

Detaylı

Makine Öğrenmesi 6. hafta

Makine Öğrenmesi 6. hafta Makne Öğrenmes 6. hafta Yapay Snr Ağlarına Grş Tek katmanlı YSA lar Algılayıcı (Perceptron) Aalne (Aaptve Lnear Elemen Byolojk Snr Hücres Byolojk snrler ört ana bölümen oluşmaktaır. Bunlar: Denrt, Akson,

Detaylı

ROBOTLARIN YAPAY SİNİR AĞLARI KULLANILARAK DENETİMİ.

ROBOTLARIN YAPAY SİNİR AĞLARI KULLANILARAK DENETİMİ. ROBOTLARIN YAPAY SİNİR AĞLARI KULLANILARAK DENETİMİ Murat ŞEKER 1 Ahmet BERKAY 1 EMurat ESİN 1 ArşGör,Gebze Yüksek Teknoloji Enstitüsü, Bilgisayar MühBöl 41400 Gebze mseker@bilmuhgyteedutr aberkay@bilmuhgyteedutr,

Detaylı

İLERİ ALGORİTMA ANALİZİ-5 YAPAY SİNİR AĞLARI

İLERİ ALGORİTMA ANALİZİ-5 YAPAY SİNİR AĞLARI İLERİ LGORİTM NLİZİ-5. Giriş YPY SİNİR ĞLRI Yapay sinir ağları (YS), insan beyninin özelliklerinden olan öğrenme yolu ile yeni bilgiler türetebilme, yeni bilgiler oluşturabilme ve keşfedebilme gibi yetenekleri,

Detaylı

Dr.Eyyüp GÜLBANDILAR Dr.Eyyüp GÜLBANDILAR

Dr.Eyyüp GÜLBANDILAR Dr.Eyyüp GÜLBANDILAR YAPAY SĐNĐR AĞLARI BĐYOLOJĐK SĐNĐR SĐSTEMĐ Biyolojik sinir sistemi, merkezinde sürekli olarak bilgiyi alan, yorumlayan ve uygun bir karar üreten beynin (merkezi sinir ağı) bulunduğu 3 katmanlı bir sistem

Detaylı

YAPAY SİNİR AĞLARI YÖNTEMİ İLE PAFTALARININ SAYISALLAŞTIRILMASI ARTIFICIAL NEURAL NETWORKS METHOD FOR MAP DIGITIZATION

YAPAY SİNİR AĞLARI YÖNTEMİ İLE PAFTALARININ SAYISALLAŞTIRILMASI ARTIFICIAL NEURAL NETWORKS METHOD FOR MAP DIGITIZATION YAPAY SİNİR AĞLARI YÖNTEMİ İLE PAFTALARININ SAYISALLAŞTIRILMASI Y.ŞİŞMAN 1, H. DEMİRTAŞ 2 1 Ondokuz Mayıs Üniversitesi, Harita Mühendisliği Bölümü, 55139, Samsun/TÜRKİYE ysisman@omu.edu.tr 2 Sağlık Bakanlığı,

Detaylı

İnsan beyni, birbiri ile karmaşık ilişkiler içinde bulunan nöron hücreleri kitlesidir. Tüm aktivitelerimizi kontrol eder, yaradılışın en görkemli ve

İnsan beyni, birbiri ile karmaşık ilişkiler içinde bulunan nöron hücreleri kitlesidir. Tüm aktivitelerimizi kontrol eder, yaradılışın en görkemli ve YAPAY SİNİRAĞLARI İnsan beyni, birbiri ile karmaşık ilişkiler içinde bulunan nöron hücreleri kitlesidir. Tüm aktivitelerimizi kontrol eder, yaradılışın en görkemli ve gizemli harikalarından biridir. İnsan

Detaylı

Yıldız Teknik Üniversitesi Fen Bilimleri Enstitüsü Bilgisayar Mühendisliği Bölümü. Şekil Tanıma Final Projesi. Selçuk BAŞAK 08501008

Yıldız Teknik Üniversitesi Fen Bilimleri Enstitüsü Bilgisayar Mühendisliği Bölümü. Şekil Tanıma Final Projesi. Selçuk BAŞAK 08501008 Yıldız Teknik Üniversitesi Fen Bilimleri Enstitüsü Bilgisayar Mühendisliği Bölümü Şekil Tanıma Final Projesi Selçuk BAŞAK 08501008 Not: Ödevi hazırlamak için geliştirdiğim uygulama ve kaynak kodları ektedir.

Detaylı

BAŞKENT ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ BENZER SÜREÇLERDE ÜRETİLEN ÜRÜNLER İÇİN YAPAY ZEKA İLE ZAMAN TAHMİNİ SONER ŞÜKRÜ ALTIN

BAŞKENT ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ BENZER SÜREÇLERDE ÜRETİLEN ÜRÜNLER İÇİN YAPAY ZEKA İLE ZAMAN TAHMİNİ SONER ŞÜKRÜ ALTIN BAŞKENT ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ BENZER SÜREÇLERDE ÜRETİLEN ÜRÜNLER İÇİN YAPAY ZEKA İLE ZAMAN TAHMİNİ SONER ŞÜKRÜ ALTIN YÜKSEK LİSANS TEZİ 2011 BENZER SÜREÇLERDE ÜRETİLEN ÜRÜNLER İÇİN YAPAY

Detaylı

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Ders 1- Yapay Zekâya Giriş. Erhan AKDOĞAN, Ph.D.

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Ders 1- Yapay Zekâya Giriş. Erhan AKDOĞAN, Ph.D. Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ Ders 1- Yapay Zekâya Giriş Erhan AKDOĞAN, Ph.D. Yapay Zekâ nedir?! İnsanın düşünme ve karar verme yeteneğini bilgisayarlar aracılığı ile taklit etmeye

Detaylı

Özörgütlemeli Öğrenme (SOM) A. Cumhur KINACI

Özörgütlemeli Öğrenme (SOM) A. Cumhur KINACI Özörgütlemeli Öğrenme (SOM) A. Cumhur KINACI Öğrenme Türleri Eğiticili Öğrenme Eğiticisiz Öğrenme: Ağın verilerin sınıflandırmasını dışarıdan yardım almadan kendi başına yapmasıdır. Bunun olabilmesi için

Detaylı

Geriye Yayılım ve Levenberg Marquardt Algoritmalarının YSA Eğitimlerindeki Başarımlarının Dinamik Sistemler Üzerindeki Başarımı. Mehmet Ali Çavuşlu

Geriye Yayılım ve Levenberg Marquardt Algoritmalarının YSA Eğitimlerindeki Başarımlarının Dinamik Sistemler Üzerindeki Başarımı. Mehmet Ali Çavuşlu Geriye Yayılım ve Levenberg Marquardt Algoritmalarının YSA Eğitimlerindeki Başarımlarının Dinamik Sistemler Üzerindeki Başarımı Mehmet Ali Çavuşlu Özet Yapay sinir ağlarının eğitiminde genellikle geriye

Detaylı

WEB SAYFALARINA İLİŞKİN YAPAY SİNİR AĞLARI İLE SINIFLANDIRMA YÖNTEMİ

WEB SAYFALARINA İLİŞKİN YAPAY SİNİR AĞLARI İLE SINIFLANDIRMA YÖNTEMİ WEB SAYFALARINA İLİŞKİN YAPAY SİNİR AĞLARI İLE SINIFLANDIRMA YÖNTEMİ Doç.Dr Erhan Akyazı Marmara Üniversitesi Bilişim Bölümü eakyazi@marmara.edu.tr Şafak Kayıkçı Marmara Üniversitesi Bilişim Bölümü safak@safakkayikci.com

Detaylı

Web Madenciliği (Web Mining)

Web Madenciliği (Web Mining) Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Denetimli Öğrenmenin Temelleri Karar Ağaçları Entropi ID3 Algoritması C4.5 Algoritması Twoing

Detaylı

Okut. Yüksel YURTAY. İletişim : (264) Sayısal Analiz. Giriş.

Okut. Yüksel YURTAY. İletişim :  (264) Sayısal Analiz. Giriş. Okut. Yüksel YURTAY İletişim : Sayısal Analiz yyurtay@sakarya.edu.tr www.cs.sakarya.edu.tr/yyurtay (264) 295 58 99 Giriş 1 Amaç : Mühendislik problemlerinin bilgisayar ortamında çözümünü mümkün kılacak

Detaylı

İş Zekası. Hafta 6 Kestirimci Modelleme Teknikleri. Yrd. Doç. Dr. H. İbrahim CEBECİ

İş Zekası. Hafta 6 Kestirimci Modelleme Teknikleri. Yrd. Doç. Dr. H. İbrahim CEBECİ İş Zekası Hafta 6 Kestirimci Modelleme Teknikleri Business Intelligence and Analytics: Systems for Decision Support 10e isimli eserden adapte edilmiştir Bölüm Amaçları Yapay Sinir Ağları (YSA) kavramını

Detaylı

Web Madenciliği (Web Mining)

Web Madenciliği (Web Mining) Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Sınıflandırıcıların Değerlendirilmesi Skorlar Karışıklık matrisi Accuracy Precision Recall

Detaylı

ÇİMENTO BASMA DAYANIMI TAHMİNİ İÇİN YAPAY SİNİR AĞI MODELİ

ÇİMENTO BASMA DAYANIMI TAHMİNİ İÇİN YAPAY SİNİR AĞI MODELİ ÇİMENTO BASMA DAYANIMI TAHMİNİ İÇİN YAPAY SİNİR AĞI MODELİ Ezgi Özkara a, Hatice Yanıkoğlu a, Mehmet Yüceer a, * a* İnönü Üniversitesi Mühendislik Fakültesi Kimya Mühendisliği Bölümü, Malatya, 44280 myuceer@inonu.edu.tr

Detaylı

DİNLENİM MEMBRAN POTANSİYELİ. Prof. Dr. Taner Dağcı Ege Üniversitesi Tıp Fakültesi Fizyoloji Ab. D.

DİNLENİM MEMBRAN POTANSİYELİ. Prof. Dr. Taner Dağcı Ege Üniversitesi Tıp Fakültesi Fizyoloji Ab. D. DİNLENİM MEMBRAN POTANSİYELİ Prof. Dr. Taner Dağcı Ege Üniversitesi Tıp Fakültesi Fizyoloji Ab. D. Hücre içi kompartıman ve hücre dışı kompartımanın büyük bölümü elektriksel açıdan nötrdür. Hücre içinde

Detaylı

T.C. KIRIKKALE ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ YAPAY SİNİR AĞLARI. Doç.Dr. Necaattin BARIŞÇI FİNAL PROJESİ

T.C. KIRIKKALE ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ YAPAY SİNİR AĞLARI. Doç.Dr. Necaattin BARIŞÇI FİNAL PROJESİ T.C. KIRIKKALE ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ YAPAY SİNİR AĞLARI Doç.Dr. Necaattin BARIŞÇI YAPAY SİNİR AĞLARI İLE KORONER ARTER HASTALIĞI RİSK Öğrenci : SİNEM ÖZDER Numarası : 118229001004

Detaylı

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Ders 3- Yapay Sinir Ağları. Erhan AKDOĞAN, Ph.D.

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Ders 3- Yapay Sinir Ağları. Erhan AKDOĞAN, Ph.D. Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ Ders 3- Yapay Sinir Ağları Erhan AKDOĞAN, Ph.D. Ders 3-1 Yapay Sinir Ağlarına Giriş Giriş YSA, insan beyninin özelliklerinden olan öğrenme yolu ile yeni

Detaylı

4. HAFTA BLM323 SAYISAL ANALİZ. Okt. Yasin ORTAKCI.

4. HAFTA BLM323 SAYISAL ANALİZ. Okt. Yasin ORTAKCI. 4. HAFTA BLM33 SAYISAL ANALİZ Okt. Yasin ORTAKCI yasinortakci@karabuk.edu.tr Karabük Üniversitesi Uzaktan Eğitim Uygulama ve Araştırma Merkezi BLM33 DOĞRUSAL OLMAYAN (NONLINEAR) DENKLEM SİSTEMLERİ Mühendisliğin

Detaylı

Zeki Optimizasyon Teknikleri

Zeki Optimizasyon Teknikleri Zeki Optimizasyon Teknikleri Ara sınav - 25% Ödev (Haftalık) - 10% Ödev Sunumu (Haftalık) - 5% Final (Proje Sunumu) - 60% - Dönem sonuna kadar bir optimizasyon tekniğiyle uygulama geliştirilecek (Örn:

Detaylı

ESTIMATION OF EFFLUENT PARAMETERS AND EFFICIENCY FOR ADAPAZARI URBAN WASTEWATER TREATMENT PLANT BY ARTIFICIAL NEURAL NETWORK

ESTIMATION OF EFFLUENT PARAMETERS AND EFFICIENCY FOR ADAPAZARI URBAN WASTEWATER TREATMENT PLANT BY ARTIFICIAL NEURAL NETWORK ESTIMATION OF EFFLUENT PARAMETERS AND EFFICIENCY FOR ADAPAZARI URBAN WASTEWATER TREATMENT PLANT BY ARTIFICIAL NEURAL NETWORK ADAPAZARI KENTSEL ATIKSU ARITMA TESĐSĐ ÇIKIŞ SUYU PARAMETRELERĐ VE VERĐM DEĞERLERĐNĐN

Detaylı

etme çabalarının en son ürünlerinden bir tanesi yapay sinir ağları (YSA) teknolojisidir.

etme çabalarının en son ürünlerinden bir tanesi yapay sinir ağları (YSA) teknolojisidir. İnsanlığın doğayı araştırma ve taklit etme çabalarının en son ürünlerinden bir tanesi yapay sinir ağları (YSA) teknolojisidir. Beynin üstün özellikleri, bilim adamlarını üzerinde çalışmaya zorlamış ve

Detaylı

Çok Katmanlı Algılayıcılar. Dr. Hidayet Takçı

Çok Katmanlı Algılayıcılar. Dr. Hidayet Takçı Çok Katmanlı Algılayıcılar Dr. Hidayet Takçı htakci@gmail.com http://htakci.sucati.org Perceptron Sınıflandırması Perceptronlar sadece doğrusal sınıflandırma yapabilir. 2 Yapay Sinir Ağları ve Uygulamaları

Detaylı

Otomatik Doküman Sınıflandırma

Otomatik Doküman Sınıflandırma Akademik Bilişim 12 - XIV Akademik Bilişim Konferansı Bildirileri Otomatik Doküman Sınıflandırma Adnan Menderes Üniversitesi, Fen Edebiyat Fakültesi Matematik Bölümü, Aydın rumeysa2903@gmailcom, rasliyan@aduedutr,

Detaylı

Otomatik Doküman Sınıflandırma

Otomatik Doküman Sınıflandırma Otomatik Doküman Sınıflandırma Rumeysa YILMAZ, Rıfat AŞLIYAN, Korhan GÜNEL Adnan Menderes Üniversitesi, Fen Edebiyat Fakültesi Matematik Bölümü, Aydın rumeysa2903@gmailcom, rasliyan@aduedutr, kgunel@aduedutr

Detaylı

BİLİŞSEL NÖROBİLİM BİLGİ İŞLEME SÜREÇ VE YAKLAŞIMLARI

BİLİŞSEL NÖROBİLİM BİLGİ İŞLEME SÜREÇ VE YAKLAŞIMLARI BİLİŞSEL NÖROBİLİM BİLGİ İŞLEME SÜREÇ VE YAKLAŞIMLARI Beyni Keşfetme Dünya üzerinde keşifler genelde coğrafi keşiflerle başlamıştır. Ortalama 1120 gr ağırlığındaki jelatinimsi yapısıyla beyni keşfetme

Detaylı

TC. GAZİ ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ İŞLETME ANABİLİM DALI ÜRETİM YÖNETİMİ BİLİM DALI

TC. GAZİ ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ İŞLETME ANABİLİM DALI ÜRETİM YÖNETİMİ BİLİM DALI TC. GAZİ ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ İŞLETME ANABİLİM DALI ÜRETİM YÖNETİMİ BİLİM DALI YAPAY SİNİR AĞLARI VE BEKLEME SÜRESİNİN TAHMİNİNDE KULLANILMASI YÜKSEK LİSANS TEZİ Hazırlayan Muhammet DEVECİ

Detaylı

Yapay Sinir Ağları GİRİŞ

Yapay Sinir Ağları GİRİŞ Yapay Sinir Ağları GİRİŞ Akıl kelimesi genellikle zeka kavramıyla karıştırılmaktadır.oysa akıl düşünme, kavrama,idrak etme ve karar verme yeteneklerini kapsar.akıl genetik olarak ve çevresel faktörler

Detaylı

EN BÜYÜK YER İVMESİNİN TAHMİNİNDE YAPAY SİNİR AĞLARININ KULLANIMI

EN BÜYÜK YER İVMESİNİN TAHMİNİNDE YAPAY SİNİR AĞLARININ KULLANIMI EN BÜYÜK YER İVMESİNİN TAHMİNİNDE YAPAY SİNİR AĞLARININ KULLANIMI İlknur Kaftan ve Elçin Gök ÖZET: Dr., Jeofizik Müh. Bölümü, Dokuz Eylül Üniversitesi, İzmir Yrd.Doç.Dr., Jeofizik Müh. Bölümü, Dokuz Eylül

Detaylı

Yrd. Doç. Dr. A. Burak İNNER

Yrd. Doç. Dr. A. Burak İNNER Yrd. Doç. Dr. A. Burak İNNER Kocaeli Üniversitesi Bilgisayar Mühendisliği Yapay Zeka ve Benzetim Sistemleri Ar-Ge Lab. http://yapbenzet.kocaeli.edu.tr Regresyon o EnKüçük Kareler Yöntemi Doğru Uydurma

Detaylı

ÖZEL EGE LİSESİ ORTAÖĞRETİM ÖĞRENCİLERİNİN SINAV PERFORMANSI MODELLEMESİNDE YAPAY SİNİR AĞLARI KULLANIMI

ÖZEL EGE LİSESİ ORTAÖĞRETİM ÖĞRENCİLERİNİN SINAV PERFORMANSI MODELLEMESİNDE YAPAY SİNİR AĞLARI KULLANIMI ÖZEL EGE LİSESİ ORTAÖĞRETİM ÖĞRENCİLERİNİN SINAV PERFORMANSI MODELLEMESİNDE YAPAY SİNİR AĞLARI KULLANIMI HAZIRLAYAN ÖĞRENCİLER: Yaren DEMİRAĞ Ege Onat ÖZSÜER DANIŞMAN ÖĞRETMEN: Gülşah ARACIOĞLU İZMİR 2015

Detaylı

Yapay Sinir Ağları ile Web İçeriklerini Sınıflandırma. Yazarlar: Esra Nergis Güven, Hakan Onur ve Şeref Sağıroğlu. Sunan : Esra Nergis Güven

Yapay Sinir Ağları ile Web İçeriklerini Sınıflandırma. Yazarlar: Esra Nergis Güven, Hakan Onur ve Şeref Sağıroğlu. Sunan : Esra Nergis Güven Yapay Sinir Ağları ile Web İçeriklerini Sınıflandırma Yazarlar: Esra Nergis Güven, Hakan Onur ve Şeref Sağıroğlu Sunan : Esra Nergis Güven İçerik Giriş Amaç ve Kapsam Sınıflandırma Geliştirilen Sistem

Detaylı

PARÇACIK SÜRÜ OPTİMİZASYONU BMÜ-579 METASEZGİSEL YÖNTEMLER YRD. DOÇ. DR. İLHAN AYDIN

PARÇACIK SÜRÜ OPTİMİZASYONU BMÜ-579 METASEZGİSEL YÖNTEMLER YRD. DOÇ. DR. İLHAN AYDIN PARÇACIK SÜRÜ OPTİMİZASYONU BMÜ-579 METASEZGİSEL YÖNTEMLER YRD. DOÇ. DR. İLHAN AYDIN 1995 yılında Dr.Eberhart ve Dr.Kennedy tarafından geliştirilmiş popülasyon temelli sezgisel bir optimizasyon tekniğidir.

Detaylı

2.1 Bir Sınıfı Örneklerinden Öğrenme... 15 2.2 Vapnik-Chervonenkis (VC) Boyutu... 20 2.3 Olası Yaklaşık Doğru Öğrenme... 21

2.1 Bir Sınıfı Örneklerinden Öğrenme... 15 2.2 Vapnik-Chervonenkis (VC) Boyutu... 20 2.3 Olası Yaklaşık Doğru Öğrenme... 21 İçindekiler Önsöz İkinci Basım için Önsöz Türkçe Çeviri için Önsöz Gösterim xiii xv xvii xix 1 Giriş 1 1.1 Yapay Öğrenme Nedir?......................... 1 1.2 Yapay Öğrenme Uygulamalarına Örnekler...............

Detaylı

Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)

Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data) Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data) M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Bu dersin sunumları, The Elements of Statistical Learning: Data

Detaylı

BÖCEKLERDE SİNİR YAPILARI

BÖCEKLERDE SİNİR YAPILARI BÖCEKLERDE SİNİR YAPILARI Merkezi sinir sistemi (Central Nervous System): Başın dorsalinde beyin, ventralinde ise subesophageal ganglionlardan, toraks ve abdomende ise ventralde vücut boyunca uzanan her

Detaylı

GÖRSEL YAZILIM GELİŞTİRME ORTAMI İLE BERABER BİR YAPAY SİNİR AĞI KÜTÜPHANESİ TASARIMI VE GERÇEKLEŞTİRİMİ

GÖRSEL YAZILIM GELİŞTİRME ORTAMI İLE BERABER BİR YAPAY SİNİR AĞI KÜTÜPHANESİ TASARIMI VE GERÇEKLEŞTİRİMİ EGE ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ (YÜKSEK LİSANS TEZİ) GÖRSEL YAZILIM GELİŞTİRME ORTAMI İLE BERABER BİR YAPAY SİNİR AĞI KÜTÜPHANESİ TASARIMI VE GERÇEKLEŞTİRİMİ Ahmet Cumhur KINACI Bilgisayar Mühendisliği

Detaylı

Yapay Sinir Ağları ve Yüksek Enerji Fiziği Uygulamaları

Yapay Sinir Ağları ve Yüksek Enerji Fiziği Uygulamaları Yapay Sinir Ağları ve Yüksek Enerji Fiziği Uygulamaları Ece Akıllı Université de Genève 12 Eylül 2016 CERN TR E. Akıllı (UNIGE) Yapay Sinir Ağları 12.09.2016 1 / 18 Akış 1 Makine Ogrenimi 2 Yapay Sinir

Detaylı

MAK 210 SAYISAL ANALİZ

MAK 210 SAYISAL ANALİZ MAK 210 SAYISAL ANALİZ BÖLÜM 8- SAYISAL İNTEGRASYON 1 GİRİŞ Mühendislikte sık karşılaşılan matematiksel işlemlerden biri integral işlemidir. Bilindiği gibi integral bir büyüklüğün toplam değerinin bulunması

Detaylı

YAPAY ZEKA VE DERİN ÖĞRENMENİN GÜNÜMÜZDEKİ UYGULAMA ALANLARI

YAPAY ZEKA VE DERİN ÖĞRENMENİN GÜNÜMÜZDEKİ UYGULAMA ALANLARI YAPAY ZEKA VE DERİN ÖĞRENMENİN GÜNÜMÜZDEKİ UYGULAMA ALANLARI DR. ÖĞR. ÜYESİ GÖKHAN ALTAN BİLGİSAYAR MÜH. BÖL. İSKENDERUN TEKNİK ÜNİVERSİTESİ KONUŞMA İÇERİĞİ Bilgisayar Bilimi Makine Öğrenmesi nedir? Makine

Detaylı

Concept Learning. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ. Yapay Zeka - Kavram Öğrenme

Concept Learning. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ. Yapay Zeka - Kavram Öğrenme Concept Learning Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ 1 İÇERİK Öğrenme Metotları Kavram Öğrenme Nedir? Terminoloji Find-S Algoritması Candidate-Elimination Algoritması List-Then Elimination Algoritması

Detaylı

Rastgele Süreçler. Rastgele süreç konsepti (Ensemble) Örnek Fonksiyonlar. deney. Zaman (sürekli veya kesikli) Ensemble.

Rastgele Süreçler. Rastgele süreç konsepti (Ensemble) Örnek Fonksiyonlar. deney. Zaman (sürekli veya kesikli) Ensemble. 1 Rastgele Süreçler Olasılık taması Rastgele Deney Çıktı Örnek Uzay, S (s) Zamanın Fonksiy onu (t, s) Olayları Tanımla Rastgele süreç konsepti (Ensemble) deney (t,s 1 ) 1 t Örnek Fonksiyonlar (t,s ) t

Detaylı

İç Basınç Altında İnce Cidarlı Kabukların Yapay Sinir Ağları ile Çözümü

İç Basınç Altında İnce Cidarlı Kabukların Yapay Sinir Ağları ile Çözümü Süleyman Demirel Üniversitesi, Fen Bilimleri Enstitüsü Dergisi, 10-3 (006),447-451 İç Basınç Altında İnce Cidarlı Kabukların Yapay Sinir Ağları ile Çözümü Ömer KELEŞOĞLU, Adem FIRAT Fırat Üniversitesi,

Detaylı

Yapay Zeka ya giris. Yapay sinir aglari ve bulanik mantik. Uzay CETIN. Université Pierre Marie Curie (Paris VI),

Yapay Zeka ya giris. Yapay sinir aglari ve bulanik mantik. Uzay CETIN. Université Pierre Marie Curie (Paris VI), Yapay Zeka ya giris Yapay sinir aglari ve bulanik mantik Uzay CETIN Université Pierre Marie Curie (Paris VI), Master 2 Recherche, Agents Intelligents, Apprentissage et Décision (AIAD) November 11, 2008

Detaylı

Kısıtsız Optimizasyon OPTİMİZASYON Kısıtsız Optimizasyon

Kısıtsız Optimizasyon OPTİMİZASYON Kısıtsız Optimizasyon OPTİMİZASYON Bu bölümde çok değişkenli kısıtsız optimizasyon problemlerinin çözüm yöntemleri incelenecektir. Bu bölümde anlatılacak yöntemler, kısıtlı optimizasyon problemlerini de çözebilmektedir. Bunun

Detaylı

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Makine Öğrenmesi. Erhan AKDOĞAN, Ph.D.

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Makine Öğrenmesi. Erhan AKDOĞAN, Ph.D. Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ Makine Öğrenmesi Erhan AKDOĞAN, Ph.D. Bu ders notunun hazırlanmasında Dr. U.Orhan ve Banu Diri nin ders notlarından yararlanılmıştır. Makine öğrenmesi

Detaylı

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009 MIT OpenCourseWare http://ocw.mit.edu 14.30 Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009 Bu materyale atıfta bulunmak ve kullanım koşulları için http://ocw.mit.edu/terms sayfasını ziyaret ediniz.

Detaylı

CBS ve Coğrafi Hesaplama

CBS ve Coğrafi Hesaplama Yıldız Teknik Üniversitesi CBS ve Coğrafi Hesaplama 2. Bölüm Yrd. Doç. Dr. Alper ŞEN Harita Mühendisliği Bölümü Kartografya Anabilim Dalı web: http://www.yarbis.yildiz.edu.tr/alpersen/ E mail: alpersen@yildiz.edu.tr

Detaylı

Hava Kirliliğine Neden Olan PM10 ve SO 2 Maddesinin Yapay Sinir Ağı Kullanılarak Tahmininin Yapılması ve Hata Oranının Hesaplanması

Hava Kirliliğine Neden Olan PM10 ve SO 2 Maddesinin Yapay Sinir Ağı Kullanılarak Tahmininin Yapılması ve Hata Oranının Hesaplanması Afyon Kocatepe Üniversitesi Fen ve Mühendislik Bilimleri Dergisi Afyon Kocatepe University Journal of Science and Engineering AKÜ FEMÜBİD XX (201X) xxxxxx (xx s) AKU J. Sci.Eng.XX (201X) xxxxxx (xx pp)

Detaylı

Doç.Dr.Erkan ÜLKER, Selçuk Üniversitesi Mühendislik F, Bilgisayar Mühendisliği Bölümü

Doç.Dr.Erkan ÜLKER, Selçuk Üniversitesi Mühendislik F, Bilgisayar Mühendisliği Bölümü 17.05.2014 Sayfa 1 Curve Fitting with RBS Functional Networks RBS fonksiyonel ağı ile eğri uygunluğu Andr es Iglesias, Akemi G alvez Department of Applied Mathematics and Computational Sciences, University

Detaylı

KÜTAHYA İLİNİN YAPAY SİNİR AĞLARI KULLANILARAK ELEKTRİK PUANT YÜK TAHMİNİ

KÜTAHYA İLİNİN YAPAY SİNİR AĞLARI KULLANILARAK ELEKTRİK PUANT YÜK TAHMİNİ ELECTRICAL PEAK LOAD FORECASTING IN KÜTAHYA WITH ARTIFICIAL NEURAL NETWORKS. Y. ASLAN * & C. YAŞAR * & A. NALBANT * * Elektrik-Elektronik Mühendisliği Bölümü, Mühendislik Fakültesi Dumlupınar Üniversitesi,

Detaylı

Yöneylem Araştırması II

Yöneylem Araştırması II Yöneylem Araştırması II Öğr. Gör. Dr. Hakan ÇERÇİOĞLU cercioglu@gazi.edu.tr BÖLÜM I: Doğrusal Programlama Tekrarı Doğrusal Programlama Tanımı Doğrusal Programlama Varsayımları Grafik Çözüm Metodu Simpleks

Detaylı

İSTATİSTİKSEL DARALTICI (SHRINKAGE) MODEL VE UYGULAMALARI * A Statistical Shrinkage Model And Its Applications*

İSTATİSTİKSEL DARALTICI (SHRINKAGE) MODEL VE UYGULAMALARI * A Statistical Shrinkage Model And Its Applications* Ç.Ü. Fen Bilimleri Enstitüsü Yıl:010 Cilt:-1 İSTATİSTİKSEL DARALTICI (SHRINKAGE) MODEL VE UYGULAMALARI * A Statistical Shrinkage Model And Its Applications* Işıl FİDANOĞLU İstatistik Anabilim Dalı Fikri

Detaylı

BÖLÜM III: Şebeke Modelleri. Şebeke Kavramları. Şebeke Kavramları. Şebeke Kavramları. Yönlü Şebeke (Directed Network) Dal / ok

BÖLÜM III: Şebeke Modelleri. Şebeke Kavramları. Şebeke Kavramları. Şebeke Kavramları. Yönlü Şebeke (Directed Network) Dal / ok 8.0.0 Şebeke Kavramları BÖLÜM III: Şebeke Modelleri Şebeke (Network) Sonlu sayıdaki düğümler kümesiyle, bunlarla bağlantılı oklar (veya dallar) kümesinin oluşturduğu yapı şeklinde tanımlanabilir ve (N,A)

Detaylı

Analitik Hiyerarşi Prosesi (AHP) Yrd.Doç.Dr. Sabahattin Kerem AYTULUN

Analitik Hiyerarşi Prosesi (AHP) Yrd.Doç.Dr. Sabahattin Kerem AYTULUN Analitik Hiyerarşi Prosesi (AHP) Yrd.Doç.Dr. Sabahattin Kerem AYTULUN Giriş AHP Thomas L.Saaty tarafından 1970'lerde ortaya atılmıştır. Amaç alternatifler arasından en iyisinin seçilmesidir. Subjektif

Detaylı

YÜKSEK LİSANS TEZİ T.C. GAZİ ÜNİVERSİTESİ BİLİŞİM ENSTİTÜSÜ YÖNETİM BİLİŞİM SİSTEMLERİ ANABİLİM DALI

YÜKSEK LİSANS TEZİ T.C. GAZİ ÜNİVERSİTESİ BİLİŞİM ENSTİTÜSÜ YÖNETİM BİLİŞİM SİSTEMLERİ ANABİLİM DALI CEVDET İLKER KOCATEPE YÖNETİM BİLİŞİM SİSTEMLERİ ANABİLİM DALI OCAK 2017 T.C. GAZİ ÜNİVERSİTESİ BİLİŞİM ENSTİTÜSÜ YÜKSEK LİSANS TEZİ EKONOMİK ENDEKSLER KULLANILARAK TÜRKİYE'DEKİ ALTIN FİYATINDAKİ DEĞİŞİM

Detaylı

İSTATİKSEL NORMALİZASYON TEKNİKLERİNİN YAPAY SİNİR AĞIN PERFORMANSINA ETKİSİ

İSTATİKSEL NORMALİZASYON TEKNİKLERİNİN YAPAY SİNİR AĞIN PERFORMANSINA ETKİSİ İSTATİKSEL NORMALİZASYON TEKNİKLERİNİN YAPAY SİNİR AĞIN PERFORMANSINA ETKİSİ Selahattin YAVUZ * Muhammet DEVECİ ** ÖZ Son yıllarda, yapay sinir ağları pek çok alanda uygulanan ve üzerinde en çok araştırma

Detaylı

EME Sistem Simülasyonu. Giriş. Olasılık Dağılımı. Rassal Degiskenler

EME Sistem Simülasyonu. Giriş. Olasılık Dağılımı. Rassal Degiskenler EME 3105 1 Giriş Sistem Simülasyonu Önümüzdeki hafta simulasyon girdilerinin modellenmesinde kullanılan kesikli ve sürekli Simulasyonda İstatistiksel Modeller-I Ders 4 dağılımlar hatırlatılacaktır. Rassal

Detaylı

Görüntü Sınıflandırma

Görüntü Sınıflandırma Görüntü Sınıflandırma Chapter 12 https://www.google.com.tr/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0 CBwQFjAA&url=http%3A%2F%2Ffaculty.une.edu%2Fcas%2Fszeeman%2Frs%2Flect%2FCh%2 52012%2520Image%2520Classification.ppt&ei=0IA7Vd36GYX4Uu2UhNgP&usg=AFQjCNE2wG

Detaylı

METASEZGİSEL YÖNTEMLER

METASEZGİSEL YÖNTEMLER METASEZGİSEL YÖNTEMLER Ara sınav - 30% Ödev (Haftalık) - 20% Final (Proje Sunumu) - 50% - Dönem sonuna kadar bir optimizasyon tekniğiyle uygulama geliştirilecek (Örn: Zaman çizelgeleme, en kısa yol bulunması,

Detaylı

SAYISAL ÇÖZÜMLEME. Sayısal Çözümleme

SAYISAL ÇÖZÜMLEME. Sayısal Çözümleme SAYISAL ÇÖZÜMLEME 1 SAYISAL ÇÖZÜMLEME 4. Hafta DENKLEM ÇÖZÜMLERİ 2 İÇİNDEKİLER Denklem Çözümleri Doğrusal Olmayan Denklem Çözümleri Grafik Yöntemleri Kapalı Yöntemler İkiye Bölme (Bisection) Yöntemi Adım

Detaylı

YZM 3217 YAPAY ZEKA DERS#10: KÜMELEME

YZM 3217 YAPAY ZEKA DERS#10: KÜMELEME YZM 317 YAPAY ZEKA DERS#10: KÜMELEME Sınıflandırma (Classification) Eğiticili (supervised) sınıflandırma: Sınıflandırma: Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğunu bilinir Eğiticisiz (unsupervised)

Detaylı

İleri Diferansiyel Denklemler

İleri Diferansiyel Denklemler MIT AçıkDersSistemi http://ocw.mit.edu 18.034 İleri Diferansiyel Denklemler 2009 Bahar Bu bilgilere atıfta bulunmak veya kullanım koşulları hakkında bilgi için http://ocw.mit.edu/terms web sitesini ziyaret

Detaylı

ÇATI DÖŞEMESİNDE MEYDANA GELEN YOĞUŞMA VE BUHARLAŞMA KÜTLELERİNİN YAPAY SİNİR AĞLARI İLE TAHMİN EDİLMESİ

ÇATI DÖŞEMESİNDE MEYDANA GELEN YOĞUŞMA VE BUHARLAŞMA KÜTLELERİNİN YAPAY SİNİR AĞLARI İLE TAHMİN EDİLMESİ S.Ü. Müh.-Mim. Fak. Derg., c.21, s.1-2, 2006 J. Fac.Eng.Arch. Selcuk Univ., v.21, n.1-2, 2006 ÇATI DÖŞEMESİNDE MEYDANA GELEN YOĞUŞMA VE BUHARLAŞMA KÜTLELERİNİN YAPAY SİNİR AĞLARI İLE TAHMİN EDİLMESİ Ömer

Detaylı

Yapay Sinir Ağları İçin Net Platformunda Görsel Bir Eğitim Yazılımının Geliştirilmesi

Yapay Sinir Ağları İçin Net Platformunda Görsel Bir Eğitim Yazılımının Geliştirilmesi BİLİŞİM TEKNOLOJİLERİ DERGİSİ, CİLT: 5, SAYI: 1, OCAK 2012 19 Yapay Sinir Ağları İçin Net Platformunda Görsel Bir Eğitim Yazılımının Geliştirilmesi Kerim Kürşat ÇEVİK 1, Emre DANDIL 2 1 Bor Meslek Yüksekokulu,

Detaylı

SİMPLEKS ALGORİTMASI! ESASLARI!

SİMPLEKS ALGORİTMASI! ESASLARI! Fen ilimleri Enstitüsü Endüstri Mühendisliği Anabilim Dalı ENM53 Doğrusal Programlamada İleri Teknikler SİMPLEKS ALGORİTMASI ESASLARI Hazırlayan: Doç. Dr. Nil ARAS AÇIKLAMA n n u sununun hazırlanmasında,

Detaylı

Fiziksel Sistemlerin Matematik Modeli. Prof. Neil A.Duffie University of Wisconsin-Madison ÇEVİRİ Doç. Dr. Hüseyin BULGURCU 2012

Fiziksel Sistemlerin Matematik Modeli. Prof. Neil A.Duffie University of Wisconsin-Madison ÇEVİRİ Doç. Dr. Hüseyin BULGURCU 2012 Fiziksel Sistemlerin Matematik Modeli Prof. Neil A.Duffie University of Wisconsin-Madison ÇEVİRİ Doç. Dr. Hüseyin BULGURCU 2012 Matematik Modele Olan İhtiyaç Karmaşık denetim sistemlerini anlamak için

Detaylı

VERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN

VERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN VERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr İçerik Kümeleme İşlemleri Kümeleme Tanımı Kümeleme Uygulamaları Kümeleme Yöntemleri Kümeleme (Clustering) Kümeleme birbirine

Detaylı

T.C. SELÇUK ÜNĐVERSĐTESĐ FEN BĐLĐMLERĐ ENSTĐTÜSÜ

T.C. SELÇUK ÜNĐVERSĐTESĐ FEN BĐLĐMLERĐ ENSTĐTÜSÜ T.C. SELÇUK ÜNĐVERSĐTESĐ FEN BĐLĐMLERĐ ENSTĐTÜSÜ FÜZE GÜDÜM VE KONTROL SĐSTEMLERĐNĐN YAPAY SĐNĐR AĞLARI ĐLE ĐNCELENMESĐ Engin YALÇIN YÜKSEK LĐSANS TEZĐ ELEKTRĐK-ELEKTRONĐK MÜHENDĐSLĐĞĐ ANABĐLĐM DALI KONYA,

Detaylı

Fizyoloji PSİ 123 Hafta Haft 6 a

Fizyoloji PSİ 123 Hafta Haft 6 a Fizyoloji PSİ 123 Hafta 6 Sinir Sisteminin Hücreleri Astrosit Oligodendrosit (MSS) Sinir Sistemi Hücreleri Glia Nöron Schwan (PSS) Mikroglia Ependimal Glia Tutkal Bölünebilir Nöronlara fiziksel ve metabolik

Detaylı

Şekil 1.1 Genliği kuvantalanmamış sürekli zamanlı işaret. İşaretin genliği sürekli değerler alır. Buna analog işaret de denir.

Şekil 1.1 Genliği kuvantalanmamış sürekli zamanlı işaret. İşaretin genliği sürekli değerler alır. Buna analog işaret de denir. İŞARETLER Sayısal işaret işleme, işaretlerin sayısal bilgisayar ya da özel amaçlı donanımda bir sayılar dizisi olarak gösterilmesi ve bu işaret dizisi üzerinde çeşitli işlemler yaparak, istenen bir bilgi

Detaylı

ELN1002 BİLGİSAYAR PROGRAMLAMA 2

ELN1002 BİLGİSAYAR PROGRAMLAMA 2 ELN1002 BİLGİSAYAR PROGRAMLAMA 2 SIRALAMA ALGORİTMALARI Sunu Planı Büyük O Notasyonu Kabarcık Sıralama (Bubble Sort) Hızlı Sıralama (Quick Sort) Seçimli Sıralama (Selection Sort) Eklemeli Sıralama (Insertion

Detaylı

ISK116 - Bölüm 1. Grup Teknolojisi

ISK116 - Bölüm 1. Grup Teknolojisi ISK - Bölüm Grup Teknolojisi Grup Teknolojisi (GT) Grup teknolojisi benzerliklerden faydalanarak büyük ve karmaşık bir üretim sisteminin, küçük ve kolay kontrol edilebilir sistemlere dönüştürülmesi hedeflenmektedir.

Detaylı

MEMM4043 metallerin yeniden kazanımı

MEMM4043 metallerin yeniden kazanımı metallerin yeniden kazanımı 2016-2017 güz yy. Prof. Dr. Gökhan Orhan MF212 katot - + Cu + H 2+ SO 2-4 OH- Anot Reaksiyonu Cu - 2e - Cu 2+ E 0 = + 0,334 Anot Reaksiyonu 2H 2 O O 2 + 4H + + 4e - E 0 = 1,229-0,0591pH

Detaylı

KONU 4: DOĞRUSAL PROGRAMLAMA MODELİ İÇİN ÇÖZÜM YÖNTEMLERİ I

KONU 4: DOĞRUSAL PROGRAMLAMA MODELİ İÇİN ÇÖZÜM YÖNTEMLERİ I KONU 4: DOĞRUSAL PROGRAMLAMA MODELİ İÇİN ÇÖZÜM YÖNTEMLERİ I 4.1. Dışbükeylik ve Uç Nokta Bir d.p.p. de model kısıtlarını aynı anda sağlayan X X X karar değişkenleri... n vektörüne çözüm denir. Eğer bu

Detaylı

Yapay Sinir Ağları ve Tahmin Modellemesi Üzerine Bir Uygulama

Yapay Sinir Ağları ve Tahmin Modellemesi Üzerine Bir Uygulama T.C. İSTANBUL ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ İŞLETME ANABİLİM DALI SAYISAL YÖNTEMLER BİLİM DALI YÜKSEK LİSANS TEZİ Yapay Sinir Ağları ve Tahmin Modellemesi Üzerine Bir Uygulama Fırat BAYIR 2501030188

Detaylı

17 İNSAN FİZYOLOJİSİ SİNİR SİSTEMİ-1 Nöron- Glia- Nöron Çeşitleri

17 İNSAN FİZYOLOJİSİ SİNİR SİSTEMİ-1 Nöron- Glia- Nöron Çeşitleri 17 İNSAN FİZYOLOJİSİ SİNİR SİSTEMİ-1 Nöron- Glia- Nöron Çeşitleri SİNİR SİSTEMİ Sinir sistemini SİNİR DOKU oluşturur. Bu dokuda NÖRON (SİNİR HÜCRESİ) ve GLİA (NÖROGLİA) hücreleri bulunur. Sinir doku, uyarıların

Detaylı

Yapay Sinir Ağları Kullanılarak Santrifüj Pompalarda Performans Tayini. Sinan Ardıç YÜKSEKLĠSANSTEZĠ. Makine Mühendisliği Anabilim Dalı

Yapay Sinir Ağları Kullanılarak Santrifüj Pompalarda Performans Tayini. Sinan Ardıç YÜKSEKLĠSANSTEZĠ. Makine Mühendisliği Anabilim Dalı Yapay Sinir Ağları Kullanılarak Santrifüj Pompalarda Performans Tayini Sinan Ardıç YÜKSEKLĠSANSTEZĠ Makine Mühendisliği Anabilim Dalı Ocak 204 Determination of Performance of Centrifugal Pumps By Using

Detaylı

T.C. BALIKESİR ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ MATEMATİK ANABİLİM DALI PORTFÖY OPTİMİZASYONU

T.C. BALIKESİR ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ MATEMATİK ANABİLİM DALI PORTFÖY OPTİMİZASYONU T.C. BALIKESİR ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ MATEMATİK ANABİLİM DALI YAPAY SİNİR AĞLARI İLE PORTFÖY OPTİMİZASYONU YÜKSEK LİSANS TEZİ MEHMET YAVUZ BALIKESİR, HAZİRAN - 2012 T.C. BALIKESİR ÜNİVERSİTESİ

Detaylı

YÖNEYLEM ARAŞTIRMASI - III

YÖNEYLEM ARAŞTIRMASI - III YÖNEYLEM ARAŞTIRMASI - III Prof. Dr. Cemalettin KUBAT Yrd. Doç. Dr. Özer UYGUN İçerik Altın Oran (Golden Section Search) Arama Metodu Tek değişkenli bir f(x) fonksiyonunu ele alalım. [Bazı x ler için f

Detaylı

ELEKTROMANYETIK ALAN TEORISI

ELEKTROMANYETIK ALAN TEORISI ELEKTROMANYETIK ALAN TEORISI kaynaklar: 1) Electromagnetic Field Theory Fundamentals Guru&Hiziroglu 2) A Student s Guide to Maxwell s Equations Daniel Fleisch 3) Mühendislik Elektromanyetiğinin Temelleri

Detaylı

Tedarik Zinciri Yönetiminde Yapay Zeka Teknikler

Tedarik Zinciri Yönetiminde Yapay Zeka Teknikler Tedarik Zinciri Yönetiminde Yapay Zeka Teknikler Doç.Dr.Mehmet Hakan Satman mhsatman@istanbul.edu.tr İstanbul Üniversitesi 2014.10.22 Doç.Dr.Mehmet Hakan Satmanmhsatman@istanbul.edu.tr Tedarik Zinciri

Detaylı

SÜREKLĠ OLASILIK DAĞILIMLARI

SÜREKLĠ OLASILIK DAĞILIMLARI SÜREKLĠ OLASILIK DAĞILIMLARI Sayı ekseni üzerindeki tüm noktalarda değer alabilen değişkenler, sürekli değişkenler olarak tanımlanmaktadır. Bu bölümde, sürekli değişkenlere uygun olasılık dağılımları üzerinde

Detaylı

MAK 210 SAYISAL ANALİZ

MAK 210 SAYISAL ANALİZ MAK 210 SAYISAL ANALİZ BÖLÜM 6- İSTATİSTİK VE REGRESYON ANALİZİ Doç. Dr. Ali Rıza YILDIZ 1 İSTATİSTİK VE REGRESYON ANALİZİ Bütün noktalardan geçen bir denklem bulmak yerine noktaları temsil eden, yani

Detaylı