Veri Madenciliği. Bölüm 6. Sınıflandırma 2. Doç. Dr. Suat Özdemir.
|
|
- Derya Kerimoğlu
- 6 yıl önce
- İzleme sayısı:
Transkript
1 Bölüm 6. Sınıflandırma 2
2 Karar Ağacı Örnek Algoritma: ID3 Bütün nitelikler ayrık Bir düğüm oluştur N: Eğer örneklerin hepsi C sınıfına ait ise, N düğümü C etiketli yaprak Eğer karşılaştırma yapılacak nitelik yoksa N düğümü en çok örneği olan sınıf En büyük bilgi kazancı olan niteliği bölmek için seç N yi seçilen nitelik ile etiketle Niteliğin her A i değeri için bir dal oluştur S i, örneklerin hepsinin A i değeri aldığı dal S i boş, bir yaprak oluşturup en çok örneği olan sınıfla etiketle S i boş değil, algoritmayı S i düğümü üzerinde yinele Yaprak düğümlere kadar Ayrıntılı bilgiler: 2/84
3 Karar Ağacı Kullanarak Sınıflandırma Doğrudan sınıflandırmak istenilen örneğin nitelikleri ağaç boyunca sınanır ulaşılan yaprağın etiketi sınıf bilgisini verir Dolaylı karar ağacı sınıflandırma kurallarına dönüştürülür kökten yaprakların herbirine giden yollar için ayrı bir kural oluşturulur IF-THEN şeklinde kuralları insanlar daha kolay anlıyor Örnek: IF Outlook= sunny AND humidity= normal THEN play tennis 3/84
4 Karar Ağaçlarında Aşırı Öğrenme Öğrenme kümesindeki örneklerin azlığı veya gürültülü olması Aşırı öğrenmeyi engelleyen yaklaşım (budama) işlemi erken sona erdirme işlemi sona erdirmek için eşik değeri belirlemek gerekiyor karar ağacı oluştuktan sonra ağacı küçültme 4/84
5 Karar ağaçlarında aşırı öğrenme Gürültüden dolayı aşırı öğrenme Aşağıdaki öğrenme kümesinde yarasa ve balina yanlış sınıf etiketine sahiptir. Sınıf etiketi = memeli mi? Cins Vücut Sıcaklığı Doğum Yapma 4- bacaklı Kış uykusu Sınıf e>ke> Kirpi Sıcakkanlı Evet Evet Evet Evet Kedi Sıcakkanlı Evet Evet Hayır Evet Yarasa Sıcakkanlı Evet Hayır Evet Hayır Balina Sıcakkanlı Evet Hayır Hayır Hayır Semender Soğukkanlı Hayır Evet Evet Hayır Komodo Ejderi Soğukkanlı Hayır Evet Hayır Hayır Piton Soğukkanlı Hayır Hayır Evet Hayır Alabalık Soğukkanlı Hayır Hayır Hayır Hayır Kartal Sıcakkanlı Hayır Hayır Hayır Hayır Lepistes Soğukkanlı Evet Hayır Hayır Hayır Öğrenme kümesi 5/84
6 Karar ağaçlarında aşırı öğrenme sıcakkanlı Vücut sıcaklığı soğukkanlı sıcakkanlı Vücut sıcaklığı soğukkanlı evet Doğum yapma Memeli değil hayır evet Doğum yapma Memeli değil hayır evet Memeli 4-bacaklı hayır Memeli değil M1 Memeli değil Memeli M2 Memeli değil Cins Vücut Sıcaklığı Doğum Yapma 4- bacaklı Kış uykusu Sınıf e>ke> Kirpi Sıcakkanlı Evet Evet Evet Evet Kedi Sıcakkanlı Evet Evet Hayır Evet Yarasa Sıcakkanlı Evet Hayır Evet Hayır Balina Sıcakkanlı Evet Hayır Hayır Hayır Semender Soğukkanlı Hayır Evet Evet Hayır Komodo Ejderi Soğukkanlı Hayır Evet Hayır Hayır Piton Soğukkanlı Hayır Hayır Evet Hayır Alabalık Soğukkanlı Hayır Hayır Hayır Hayır Kartal Sıcakkanlı Hayır Hayır Hayır Hayır Lepistes Soğukkanlı Evet Hayır Hayır Hayır 6/84
7 Karar ağaçlarında aşırı öğrenme Model 1 (M1) öğrenme kümesinde 0 hata verirken, sınama kümesinde %40 hata verir İnsan ve yunus yanlış etiketlenir Model 2 (M2) öğrenme kümesinde %20 hata verirken, sınama kümesinde hata vermez Budanmış ağaç 4-bacaklı niteliği gürültülü veriden dolayı aşırı öğrenmeye neden olmuştur. Cins Vücut Sıcaklığı Doğum Yapma 4- bacaklı Kış uykusu Sınıf e>ke> İnsan Sıcakkanlı Evet Hayır Hayır Evet Güvercin Sıcakkanlı Hayır Hayır Hayır Hayır Fil Sıcakkanlı Evet Evet Hayır Evet Yunus Sıcakkanlı Evet Hayır Hayır Evet Kaplumbağa Soğukkanlı Hayır Evet Hayır Hayır Sınama kümesi 7/84
8 Karar ağaçlarında aşırı öğrenme Öğrenme kümesinin küçüklüğünden dolayı aşırı öğrenme sıcakkanlı evet Kış uykusu Vücut sıcaklığı soğukkanlı Memeli değil hayır Cins Vücut Sıcaklığı Doğum Yapma 4- bacaklı Kış uykusu Sınıf e>ke> Poorwill Sıcakkanlı Hayır Hayır Evet Hayır Platypus Sıcakkanlı Hayır Evet Evet Evet Semender Soğukkanlı Hayır Evet Evet Hayır Kartal Sıcakkanlı Hayır Hayır Hayır Hayır Lepistes Soğukkanlı Evet Hayır Hayır Hayır evet Memeli 4-bacaklı hayır Memeli değil Memeli değil Öğrenme kümesi Cins Vücut Sıcaklığı Doğum Yapma 4- bacaklı Kış uykusu Sınıf e>ke> İnsan Sıcakkanlı Evet Hayır Hayır Evet Güvercin Sıcakkanlı Hayır Hayır Hayır Hayır Fil Sıcakkanlı Evet Evet Hayır Evet Yunus Sıcakkanlı Evet Hayır Hayır Evet Kaplumbağa Soğukkanlı Hayır Evet Hayır Hayır Sınama kümesi 8/84
9 Karar ağaçlarında aşırı öğrenme Oluşan karar ağacının, öğrenme kümesindeki hata oranı sıfır, test kümesinde ise %60 İnsan, fil ve yunus yanlış etiketlenir Kış uykusuna yatmayan tüm sıcakkanlılar memeli-değil olarak etiketlenir Bu duruma uyan sadece kartal vardır Öğrenme kümesi küçük olduğu için ağaç aşırı öğrenmiştir 9/84
10 Karar Ağaçlarında Budama Ağaç oluşturulurken budama (pre-pruning) eşikdeğer belirle Ağaç oluştuktan sonra budama (post-pruning) 10/84
11 Pre-Pruning Stop the algorithm before it becomes a fully-grown tree Typical stopping conditions for a node: Stop if all instances belong to the same class Stop if all the attribute values are the same More restrictive conditions: Stop if number of instances is less than some user-specified threshold Stop if class distribution of instances are independent of the available features (e.g., using χ 2 test) Stop if expanding the current node does not improve impurity measures (e.g., Gini or information gain). 11/84
12 Post-pruning Grow decision tree to its entirety Trim the nodes of the decision tree in a bottom-up fashion If generalization error improves after trimming, replace subtree by a leaf node. Class label of leaf node is determined from majority class of instances in the sub-tree 12/84
13 En iyi bölen ölçütleri - Değerlendirme Karar ağacı oluştururken en iyi bölen nitelik için 3 tane ölçüt gördük Information gain: Çok çeşitli değerler (multivalued) alan nitelikleri seçme eğilimindedir Gain ratio: Dengesiz bölünmeler yapma eğilimindedir (one partition is much smaller than the others) Gini index: Çok çeşitli değerler (multivalued) alan nitelikleri seçme eğilimindedir Dengeli bölünmeler yapar (hem boyut hem de saflık açısından) Sınıf sayısı çok olduğunda iyi çalışmayabilir 13/84
14 Karar Ağacı Kullanarak Sınıflandırma - Değerlendirme Avantajları: Karar ağacı oluşturmak zahmetsiz Küçük ağaçları yorumlamak kolay Anlaşılabilir kurallar oluşturulabilir Sürekli ve ayrık nitelik değerleri için kullanılabilir Dezavantajları: Sürekli nitelik değerlerini tahmin etmekte çok başarılı değil Sınıf sayısı fazla ve öğrenme kümesi örnekleri sayısı az olduğunda model oluşturma çok başarılı değil Zaman ve yer karmaşıklığı öğrenme kümesi örnekleri sayısına (q), nitelik sayısına (h) ve oluşan ağacın yapısına bağlı. Büyük öğrenme kümeleri için ağaç oluşturma karmaşıklığı fazla, ağaç budama karmaşıklığı fazla 14/84
15 İstatistik ve Olasılık 15/84
16 Random Variables / Rasgele Değişkenler Random variable olasılığın temel elemanı. Çıktısı belirsizlik içeren olay havaya atılan para olayı bir random variable dır. 16/84
17 Boolean Random Variables Boolean random variables True ya da false değeri alırlar Bir olayın olması ya da olmaması Örnek (A bir Boolean random variable): A = Paranın yazı gelmesi A = Bugün yağmur yağacak 17/84
18 Olasılık P(A = true) ifadesi A = true olma olasılığını ifade eder. Olasılık: It is the relative frequency with which an outcome would be obtained if the process were repeated a large number of times under similar conditions Kırmızı ve mavi alanın toplamı 1 P(A = true) P(A = false) 18/84
19 Koşullu olasılık P(A = true B = true) = B nin doğru olduğu durumların kaç tanesinde aynı zamanda A da doğru. Probability of A conditioned on B or Probability of A given B P(F = true) P(H = true) H = Baş ağrısı F = Nezle olmak P(H = true) = 1/10 P(F = true) = 1/40 P(H = true F = true) = 1/2 19/84
20 Koşullu olasılık P(A = true, B = true) ifadesi A = true ve B = true olma olasılığını ifade eder. P(F = true) P(H = true) P(H=true F=true) Area of "H and F" region = Area of "F" region P(H = true,f = true) = P(F = true) P(X Y)=P(X,Y)/P(Y) 20/84
21 Ortak olasılık dağılımı Örnek: P(A = true, B = true, C = true) Her kombinasyon için sonuç gösterilir Tüm kombinasyonların olasılıklarının toplamı 1 dir A B C P(A,B,C) false false false 0.1 false false true 0.2 false true false 0.05 false true true 0.05 true false false 0.3 true false true 0.1 true true false 0.05 true true true 0.15 Toplam 1 21/84
22 Ortak olasılık dağılımı Ortak olasılık dağılım tablosu oluşturulduktan sonra A, B, and C yi içeren tüm olayların olasılığı hesaplanabilir. A B C P(A,B,C) false false false 0.1 false false true 0.2 false true false 0.05 false true true 0.05 true false false 0.3 true false true 0.1 true true false 0.05 true true true 0.15 Örnek: P(A=true) = sum of P(A,B,C) in rows with A=true P(A=true, B = true C=true) = P(A = true, B = true, C = true) / P(C = true) 22/84
23 Ortak olasılık dağılımı: Problem Çok fazla hesaplanacak olasılık var. k tane Boolean random variable için 2 k tane olasılık hesaplanır. Azaltmak için bağımsızlık konsepti kullanılır A B C P(A,B,C) false false false 0.1 false false true 0.2 false true false 0.05 false true true 0.05 true false false 0.3 true false true 0.1 true true false 0.05 true true true /84
24 Bağımsızlık A ve B değişkenleri aşağıdakilerden birisi doğru olduğunda bu iki olay birbirinden bağımsızdır. P(A,B) = P(A) P(B) P(A B) = P(A) P(B A) = P(B) A nın sonucunu bilmek B hakkında hiçbir bilgi vermiyor. 24/84
25 Bağımsızlık Neden bağımsızlık işe yarıyor? Bir parayı n defa attığımızı ve P (C 1,, C n ) yi hesaplamak istediğimizi düşünelim. Para atışları bağımsız değilse, 2 n tane değer tabloda hesaplanmak zorunda. Para atışları bağımsız ise, sadece P( C n = 1,..., Cn) P( C i ) i= 1 değerini hesaplamak yetecektir. 25/84
26 Koşullu bağımsızlık Aşağıdakilerden birisi doğru ise A ve B değişkenleri C ye göre koşullu olarak bağımsızdır. P(A, B C) = P(A C) P(B C) P(A B, C) = P(A C) P(B A, C) = P(B C) 26/84
27 İstatistiksel Modelleme - Bayes Bayes teoremini kullanan istatistiksel sınıflandırıcı Örneklerin hangi sınıfa hangi olasılıkla ait olduklarını hesaplar Naïve Bayes sınıflandırıcı niteliklerin hepsi aynı derecede önemli nitelikler birbirinden bağımsız bir niteliğin değeri başka bir nitelik değeri hakkında bilgi içermiyor 27/84
28 Bayesian Teori X veri örneği: sınıf etiketi bilinmiyor (Sadece age ve income niteliklerinden oluşan bir kişi: age:youth,income:medium ) H bir hipotez: X kişisi C sınıfına aittir Sınıflandırma: P(H X) değerini (X veri örneği için H hipotezinin tutma ihtimalini) belirlemek. P(H) önceki olasılık (prior probability) Herhangi bir örnek için hipotezin tutma olasılığı. Herhangi bir örneğin bilgisayar alacaklar sınıfına ait olma olasılığı (diğer niteliklerden bağımsız olarak) P(X) X in olma olasılığı Veri setindeki herhangi bir insanın youth ve medium income sahibi olma olasılığı. P(X H) sonraki olasılık (posteriori probability), Hipotez H nin tutması durumunda X in olma olasılığı X in bilgisayar alacaklar sınıfında olduğu biliniyor, X in youth ve medium income sahibi olma olasılığı. 28/84
29 Bayesian Teori Gözlemlenen örnek veri X için, hipotez H nin sonraki olasılığı, P(H X), Bayes teoremi ile şöyle ifade edilir P ( H X) = P( X H) P( H) P( X) Veri madenciliği açısından, eğer P(C i X) diğer bütün P(C k X) değerlerinden büyükse örnek veri X C i sınıfına aittir Çok sayıda olasılığı önceden kestirmek gerekiyor, çok fazla hesap gerektirir
30 Naïve Bayes Sınıflandırıcı X=(x 1,x 2,...x n ) örneğinin C sınıfında olma olasılığı (P(C X)) nedir? P( X C ) P( C ) P ( C X) = i i değerini en büyük değere getir i P( X) P(X) her bir sınıf için sabit P( C X ) = P( X C ) P( C ) i i i değerini en büyük değere getir
31 Naïve Bayes Sınıflandırıcı Basit bir kabul: nitelikler birbirinden bağımsız n P( X Ci) = P( x k = 1 Ci) = Kategorik veri için P( x P(C i )= S i / S, S i : C i sınıfına ait örneklerin sayısı P(x k C i )=s ik / s i Hesaplama maliyetini azaltıyor, sadece sınıf dağılımları hesaplanıyor Naïve: nitelikler bağımsız k 1 Ci) P( x 2 Ci)... P( x n Ci)
32 Naïve Bayes Sınıflandırıcı Sürekli veri için P(x k C i ) Gaussian dağılımı kullanılarak bulunur (µ=ortalama, σ=standart sapma) g ( x µ ) 1 2 2σ ( x, µ, σ ) = e 2πσ 2 P( X Ci) = g( x k, µ C i, σ Ci ) 32/84
33 Örnek (Kategorik veri) Sınıf: C1:buys_computer = yes C2:buys_computer = no Örnek veri X = (age = youth, Income = medium, Student = yes Credit_rating = Fair) 33/60
34 Örnek (devam) P(C i ): P(buys_computer = yes ) = 9/14 = 0.64 P(buys_computer = no ) = 5/14= Her sınıf için P(X k C i ) yi hesapla P(age = youth buys_computer = yes ) = 2/9 = P(age = youth buys_computer = no ) = 3/5 = 0.6 P(income = medium buys_computer = yes ) = 4/9 = P(income = medium buys_computer = no ) = 2/5 = 0.4 P(student = yes buys_computer = yes) = 6/9 = P(student = yes buys_computer = no ) = 1/5 = 0.2 P(credit_rating = fair buys_computer = yes ) = 6/9 = P(credit_rating = fair buys_computer = no ) = 2/5 = 0.4 X = (age =youth, income = medium, student = yes, credit_rating = fair) P(X C i ) : P(X buys_computer = yes ) = x x x = P(X buys_computer = no ) = 0.6 x 0.4 x 0.2 x 0.4 = P(X C i )*P(C i ) : P(X buys_computer = yes ) * P(buys_computer = yes ) = P(X buys_computer = no ) * P(buys_computer = no ) = Bu yüzden, X örnegi buys_computer = yes sınıfına aittir. 34/84
35 Örnek-2 X={E,65,172} verisinin beden sınıfını bayesian kuralına göre bulunuz? 35/84
36 Örnek-2 (devam) Veri önişleme - boy arası 1. grup arası 2. grup arası 3. grup arası 4. grup 190 ve üzeri 5. grup Veri önişleme -kilo arası 1. grup arası 2. grup arası 3. grup arası 4. grup arası 5. grup 99 ve üzeri 6. grup Yeni tablo 36/84
37 Örnek-2 (devam) Kategorik hale getirildikten sonra: X={E, 65,172} à X={E,2,3} P(C j ) değerleri P(küçük)=4/15=0.267, P(orta)=8/15=0.534, P(büyük)=3/15=0.2 Her sınıf için P(X k C i ) yi hesapla P(E Orta) = 3/8 = P(E Küçük) = 3/4 = 0.75 P(E Büyük) = 2/3 = P(3 Orta) = 2/8 = 0.25 P(3 Küçük) = 1/4 = 0.25 P(3 Büyük) = 1/3 = P(2 Orta) = 4/8 = 0.5 P(2 Küçük) = 2/4 = 0.5 P(2 Büyük) = 0/3 = 0 X = (Cinsiyet =E, Kilo = 2, Boy = 3) P(X C i ) : P(X Beden = Orta ) = 0.375x 0.25 x 0.5 = P(X Beden= Küçük ) = 0.75 x 0.25 x 0.5 = P(X Beden= Büyük ) = x x 0 = 0 P(X C i )*P(C i ) : P(X Beden = Orta ) * P(Beden = Orta ) = 0.047*0.534= P(X Beden = Küçük ) * P(Beden = Küçük ) = 0.093*0.267= P(X Beden = Büyük ) * P(Beden = Büyük ) = 0*0.2= 0 X örneği Orta bedene sahiptir. 37/84
38 Olasılığın Sıfır Olması Naïve Bayesian prediction her bir olasılığın sıfırdan büyük olmasını gerektirir, aksi taktirde bütün olasılık sıfır olur P( X Ci) = k n = P( xk Ci) 1 Örnek: 1000 örneklik bir veri setinde, eğer income=low (0), income= medium (990), ve income = high (10) ise Laplacian correction (Laplacian estimator) kullanılır Her bir duruma 1 eklenir Prob(income = low) = 1/1003 Prob(income = medium) = 991/1003 Prob(income = high) = 11/1003 Veri seti cok büyük olduğu icin çok farketmez
39 Bayes Sınıflandırıcılar - Değerlendirme Avantajları: gerçeklemesi kolay çoğu durumda iyi sonuçlar Dezavantajları varsayım: sınıf bilgisi verildiğinde nitelikler bağımsız gerçek hayatta değişkenler birbirine bağımlı değişkenler arası ilişki modellenemiyor Çözüm: Bayes ağları 39/84
40 Bayes Ağları Bir hastanın akciğer şarbonu olup olmadığı araştırılıyor. Hastada aşağıdaki semptomlar gözleniyor: Öksürme Ateş Nefes almada güçlük 40/42
41 Bayes Ağları Bu semptomlar dahilinde hastanın akciğer şarbonu olma ihtimalini bulmaya çalışıyoruz. Semptomlara rağmen %100 emin olmadığımız için bir belirsizlik var. 41/42
42 Bayes Ağları X-ray sonucunda hastanın akciğerleri arasında genişleme olduğunu gördünüz. Şimdi hastanın şarbon olma olasılığına olan inancınız daha yüksek. Gözlemleriniz hastanın şarbon olmasına dair fikriniz etkiledi. Reasoning with uncertainty 42/42
43 Bayes Ağları Şarbon Öksürük Ateş Nefes Darlığı Geniş Akciğer Boşluğu 43/84
44 Örnek Bayes Ağı Bir Bayes Ağı aşağıdakilerden oluşur 1. Directed Acyclic Graph A B C D 2. Graphdaki her düğüm için bir tablo A P(A) A B P(B A) B D P(D B) B C P(C B) false 0.6 false false 0.01 false false 0.02 false false 0.4 true 0.4 false true 0.99 false true 0.98 false true 0.6 true false 0.7 true false 0.05 true false 0.9 true true 0.3 true true 0.95 true true /60
45 A Directed Acyclic Graph Her düğüm bir random variable A A is a parent of B B C D B den C ye olan ok işareti B nin C üzerinde bir etkisi olduğunu gösterir 45/60
46 Her düğüm için bir tablo A P(A) false 0.6 true 0.4 A B P(B A) false false 0.01 false true 0.99 true false 0.7 true true 0.3 Her düğüm X i Parentlerinin etkisini gösteren P(X i Parents(X i )) koşullu olasılık tablosuna sahiptir. B C P(C B) false false 0.4 false true 0.6 A true false 0.9 true true 0.1 B C D B D P(D B) false false 0.02 false true 0.98 true false 0.05 true true /60
47 Bayes Ağları İki önemli özelliğe sahiptirler: 1. Değişkenler arasındaki koşullu olasılık ilişkilerini bir graph yapısı üzerinde tutar 2. Değişkenler arasındaki Ortak olasılık dağılımının kompakt bir gösterimidir. 47/84
48 Koşullu bağımsızlık Markov koşulu given its parents (P 1, P 2 ), a node (X) is conditionally independent of its nondescendants (ND 1, ND 2 ) olduğunu gösterir. P 1 P 2 ND 1 X ND 2 C 1 C 2 48/84
49 Ortak olasılık dağılımı Markov koşuluna göre Bayes ağındaki tüm X i düğümlerinin ortak olasılığı aşağıdaki formüle göre bulunabilir: n P( X1 = x1,..., X n = xn) = P( X i = xi Parents ( X i )) i= 1 Parents(X i ) ifadesi graphda X i nin Parentleridir 49/84
50 Bayes Ağı: Örnek P(A = true, B = true, C = true, D = true) hesaplanacak: P(A = true, B = true, C = true, D = true) = P(A = true) * P(B = true A = true) * P(C = true B = true) * P( D = true B = true) = (0.4)*(0.3)*(0.1)*(0.95) A B C D 50/84
51 Bayes Ağı: Örnek P(A = true, B = true, C = true, D = true) = P(A = true) * P(B = true A = true) * P(C = true B = true)* P( D = true B = true) = (0.4)*(0.3)*(0.1)*(0.95) Graph yapısından A Tablolardan alınan değerler B C D 51/84
52 Çıkarım Bayes ağlarında olasılık hesabı çıkarım olarak adlandırılır. Genel ifadesi: P( X E ) E = Belirtiler / evidence variable(s) X = Sorgu / query variable(s) 52/84
53 Çıkarım Şarbon Öksürük Ateş Nefes Darlığı Geniş Akciğer Boşluğu Örnek: P( şarbonvar = true ateşvar = true, öksürükvar = true) 53/84
54 Ağ oluşturma Bayes ağı nasıl oluşturulur? Alandaki bir uzman Veri incelemesi 54/84
55 Diğer Sınıflandırma Yöntemleri Örnek Tabanlı Yöntemler (tembel-lazy yöntemler) Öğrenme kümesini saklar. Sınıflandırılacak yeni bir örnek geldiğinde öğrenme kümesi sınıf etiketini öngörmek için kullanılır Örnek yöntemler: k-en yakın komşu yöntemi (k-nearest neighbor approach) Her veri uzayda bir nokta olarak tanımlanır. Case-based reasoning yöntemi Uses symbolic representations and knowledge-based inference 55/84
56 k-en yakın komşu yöntemi (KNN) Unknown record Requires three things The set of stored records Distance Metric to compute distance between records The value of k, the number of nearest neighbors to retrieve 56/42
57 En yakın komşu tanımı X X X (a) 1-nearest neighbor (b) 2-nearest neighbor (c) 3-nearest neighbor x verisinin k-en yakın komşusu x e uzaklığı en küçük olan k veridir. 57/42
58 k-en yakın komşu yöntemi Temel yaklaşım: Sınıflandırılmak istenen örneğe en yakın örnekleri bul. Örnek: ördek gibi yürüyor, ördek gibi bağırıyor => büyük olasılıkla ördek 58/84
59 k-en yakın komşu yöntemi Nesneler arası yakınlıklar (uzaklıklar) öklid uzaklığı ile ifade edilir. Nitelik değerleri normalize edilerek kullanılır. Nümerik olmayan nitelikler? k değeri nasıl belirlenecek? 59/84
60 k-en yakın komşu yöntemi Bütün örnekler n-boyutlu uzayda bir noktaya karşı düşürülür Nesneler arasındaki uzaklık (Öklid uzaklığı) dist(x 1, X 2 ) Öğrenilen fonksiyon ayrık değerli veya gerçel değerli olabilir Ayrık değerli fonksiyonlarda, k komşu algoritması öğrenme örneğinde en çok görülen X q örneğine en yakın sınıf değerini verir Sürekli değerli fonksiyonlarda en yakın k öğrenme örneğinin ortalaması alınır _ + _. x q + + X q örneği 1-en yakın komşuya göre pozitif olarak, 5-en yakın komşuya göre negatif olarak sınıflandırılır 60/84
61 k-en yakın komşu yöntemi Compute distance between two points: Euclidean distance /Öklid uzaklığı d( p, q) = i ( p q i i ) 2 Determine the class from nearest neighbor list take the majority vote of class labels among the k-nearest neighbors Weigh the vote according to distance weight factor, w = 1/d 2 61/84
62 k-en yakın komşu yöntemi Choosing the value of k: If k is too small, sensitive to noise points If k is too large, neighborhood may include points from other classes X 62/84
63 k-en yakın komşu yöntemi Scaling issues Attributes may have to be scaled to prevent distance measures from being dominated by one of the attributes Example: height of a person may vary from 1.5m to 1.8m weight of a person may vary from 90lb to 300lb income of a person may vary from $10K to $1M 63/84
64 k-en yakın komşu yöntemi Problem with Euclidean measure: High dimensional data curse of dimensionality Solution: Normalize the vectors to unit length 64/84
65 Diğer Sınıflandırma Yöntemleri Yapay Sinir Ağları ile Sınıflandırma İnsan beynindeki sinir hücrelerinin işlevini modelleyen bir yapı Genetik Algoritmalar Optimizasyon amaçlı. Bir başlangıç çözümü öneriyor, tekrarlanan her ara adımda daha iyi çözüm üretmeye çalışıyor. Doğal evrime ve en iyi olanın yaşamını sürdürmesine dayanıyor 65/84
66 Yapay Sinir Ağı (YSA) X 1 X 2 X 3 Y Input X 1 X 2 X 3 Black box Output Y Eğer girdilerden (X) en az 2 tanesi 1 ise çıktı Y=1 66/84
67 Yapay Sinir Ağı (YSA) Girdiler için ağırlıklandırma yapılabilir. X 1 X 2 X 3 Y Input nodes X 1 X 2 X 3 Black box S 0.3 t=0.4 Output node Y Y = I( 0.3X X X 3 1 if z is true where I( z) = 0 otherwise 0.4 > 0) 67/84
68 Yapay Sinir Ağı (YSA) Model bağlı düğümler ve ağırlıklandırılmış bağlantılardan oluşur Çıktı değeri girdilerin bağlantılarla tanımlanmış toplamına eşittir Çıktı değeri daha önceden tanımlı bir eşik değer ile karşılaştırılarak karar verilir Input nodes X 1 X 2 X 3 Y Black box w 2 w 3 w 1 Perceptron Model Y = I( wi X i t) i = sign( wi X i t) i S t Output node Y or
69 Yapay Sinir Ağı (YSA) Genel Yapı x 1 x 2 x 3 x 4 x 5 Input Layer Input Neuron i Output Hidden Layer I 1 I 2 I 3 w i1 w i2 w i3 S i Activation function g(s i ) O i O i threshold, t Output Layer y YSA nın eğitilmesi düğümlerin ağırlık değerlerinin öğrenilmesini içerir 69/60
70 YSA Öğrenmesi Başlangıç ağırlık değerlerini belirle (w 0, w 1,, w k ) Ağırlıkları YSA çıktısı öğrenme kümesinde yer alan örneklerin sınıf etiketleri ile uyumlu olacak şekilde güncelle Amaç fonksiyonu (Objective function): E = i [ Y f ( w, X )] 2 i i i Amaç fonksiyonunu en küçük yapacak w i ağırlıklarını belirle Örnek: backpropagation algorithm 70/84
71 Diğer Sınıflandırma Yöntemleri Genetik Algoritmalar Optimizasyon amaçlı. Bir başlangıç çözümü öneriyor, tekrarlanan her ara adımda daha iyi çözüm üretmeye çalışıyor. Doğal evrime ve en iyi olanın yaşamını sürdürmesine dayanıyor 71/84
72 Diğer Sınıflandırma Yöntemleri Bulanık Küme Sınıflandırıcılar Bulanık mantık 0.0 ve 1.0 arasında gerçel değerler kullanarak üyelik dereceleri hesaplar Nitelik değerleri bulanık değerlere dönüştürülür Kurallar kümesi oluşturulur Yeni bir örneği sınıflandırmak için birden fazla kural kullanılır Her kuraldan gelen sonuç toplanır 72/84
73 Sınıflandırma Modelini Değerlendirme Model başarımını değerlendirme ölçütleri nelerdir? Hata oranı Anma Duyarlılık F-ölçütü ROC eğrileri Modelin sınıfladırma yeteneğine odaklanılır. Hız ölçeklenebilirlik gibi diğer metrikler ikincil öneme sahiptir. 73/84
74 Sınıflandırma Modelini Değerlendirme Sınıflandırma yöntemlerinin hatalarını ölçme başarı: örnek doğru sınıfa atandı hata: örnek yanlış sınıfa atandı hata oranı: hata sayısının toplam örnek sayısına bölünmesi Hata oranı sınama kümesi kullanılarak hesaplanır 74/84
75 Sınıflandırma Modelini Değerlendirme Model başarımını değerlendirme ölçütleri modelin ne kadar doğru sınıflandırma yaptığını ölçer hız, ölçeklenebilirlik gibi özellikleri değerlendirmez Karışıklık matrisi: Tahmin edilen sınıf Class=Yes Class=No a: TP (true positive) b: FN (false negative) c: FP (false positive) d: TN (true negative) Gerçek sınıf Class=Yes Class=No a (TP) c (FP) b (FN) d (TN) 75/84
76 Sınıflandırma Modelini Değerlendirme Gerçek sınıf Tahmin edilen sınıf Class=Yes Class=No Class=Yes a (TP) c (FP) Class=No b (FN) d (TN) En çok kullanılan metrik: doğruluk (accuracy) a + Accuracy = a + b + Hata oranı = 1- Accuracy d TP + TN = c + d TP + TN + FP + FN 76/84
77 Sınıflandırma Modelini Değerlendirme Hangi sınıflandırıcı daha iyi? B ve C, A dan daha iyi bir sınıflandırıcı B, C den daha iyi bir sınıflandırıcı mı? 77/84
78 Limitation of Accuracy Consider a 2-class problem Number of Class 0 examples = 9990 Number of Class 1 examples = 10 If model predicts everything to be class 0, accuracy is 9990/10000 = 99.9 % Accuracy is misleading because model does not detect any class 1 example 78/84
79 Cost Matrix C(i j) PREDICTED CLASS Class=Yes Class=No ACTUAL CLASS Class=Yes C(Yes Yes) C(No Yes) Class=No C(Yes No) C(No No) C(i j): Cost of misclassifying class j example as class i 79/42
80 Computing Cost of Classification Cost Matrix ACTUAL CLASS PREDICTED CLASS C(i j) Model M 1 PREDICTED CLASS Model M 2 PREDICTED CLASS ACTUAL CLASS ACTUAL CLASS Accuracy = 80% Cost = 3910 Accuracy = 90% Cost = /42
81 Cost-Sensitive Measures Precision (p) = a a Recall (r) = a + b F - measure (F) = a + c 2rp r + p = 2a 2a + b + Gerçek c sınıf Class=Yes Class=No Tahmin edilen sınıf Class=Yes a (TP) c (FP) Class=No b (FN) d (TN) Precision is biased towards C(Yes Yes) & C(Yes No) Recall is biased towards C(Yes Yes) & C(No Yes) F-measure is biased towards all except C(No No) Weighted Accuracy = w a 1 w a w b + 2 w d 4 w c + 3 w d 4 81/42
82 Classifier Evaluation Metrics: Example Actual Class\Predicted class cancer = yes cancer = no Total cancer = yes cancer = no Total Duyarlılık - Precision = 90/230 = 39.13% Pozitif olarak bulunmuş örneklerden yüzde kaçı gerçekten pozitif Recall = 90/300 = 30.00% Pozitif örneklerden yüzde kaçı doğru olarak bulunabilmiş. 82
83 Sınıflandırma Modelini Değerlendirme A modeli B modelinden daha iyi recall ve duyarlılık (precision) değerine sahipse A modeli daha iyi bir sınıflandırıcıdır. Duyarlılık (precision) ve recall arasında ters orantı var. 83/84
84 Sensitivity - specificity sensitivity or true positive rate (TPR) Daha çok biomedikal alanında kullanılır Recall Sensitivity=TP/(TP+FN) = a/(a+b) Hasta birini hasta olarak etiketleme olasılığı specificity (SPC) or true negative rate (TNR) Specifity= TN/(TN+FP) = d/(c+d) Hasta olmayan birisini hasta değil olarak etiketleme olasılığı Tahmin edilen sınıf Class=Yes Class=No Gerçek sınıf Class=Yes Class=No a (TP) c (FP) b (FN) d (TN) 84/84
85 Receiver Operating Characteristic (ROC) Eğrisi 85/84
86 Non-diseased cases Diseased cases Threshold Test result value or subjective judgement of likelihood that case is diseased
87 Non-diseased cases Diseased cases more typically: Test result value or subjective judgement of likelihood that case is diseased
88 Non-diseased cases Diseased cases Threshold TPF, sensitivity less aggressive mindset FPF, 1-specificity
89 Non-diseased cases Diseased cases Threshold TPF, sensitivity moderate mindset FPF, 1-specificity
90 Non-diseased cases Diseased cases Threshold TPF, sensitivity more aggressive mindset FPF, 1-specificity
91 Non-diseased cases Entire ROC curve Diseased cases Threshold TPF, sensitivity FPF, 1-specificity
92 Entire ROC curve TPF, sensitivity Reader Skill and/or Level of Technology FPF, 1-specificity
93 Sınıflandırma Modelini Değerlendirme Doğruluk en basit ölçüt Duyarlılık ve recall daha iyi ölçme sağlıyor Model A nın duyarlılığı model B den daha iyi ancak model B nin recall değeri model A dan daha iyi olabilir. 93/84
94 Sınıflandırma Modelini Değerlendirme F-ölçütü: Duyarlılık ve recall değerlerinin harmonik ortalamasıdır. F-ölçütü= 2*duyarlılık*recall duyarlılık + recall Büyük F-ölçütü değeri duyarlılık ve recall değerlerinin iksinin birden büyük olması anlamına gelir. 94/84
Veri Madenciliği. Bölüm 6. Sınıflandırma 2
Bölüm 6. Sınıflandırma 2 http://ceng.gazi.edu.tr/~ozdemir Karar Ağacı Örnek Algoritma: ID3 Bütün nitelikler ayrık Bir düğüm oluştur N: Eğer örneklerin hepsi C sınıfına ait ise, N düğümü C etiketli yaprak
DetaylıEğitim seti (training set) sınıflandırma modelinin elde edileceği kayıtları içerir
sınıflandırma: temel kavramlar, karar ağaçları ve model değerlendirme Sınıflandırma : Tanım Eğitim seti (training set) sınıflandırma modelinin elde edileceği kayıtları içerir Eğitim setindeki her kayıt
DetaylıVERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr
VERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma
DetaylıGözetimli & Gözetimsiz Öğrenme
Bölüm 5. Sınıflandırma 1 http://ceng.gazi.edu.tr/~ozdemir Gözetimli & Gözetimsiz Öğrenme Predictive Data Mining vs. Descriptive Data Mining Gözetimli (Supervised) öğrenme= sınıflandırma (clasification)
DetaylıKonular VERİ MADENCİLİĞİ. Örnek Tabanlı Yöntemler. En Yakın Komşu Sınıflandırıcı. En Yakın Komşu Yöntemi. Farklı Sınıflandırma Yöntemleri
VERİ MADENCİLİĞİ Farklı Sınıflandırma Yöntemleri Yrd. Doç. Dr. Şule Gündüz Öğüdücü Örnek tabanlı yöntemler ken Yakın Komşu Yöntemi Genetik Algoritmalar Karar Destek Makinaları Bulanık Küme Sınıflandırıcılar
DetaylıKonular VERİ MADENCİLİĞİ. Örnek Tabanlı Yöntemler. En Yakın Komşu Sınıflandırıcı. En Yakın Komşu Yöntemi. Farklı Sınıflandırma Yöntemleri
Konular VERİ MADENCİLİĞİ Farklı Sınıflandırma Yöntemleri Yrd. Doç. Dr. Şule Gündüz Öğüdücü Örnek tabanlı yöntemler ken Yakın Komşu Yöntemi Genetik Algoritmalar Bulanık Küme Sınıflandırıcılar Öngörü Eğri
DetaylıWeb Madenciliği (Web Mining)
Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Sınıflandırıcıların Değerlendirilmesi Skorlar Karışıklık matrisi Accuracy Precision Recall
DetaylıK En Yakın Komşu Methodu (KNearest Neighborhood)
K En Yakın Komşu Methodu (KNearest Neighborhood) K-NN algoritması, Thomas. M. Cover ve Peter. E. Hart tarafından önerilen, örnek veri noktasının bulunduğu sınıfın ve en yakın komşunun, k değerine göre
DetaylıYZM 3217 YAPAY ZEKA DERS#9: ÖĞRENME VE SINIFLANDIRMA
YZM 3217 YAPAY ZEKA DERS#9: ÖĞRENME VE SINIFLANDIRMA Makine Öğrenmesi Çok büyük miktardaki verilerin elle işlenip analiz edilmesi mümkün değildir. Bu tür problemlere çözüm bulmak amacıyla makine öğrenmesi
DetaylıVeri Madenciliği. Bölüm 5. Sınıflandırma 1. Doç. Dr. Suat Özdemir.
Bölüm 5. Sınıflandırma 1 http://ceng.gazi.edu.tr/~ozdemir Gözetimli & Gözetimsiz Öğrenme Predictive Data Mining vs. Descriptive Data Mining Gözetimli (Supervised) öğrenme= sınıflandırma (clasification)
DetaylıWeb Madenciliği (Web Mining)
Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Denetimli Öğrenmenin Temelleri Karar Ağaçları Entropi ID3 Algoritması C4.5 Algoritması Twoing
DetaylıInstance Based Learning k-nn. YZM 3226 Makine Öğrenmesi
Instance Based Learning k-nn YZM 3226 Makine Öğrenmesi Outline Eager vs. Lazy Learning Instance Based Learning K-Nearest Neighbor Algorithm Nearest Neighbor Approach Basic k-nearest Neighbor Classification
DetaylıVERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN
VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr İçerik Sınıflandırma yöntemleri Karar ağaçları ile sınıflandırma Entropi Kavramı ID3 Algoritması C4.5
DetaylıTANI TESTLERİNİN İSTATİSTİKSEL DEĞERLENDİRİLMESİ
TANI TESTLERİNİN İSTATİSTİKSEL DEĞERLENDİRİLMESİ İÇERİK Tanı testi Altın Standart Test Tanı Testi ile Altın Standart Testin Karşılaştırması İstatistiksel Değerlendirme Duyarlık, Seçicilik,Yanlış Negatif
DetaylıTanı Testlerinin Değerlendirilmesi. ROC Analizi. Prof.Dr. Rian DİŞÇİ
Tanı Testlerinin Değerlendirilmesi ROC Analizi Prof.Dr. Rian DİŞÇİ İstanbul Üniversitesi, Onkoloji Enstitüsü Kanser Epidemiyolojisi Ve Biyoistatistik Bilim Dalı Tanı Testleri Klinik çalışmalarda, özellikle
DetaylıDr. Hidayet Takçı. Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1
Besinci Saat Sınıflandırma: Alternatif Teknikler Dr. Hidayet Takçı Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1 Kural tabanlı Sınıflayıcı if then şeklinde ifade edilebilecek kurallarının
DetaylıBAYES ÖĞRENMESİ BİLECİK ÜNİVERSİTESİ. Araş. Gör. Nesibe YALÇIN. Yapay Zeka-Bayes Öğrenme
BAYES ÖĞRENMESİ Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ Yapay Zeka-Bayes Öğrenme 1 İÇERİK Bayes Teoremi Bayes Sınıflandırma Örnek Kullanım Alanları Avantajları Dezavantajları Yapay Zeka-Bayes Öğrenme
DetaylıBüyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)
Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data) M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Bu dersin sunumları, The Elements of Statistical Learning: Data
DetaylıWeb Madenciliği (Web Mining)
Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Denetimsiz Öğrenmenin Temelleri Kümeleme Uzaklık Fonksiyonları Öklid Uzaklığı Manhattan
DetaylıHafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti
Hafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr
DetaylıK-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi
K-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi Erdal TAŞCI* Aytuğ ONAN** *Ege Üniversitesi Bilgisayar Mühendisliği Bölümü **Celal Bayar Üniversitesi
Detaylıİstatistik 1. Bölüm 5 Olasılık Teorisi ve Kesikli Olasılık Dağılımları. Ankara Üniversitesi SBF, GYY
İstatistik 1 Bölüm 5 Olasılık Teorisi ve Kesikli Olasılık Dağılımları Bu Bölümde İşlenecek Konular Temel Olasılık Teorisi Örnek uzayı ve olaylar, basit olasılık, birleşik olasılık Koşullu Olasılık İstatistiksel
DetaylıEğiticili (supervised) öğrenme: Sınıflandırma (classification) Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğu bilinir
Eğiticili (supervised) öğrenme: Sınıflandırma (classification) Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğu bilinir Eğiticisiz (unsupervised) öğrenme: Kümeleme (clustering) Hangi nesnenin hangi
DetaylıVERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN
VERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr İçerik Kümeleme İşlemleri Kümeleme Tanımı Kümeleme Uygulamaları Kümeleme Yöntemleri Kümeleme (Clustering) Kümeleme birbirine
DetaylıVERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN
VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma
DetaylıUzaktan Algılama Teknolojileri
Uzaktan Algılama Teknolojileri Ders 11 Hiperspektral Görüntülerde Kümeleme ve Sınıflandırma Alp Ertürk alp.erturk@kocaeli.edu.tr Sınıflandırma Sınıflandırma işleminin amacı, her piksel vektörüne bir ve
DetaylıHafta 03/04 - Uzaklık/Benzerlik - En Yakın Komşular - Karar Ağaçları
Hafta 03/04 - Uzaklık/Benzerlik - En Yakın Komşular - Karar Ağaçları BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr
Detaylı127 - Twoing Algoritması ile Sınıflandırma Kalp Hastalığı Uygulaması MEHMET AKİF ERSOY ÜNİVERSİTESİ İLHAN UYSAL MEHMET BİLEN SAMİ ULUKUŞ
127 - Twoing Algoritması ile Sınıflandırma Kalp Hastalığı Uygulaması MEHMET AKİF ERSOY ÜNİVERSİTESİ İLHAN UYSAL MEHMET BİLEN SAMİ ULUKUŞ Veri Madenciliği : Bir sistemin veri madenciliği sistemi olabilmesi
DetaylıTANI TESTLERINE GIRIŞ & ROC ANALİZİ
TANI TESTLERINE GIRIŞ & ROC ANALİZİ Yrd.Doç.Dr. Selçuk Korkmaz Trakya Üniversitesi Tıp Fakültesi Biyoistatistik Anabilim Dalı Turcosa Analitik Çözümlemeler selcukorkmaz@gmail.com ÇOCUK NEFROLOJİ DERNEĞİ
Detaylıtree) nedir? Karar Ağacı (Decision Decisiontree
Karar Ağacı (Decision Decisiontree tree) nedir? Bir işletme yönetimi tarafından tercihlerin, risklerin, kazançların, hedeflerin tanımlanmasında yardımcı olabilen ve birçok önemli yatırım alanlarında uygulanabilen,
DetaylıDr. Hidayet Takçı. Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1
Dördüncü Saat sınıflandırma: temel kavramlar, karar ağaçları ve model değerlendirme Dr. Hidayet Takçı Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1 Sınıflandırma : Tanım Eğitim seti (training
DetaylıRegresyon ve Sınıflandırma
Regresyon ve Sınıflandırma p Temel fark n n Sınıflandırmada sıralı olmayan kategorik bir hedef değişken vardır. Regresyon probleminde sürekli ya da sıralı bir hedef değişken vardır. p Tüm regresyon yaklaşımları,
DetaylıVERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN
VERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma Kümeleme
DetaylıHafta 05 - Karar Ağaçları/Kümeleme
BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr İstanbul Şehir Üniversitesi 2018 - Bahar İçindekiler
DetaylıGörüntü Sınıflandırma
Görüntü Sınıflandırma Chapter 12 https://www.google.com.tr/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0 CBwQFjAA&url=http%3A%2F%2Ffaculty.une.edu%2Fcas%2Fszeeman%2Frs%2Flect%2FCh%2 52012%2520Image%2520Classification.ppt&ei=0IA7Vd36GYX4Uu2UhNgP&usg=AFQjCNE2wG
Detaylıİlk Yapay Sinir Ağları. Dr. Hidayet Takçı
İlk Yapay Sinir Ağları Dr. Hidayet htakci@gmail.com http://htakci.sucati.org Tek katmanlı algılayıcılar (TKA) Perceptrons (Rosenblat) ADALINE/MADALINE (Widrow and Hoff) 2 Perseptron eptronlar Basit bir
DetaylıKümeler arası. Küme içi. uzaklıklar. maksimize edilir. minimize edilir
Kümeleme Analizi: Temel Kavramlar ve Algoritmalar Kümeleme Analizi Nedir? Her biri bir dizi öznitelik ile, veri noktalarının bir kümesi ve noktalar arasındaki benzerliği ölçen bir benzerlik ölçümü verilmiş
DetaylıBİYOİSTATİSTİK Olasılıkta Temel Kavramlar Yrd. Doç. Dr. Aslı SUNER KARAKÜLAH
BİYOİSTTİSTİK Olasılıkta Temel Kavramlar Yrd. Doç. Dr. slı SUNER KRKÜLH Ege Üniversitesi, Tıp Fakültesi, Biyoistatistik ve Tıbbi Bilişim D. Web: www.biyoistatistik.med.ege.edu.tr 1 OLSILIK Olasılık; Tablo
DetaylıVeri madenciliği yöntemleri
Sınıflandırma ve Kümeleme Kavramları Giriş Verinin içerdiği ortak özelliklere göre ayrıştırılması işlemi sınıflandırma olarak adlandırılır, veri madenciliği tekniklerinden en çok bilinenidir; veri tabanlarındaki
DetaylıHastalıklarda Risk Faktörleri ve Tarama Tanı ve Tedavi Etkinliği İstatistikleri. A.Ayça ÖZDEMİR
Hastalıklarda Risk Faktörleri ve Tarama Tanı ve Tedavi Etkinliği İstatistikleri A.Ayça ÖZDEMİR İçerik Hastalıklarda Risk Faktörleri Geriye Dönük Case Control Odds Ratio İleriye Dönük Kohort Çalışmalarda
DetaylıVERİ MADENCİLİĞİ Metin Madenciliği
VERİ MADENCİLİĞİ Metin Madenciliği Yrd. Doç. Dr. Şule Gündüz Öğüdücü 1 2 Metin için Veri Madenciliği Metin Madenciliğinde Sorunlar Metin madenciliği: Veri madenciliği teknikleri ile yazılı belgeler arasındaki
DetaylıMakine Öğrenmesi İle Duygu Analizinde Veri Seti Performansı
Makine Öğrenmesi İle Duygu Analizinde Veri Seti Performansı Hatice NİZAM İstanbul Üniversitesi Bilgisayar Mühendisliği Bölümü haticenizam@outlook.com Saliha Sıla AKIN ERS Turizm Yazılım Şirketi, Bilgisayar
DetaylıAdım Adım SPSS. 1- Data Girişi ve Düzenlemesi 2- Hızlı Menü. Y. Doç. Dr. İbrahim Turan Nisan 2011
Adım Adım SPSS 1- Data Girişi ve Düzenlemesi 2- Hızlı Menü Y. Doç. Dr. İbrahim Turan Nisan 2011 File (Dosya) Menüsü Excel dosyalarını SPSS e aktarma Variable View (Değişken Görünümü 1- Name (İsim - Kod)
DetaylıBAYES KURAMI. Dr. Cahit Karakuş
BAYES KURAMI Dr. Cahit Karakuş Deney, Olay, Sonuç Küme Klasik olasılık Bayes teoremi Permütasyon, Kombinasyon Rasgele Değişken; Sürekli olasılık dağılımı Kesikli - Süreksiz olasılık dağılımı Stokastik
DetaylıVeri ve Metin Madenciliği
Veri ve Metin Madenciliği Zehra Taşkın Veri Madenciliği Bir kutu toplu iğne İçine 3 boncuk düşürdünüz Nasıl alacağız? Fikirler? Veri Madenciliği Data Information Knowledge Veri madenciliği; Büyük yoğunluklu
DetaylıVeri ve Metin Madenciliği. Zehra
Veri ve Metin Madenciliği Zehra Taşkın @zehrataskin Büyük Veri https://www.youtube.com/watch?v=tzxmjbl-i4y Veri Madenciliği Bir kutu toplu iğne İçine 3 boncuk düşürdünüz Nasıl alacağız? Veri Madenciliği
Detaylı1 I S L U Y G U L A M A L I İ K T İ S A T _ U Y G U L A M A ( 5 ) _ 3 0 K a s ı m
1 I S L 8 0 5 U Y G U L A M A L I İ K T İ S A T _ U Y G U L A M A ( 5 ) _ 3 0 K a s ı m 2 0 1 2 CEVAPLAR 1. Tekelci bir firmanın sabit bir ortalama ve marjinal maliyet ( = =$5) ile ürettiğini ve =53 şeklinde
DetaylıWEEK 11 CME323 NUMERIC ANALYSIS. Lect. Yasin ORTAKCI.
WEEK 11 CME323 NUMERIC ANALYSIS Lect. Yasin ORTAKCI yasinortakci@karabuk.edu.tr 2 INTERPOLATION Introduction A census of the population of the United States is taken every 10 years. The following table
DetaylıVeri Madenciliği - Giriş. Erdem Alparslan
Veri Madenciliği - Giriş Erdem Alparslan Amaçlar İş zekasının önemli bir parçası olan veri madenciliğinin tanımı İş analizi ve veri madenciliğinin amaçlarının anlaşılması Veri madenciliğini kullanan çok
DetaylıBÖLÜM III: Şebeke Modelleri. Şebeke Kavramları. Şebeke Kavramları. Şebeke Kavramları. Yönlü Şebeke (Directed Network) Dal / ok
8.0.0 Şebeke Kavramları BÖLÜM III: Şebeke Modelleri Şebeke (Network) Sonlu sayıdaki düğümler kümesiyle, bunlarla bağlantılı oklar (veya dallar) kümesinin oluşturduğu yapı şeklinde tanımlanabilir ve (N,A)
DetaylıSPSS (Statistical Package for Social Sciences)
SPSS (Statistical Package for Social Sciences) SPSS Data Editor: Microsoft Excel formatına benzer satır ve sütunlardan oluşan çalışma sayfası (*sav) Data Editör iki arayüzden oluşur. 1. Data View 2. Variable
DetaylıZeki Optimizasyon Teknikleri
Zeki Optimizasyon Teknikleri Ara sınav - 25% Ödev (Haftalık) - 10% Ödev Sunumu (Haftalık) - 5% Final (Proje Sunumu) - 60% - Dönem sonuna kadar bir optimizasyon tekniğiyle uygulama geliştirilecek (Örn:
DetaylıConcept Learning. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ. Yapay Zeka - Kavram Öğrenme
Concept Learning Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ 1 İÇERİK Öğrenme Metotları Kavram Öğrenme Nedir? Terminoloji Find-S Algoritması Candidate-Elimination Algoritması List-Then Elimination Algoritması
DetaylıKonular. VERİ MADENCİLİĞİ Veri Önişleme. Değer Kümeleri. Veri Nedir? Nitelik Türleri. Konular. Veri Veri Önişleme Benzerlik ve farklılık
0 VERİ MADENCİLİĞİ Veri Önişleme Yrd. Doç. Dr. Şule Gündüz Öğüdücü Veri Nedir? nesneler ve nesnelerin niteliklerinden oluşan küme kayıt (record), varlık (entity), örnek (sample, instance) nesne için kullanılabilir.
DetaylıÖrnek Bir zar atıldığında zarın üstünde bulunan noktaların sayısı gözlensin. Çift sayı gelmesi olasılığı nedir? n(s) = 3 6 = 1 2
Bir Olayın Olasılığı P(A) = n(a) n(s) = A nın eleman sayısı S nin eleman sayısı Örnek Bir zar atıldığında zarın üstünde bulunan noktaların sayısı gözlensin. Çift sayı gelmesi olasılığı nedir? Çözüm: S
DetaylıNaive Bayes Yöntemi ile Spam Mail Teşhisi Kübra KURNAZ
Naive Bayes Yöntemi ile Spam Mail Teşhisi 2 17574006-Kübra KURNAZ Yıldız Teknik Üniversitesi, Elektrik-Elektronik Fakültesi, Bilgisayar Mühendisliği Bölümü, Tezsiz Yüksek Lisans Bilgi Teknolojileri Özet
DetaylıVeri madenciliği sınıflandırma ve kümeleme teknikleri yardımıyla Wisconsin veriseti üzerinde Göğüs Kanseri Teşhisi. Hazırlayan: Nury Amanmadov
Veri madenciliği sınıflandırma ve kümeleme teknikleri yardımıyla Wisconsin veriseti üzerinde Göğüs Kanseri Teşhisi Hazırlayan: Nury Amanmadov Göğüs Kanseri Nedir? Gögüs Kanseri göğüs hücrelerinde başlayan
Detaylırasgele değişkeninin olasılık yoğunluk fonksiyonu,
3.6. Bazı Sürekli Dağılımlar 3.6.1 Normal Dağılım Normal dağılım hem uygulamalı hem de teorik istatistikte kullanılan oldukça önemli bir dağılımdır. Normal dağılımın istatistikte önemli bir yerinin olmasının
DetaylıBölüm 6. Diziler (arrays) Temel kavramlar Tek boyutlu diziler Çok boyutlu diziler
Bölüm 6 Diziler (arrays) Temel kavramlar Tek boyutlu diziler Çok boyutlu diziler Chapter 6 Java: an Introduction to Computer Science & Programming - Walter Savitch 1 Genel Bakış Dizi: Hepsi aynı türde
Detaylıİstatistik ve Olasılık
İstatistik ve Olasılık Ders 4: OLASILIK TEORİSİ Giriş Bu bölüm sonunda öğreneceğiniz konular: Rastgele Olay Örnek Uzayı Olasılık Aksiyomları Bağımsız ve Ayrık Olaylar Olasılık Kuralları Koşullu Olasılık
DetaylıEsnek Hesaplamaya Giriş
Esnek Hesaplamaya Giriş J E O L O J İ M Ü H E N D İ S L İ Ğ İ A. B. D. E S N E K H E S A P L A M A Y Ö N T E M L E R İ - I DOÇ. DR. ERSAN KABALCI Esnek Hesaplama Nedir? Esnek hesaplamanın temelinde yatan
DetaylıHatalar Bilgisi ve İstatistik Ders Kodu: Kredi: 3 / ECTS: 5
Ders Kodu: 0010070021 Kredi: 3 / ECTS: 5 Yrd. Doç. Dr. Serkan DOĞANALP Necmettin Erbakan Üniversitesi Harita Mühendisliği Bölümü Konya 07.01.2015 1 Giriş 2 Giriş Matematiksel istatistiğin konusu yığın
DetaylıYZM 3217 YAPAY ZEKA DERS#10: KÜMELEME
YZM 317 YAPAY ZEKA DERS#10: KÜMELEME Sınıflandırma (Classification) Eğiticili (supervised) sınıflandırma: Sınıflandırma: Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğunu bilinir Eğiticisiz (unsupervised)
DetaylıVeri Madenciliği Karar Ağacı Oluşturma
C4.5 Algoritması Veri Madenciliği Karar Ağacı Oluşturma Murat TEZGİDER 1 C4.5 Algoritması ID3 algoritmasını geliştiren Quinlan ın geliştirdiği C4.5 karar ağacı oluşturma algoritmasıdır. ID3 algoritmasında
DetaylıSÜREKLİ OLASILIK DAĞILIŞLARI
SÜREKLİ OLASILIK DAĞILIŞLARI Sürekli verilerin göstermiş olduğu dağılışa sürekli olasılık dağılışı denir. Sürekli olasılık dağılışlarının fonksiyonlarına yoğunluk fonksiyonu denilmekte ve bu dağılışlarla
DetaylıOlasılık, bir deneme sonrasında ilgilenilen olayın tüm olaylar içinde ortaya çıkma ya da gözlenme oranı olarak tanımlanabilir.
5.SUNUM Olasılık, bir deneme sonrasında ilgilenilen olayın tüm olaylar içinde ortaya çıkma ya da gözlenme oranı olarak tanımlanabilir. Günlük hayatta sıklıkla kullanılmakta olan olasılık bir olayın ortaya
DetaylıÖrneklem Dağılımları & Hipotez Testleri Örneklem Dağılımı
Örneklem Dağılımları & Hipotez Testleri Örneklem Dağılımı Ortalama veya korelasyon gibi istatistiklerin dağılımıdır Çıkarımsal istatistikte örneklem dağılımı temel fikirlerden biridir. Çıkarımsal istatistik
DetaylıVERİ MADENCİLİĞİ (Veri Önişleme-1) Yrd.Doç.Dr. Kadriye ERGÜN
VERİ MADENCİLİĞİ (Veri Önişleme-1) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma Kümeleme
DetaylıBilgisayarla Görüye Giriş
Bilgisayarla Görüye Giriş Ders 10 Nesne / Yüz Tespiti ve Tanıma Alp Ertürk alp.erturk@kocaeli.edu.tr Nesne Tespiti Belirli bir nesnenin sahne içindeki konumunun tespitidir Tespit edilecek nesne önceden
DetaylıBBM Discrete Structures: Final Exam Date: , Time: 15:00-17:00
BBM 205 - Discrete Structures: Final Exam Date: 12.1.2017, Time: 15:00-17:00 Ad Soyad / Name: Ögrenci No /Student ID: Question: 1 2 3 4 5 6 7 8 9 10 11 Total Points: 6 16 8 8 10 9 6 8 14 5 10 100 Score:
DetaylıAppendix B: Olasılık ve Dağılım Teorisi
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Notları Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix B: Olasılık ve Dağılım
Detaylı2.1 Bir Sınıfı Örneklerinden Öğrenme... 15 2.2 Vapnik-Chervonenkis (VC) Boyutu... 20 2.3 Olası Yaklaşık Doğru Öğrenme... 21
İçindekiler Önsöz İkinci Basım için Önsöz Türkçe Çeviri için Önsöz Gösterim xiii xv xvii xix 1 Giriş 1 1.1 Yapay Öğrenme Nedir?......................... 1 1.2 Yapay Öğrenme Uygulamalarına Örnekler...............
DetaylıA New Approach for Named Entity Recognition
A New Approach for Named Entity Recognition Burak Ertopçu 1, Ali Buğra Kanburoğlu 1, Ozan Topsakal 1, Onur Açıkgöz 1, Ali Tunca Gürkan 1, Berke Özenç 1, İlker Çam 1, Begüm Avar 2, Gökhan Ercan 1, Olcay
DetaylıEME Sistem Simülasyonu. Giriş. Olasılık Dağılımı. Rassal Degiskenler
EME 3105 1 Giriş Sistem Simülasyonu Önümüzdeki hafta simulasyon girdilerinin modellenmesinde kullanılan kesikli ve sürekli Simulasyonda İstatistiksel Modeller-I Ders 4 dağılımlar hatırlatılacaktır. Rassal
DetaylıSürekli Rastsal Değişkenler
Sürekli Rastsal Değişkenler Normal Dağılım: Giriş Normal Dağılım: Tamamen ortalaması ve standart sapması ile tanımlanan bir rastsal değişken, X, için oluşturulan sürekli olasılık dağılımına normal dağılım
DetaylıÖrnek 4.1: Tablo 2 de verilen ham verilerin aritmetik ortalamasını hesaplayınız.
.4. Merkezi Eğilim ve Dağılım Ölçüleri Merkezi eğilim ölçüleri kitleye ilişkin bir değişkenin bütün farklı değerlerinin çevresinde toplandığı merkezi bir değeri gösterirler. Dağılım ölçüleri ise değişkenin
Detaylı3 KESİKLİ RASSAL DEĞİŞKENLER VE OLASILIK DAĞILIMLARI
ÖNSÖZ İÇİNDEKİLER III Bölüm 1 İSTATİSTİK ve SAYISAL BİLGİ 11 1.1 İstatistik ve Önemi 12 1.2 İstatistikte Temel Kavramlar 14 1.3 İstatistiğin Amacı 15 1.4 Veri Türleri 15 1.5 Veri Ölçüm Düzeyleri 16 1.6
DetaylıGraflar bilgi parçaları arasındaki ilişkileri gösterirler.
Graflar (Graphs) Graf gösterimi Uygulama alanları Graf terminolojisi Depth first dolaşma Breadth first dolaşma Topolojik sıralama Yrd.Doç.Dr. M. Ali Akcayol Graflar Graflar bilgi parçaları arasındaki ilişkileri
DetaylıAppendix C: İstatistiksel Çıkarsama
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Notları Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix C: İstatistiksel Çıkarsama
DetaylıUnlike analytical solutions, numerical methods have an error range. In addition to this
ERROR Unlike analytical solutions, numerical methods have an error range. In addition to this input data may have errors. There are 5 basis source of error: The Source of Error 1. Measuring Errors Data
DetaylıYTÜ İktisat Bölümü EKONOMETRİ I Ders Notları
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix C: İstatistiksel Çıkarsama Doç.
DetaylıAkış YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ
Akış Makine Öğrenmesi nedir? Günlük Hayatımızdaki Uygulamaları Verilerin Sayısallaştırılması Özellik Belirleme Özellik Seçim Metotları Bilgi Kazancı (Informaiton Gain-IG) Sinyalin Gürültüye Oranı: (S2N
DetaylıVERİ MADENCİLİĞİ. Karar Ağacı Algoritmaları: SPRINT algoritması Öğr.Gör.İnan ÜNAL
VERİ MADENCİLİĞİ Karar Ağacı Algoritmaları: SPRINT algoritması Öğr.Gör.İnan ÜNAL SPRINT Algoritması ID3,CART, ve C4.5 gibi algoritmalar önce derinlik ilkesine göre çalışırlar ve en iyi dallara ayırma kriterine
DetaylıYarışma Sınavı A ) 60 B ) 80 C ) 90 D ) 110 E ) 120. A ) 4(x + 2) B ) 2(x + 4) C ) 2 + ( x + 4) D ) 2 x + 4 E ) x + 4
1 4 The price of a book is first raised by 20 TL, and then by another 30 TL. In both cases, the rate of increment is the same. What is the final price of the book? 60 80 90 110 120 2 3 5 Tim ate four more
DetaylıMakine Öğrenmesi 3. hafta
Makine Öğrenmesi 3. hafta Entropi Karar Ağaçları (Desicion Trees) ID3 C4.5 Sınıflandırma ve Regresyon Ağaçları (CART) Karar Ağacı Nedir? Temel fikir, giriş verisinin bir kümeleme algoritması yardımıyla
DetaylıProf.Dr.A.KARACABEY Doç.Dr.F.GÖKGÖZ RANDOM DEĞİŞKEN
SÜREKSİZ (DISCRETE) OLASILIK DAĞILIMLARI 1 RANDOM DEĞİŞKEN Nümerik olarak ifade edilebilen bir deneyin sonuçlarına rassal (random) değişken denir. Temelde iki çeşit random değişken vardır. ##süreksiz(discrete)
DetaylıBMÜ-111 Algoritma ve Programlama. Bölüm 5. Tek Boyutlu Diziler
BMÜ-111 Algoritma ve Programlama Bölüm 5 Tek Boyutlu Diziler Yrd. Doç. Dr. İlhan AYDIN 1 Problem 100 adet sayı okumak istediğimizi düşünelim. Bu sayıların ortalaması hesaplanacak ve sayıların kaç tanesinin
DetaylıMatris Cebiriyle Çoklu Regresyon Modeli
Matris Cebiriyle Çoklu Regresyon Modeli Hüseyin Taştan Mart 00 Klasik Regresyon Modeli k açıklayıcı değişkenden oluşan regresyon modelini her gözlem i için aşağıdaki gibi yazabiliriz: y i β + β x i + β
DetaylıIE 303T Sistem Benzetimi DERS 4 : O L A S I L I K T E K R A R
IE 303T Sistem Benzetimi DERS 4 : O L A S I L I K T E K R A R Geçen Ders Envanter yonetımı: Gazetecı problemı Rastsal Rakamlar Üret Talebi hesapla Geliri hesapla Toplam maliyeti hesapla Günlük ve aylık
DetaylıAnkara Üniversitesi, SBF İstatistik 2 Ders Notları Prof. Dr. Onur Özsoy 1
1 Rastgele bir denemede ortaya çıkması olası sonuçların tamamıdır Örnek: bir zar bir kez yuvarlandığında S= Yukarıdaki sonuçlardan biri elde edilecektir. Sonuçların her biri basit olaydır Örnek: Bir deste
DetaylıYTÜ İktisat Bölümü EKONOMETRİ I Ders Notları
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix B: Olasılık ve Dağılım Teorisi
DetaylıYTÜ İktisat Bölümü EKONOMETRİ I Ders Notları
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix B: Olasılık ve Dağılım Teorisi
DetaylıYapay Sinir Ağlarına Giriş. Dr. Hidayet Takçı
Yapay Sinir Ağlarına Giriş Dr. Hidayet Takçı htakci@gmail.com http://htakci.sucati.org Giriş Neden Yapay Sinir Ağları (YSA) Bazı işler insanlar tarafından kolaylıkla yerine getirilirken mevcut bilgisayarlar
DetaylıÖrneklemden elde edilen parametreler üzerinden kitle parametreleri tahmin edilmek istenmektedir.
ÇIKARSAMALI İSTATİSTİKLER Çıkarsamalı istatistikler, örneklemden elde edilen değerler üzerinde kitleyi tanımlamak için uygulanan istatistiksel yöntemlerdir. Çıkarsamalı istatistikler; Tahmin Hipotez Testleri
DetaylıOlasılık teorisi, matematiğin belirsizlik taşıyan olaylarla ilgilenen bir dalıdır. Bu bilim dalı rasgele değişkenleri inceler.
Bölüm 2 OLASILIK TEORİSİ Olasılık teorisi, matematiğin belirsizlik taşıyan olaylarla ilgilenen bir dalıdır. Bu bilim dalı rasgele değişkenleri inceler. Rasgele değişken, gelecekteki bir gözlemde alacağı
DetaylıSÜREKLĠ OLASILIK DAĞILIMLARI
SÜREKLĠ OLASILIK DAĞILIMLARI Sayı ekseni üzerindeki tüm noktalarda değer alabilen değişkenler, sürekli değişkenler olarak tanımlanmaktadır. Bu bölümde, sürekli değişkenlere uygun olasılık dağılımları üzerinde
DetaylıZeki Optimizasyon Teknikleri
Zeki Optimizasyon Teknikleri Yapay Sinir Ağları (Artificial Neural Network) Doç.Dr. M. Ali Akcayol Yapay Sinir Ağları Biyolojik sinir sisteminden esinlenerek ortaya çıkmıştır. İnsan beyninin öğrenme, eski
DetaylıANADOLU ÜNİVERSİTESİ OLASILIĞA GİRİŞ
ANADOLU ÜNİVERSİTESİ İST 213 OLASILIK DERSİ OLASILIĞA GİRİŞ DOÇ. DR. NİHAL ERGİNEL OLASILIĞA GİRİŞ - Bugün yağmur yağma olasılığı % 75 dir. - X marka bilgisayarın hiç servis gerektirmeden 100000 saat çalışması
DetaylıOLASILIĞA GİRİŞ P( )= =
OLASILIĞA GİRİŞ - Bugün yağmur yağma olasılığı % 75 dir. - X marka bilgisayarın hiç servis gerektirmeden 100000 saat çalışması olasılığı %85 dir. Olasılık modelleri; Sıvı içindeki moleküllerin davranışlarını
Detaylı