Veri Madenciliği. Bölüm 6. Sınıflandırma 2

Ebat: px
Şu sayfadan göstermeyi başlat:

Download "Veri Madenciliği. Bölüm 6. Sınıflandırma 2"

Transkript

1 Bölüm 6. Sınıflandırma 2 Karar Ağacı Örnek Algoritma: ID3 Bütün nitelikler ayrık Bir düğüm oluştur N: Eğer örneklerin hepsi C sınıfına ait ise, N düğümü C etiketli yaprak Eğer karşılaştırma yapılacak nitelik yoksa N düğümü en çok örneği olan sınıf En büyük bilgi kazancı olan niteliği bölmek için seç N yi seçilen nitelik ile etiketle Niteliğin her A i değeri için bir dal oluştur S i, örneklerin hepsinin A i değeri aldığı dal S i boş, bir yaprak oluşturup en çok örneği olan sınıfla etiketle S i boş değil, algoritmayı S i düğümü üzerinde yinele Yaprak düğümlere kadar Ayrıntılı bilgiler: 2/84 1

2 Karar Ağacı Kullanarak Sınıflandırma Doğrudan sınıflandırmak istenilen örneğin nitelikleri ağaç boyunca sınanır ulaşılan yaprağın etiketi sınıf bilgisini verir Dolaylı karar ağacı sınıflandırma kurallarına dönüştürülür kökten yaprakların herbirine giden yollar için ayrı bir kural oluşturulur IF-THEN şeklinde kuralları insanlar daha kolay anlıyor Örnek: IF Outlook= sunny AND humidity= normal THEN play tennis 3/84 Karar Ağaçlarında Aşırı Öğrenme Öğrenmekümesindeki örneklerin azlığı veya gürültülü olması Aşırı öğrenmeyi engelleyen yaklaşım(budama) işlemi erken sona erdirme işlemi sona erdirmek için eşik değeri belirlemek gerekiyor karar ağacı oluştuktan sonra ağacı küçültme 4/84 2

3 Karar ağaçlarında aşırı öğrenme Gürültüden dolayı aşırı öğrenme Aşağıdaki öğrenme kümesinde yarasa ve balina yanlış sınıf etiketine sahiptir. Sınıf etiketi = memeli mi? Cins Vücut Sıcaklığı Doğum Yapma 4-bacaklı Kış uykusu Sınıf etiketi Kirpi Sıcakkanlı Evet Evet Evet Evet Kedi Sıcakkanlı Evet Evet Hayır Evet Yarasa Sıcakkanlı Evet Hayır Evet Hayır Balina Sıcakkanlı Evet Hayır Hayır Hayır Semender Soğukkanlı Hayır Evet Evet Hayır Komodo Ejderi Soğukkanlı Hayır Evet Hayır Hayır Piton Soğukkanlı Hayır Hayır Evet Hayır Alabalık Soğukkanlı Hayır Hayır Hayır Hayır Kartal Sıcakkanlı Hayır Hayır Hayır Hayır Lepistes Soğukkanlı Evet Hayır Hayır Hayır Öğrenme kümesi 5/84 Karar ağaçlarında aşırı öğrenme sıcakkanlı Vücut sıcaklığı soğukkanlı sıcakkanlı Vücut sıcaklığı soğukkanlı evet Doğum yapma Memeli değil hayır evet Doğum yapma Memeli değil hayır evet Memeli 4-bacaklı hayır Memeli değil M1 Memeli değil Memeli M2 Memeli değil Cins Vücut Sıcaklığı Doğum Yapma 4-bacaklı Kış uykusu Sınıf etiketi Kirpi Sıcakkanlı Evet Evet Evet Evet Kedi Sıcakkanlı Evet Evet Hayır Evet Yarasa Sıcakkanlı Evet Hayır Evet Hayır Balina Sıcakkanlı Evet Hayır Hayır Hayır Semender Soğukkanlı Hayır Evet Evet Hayır Komodo Ejderi Soğukkanlı Hayır Evet Hayır Hayır Piton Soğukkanlı Hayır Hayır Evet Hayır Alabalık Soğukkanlı Hayır Hayır Hayır Hayır Kartal Sıcakkanlı Hayır Hayır Hayır Hayır Lepistes Soğukkanlı Evet Hayır Hayır Hayır 6/84 3

4 Karar ağaçlarında aşırı öğrenme Model 1 (M1) öğrenme kümesinde 0 hata verirken, sınama kümesinde %40 hata verir İnsan ve yunus yanlış etiketlenir Model 2 (M2) öğrenme kümesinde %20 hata verirken, sınama kümesinde hata vermez Budanmış ağaç 4-bacaklı niteliği gürültülü veriden dolayı aşırı öğrenmeye neden olmuştur. Cins Vücut Sıcaklığı Doğum Yapma 4-bacaklı Kış uykusu Sınıf etiketi İnsan Sıcakkanlı Evet Hayır Hayır Evet Güvercin Sıcakkanlı Hayır Hayır Hayır Hayır Fil Sıcakkanlı Evet Evet Hayır Evet Yunus Sıcakkanlı Evet Hayır Hayır Evet Kaplumbağa Soğukkanlı Hayır Evet Hayır Hayır Sınama kümesi 7/84 Karar ağaçlarında aşırı öğrenme Öğrenme kümesinin küçüklüğünden dolayı aşırı öğrenme evet Memeli sıcakkanlı evet 4-bacaklı Kış uykusu hayır Memeli değil Vücut sıcaklığı Memeli değil hayır Memeli değil soğukkanlı Cins Vücut Sıcaklığı Doğum Yapma 4-bacaklı Kış uykusu Sınıf etiketi Poorwill Sıcakkanlı Hayır Hayır Evet Hayır Platypus Sıcakkanlı Hayır Evet Evet Evet Semender Soğukkanlı Hayır Evet Evet Hayır Kartal Sıcakkanlı Hayır Hayır Hayır Hayır Lepistes Soğukkanlı Evet Hayır Hayır Hayır Öğrenme kümesi Cins Vücut Sıcaklığı Doğum Yapma 4-bacaklı Kış uykusu Sınıf etiketi İnsan Sıcakkanlı Evet Hayır Hayır Evet Güvercin Sıcakkanlı Hayır Hayır Hayır Hayır Fil Sıcakkanlı Evet Evet Hayır Evet Yunus Sıcakkanlı Evet Hayır Hayır Evet Kaplumbağa Soğukkanlı Hayır Evet Hayır Hayır Sınama kümesi 8/84 4

5 Karar ağaçlarında aşırı öğrenme Oluşan karar ağacının, öğrenme kümesindeki hata oranı sıfır, test kümesinde ise %60 İnsan, fil ve yunus yanlış etiketlenir Kış uykusuna yatmayan tüm sıcakkanlılar memeli-değil olarak etiketlenir Bu duruma uyan sadece kartal vardır Öğrenme kümesi küçük olduğu için ağaç aşırı öğrenmiştir 9/84 Karar Ağaçlarında Budama Ağaç oluşturulurken budama (pre-pruning) eşikdeğer belirle Ağaç oluştuktan sonra budama (post-pruning) 10/84 5

6 Pre-Pruning Stop the algorithm before it becomes a fully-grown tree Typical stopping conditions for a node: Stop if all instances belong to the same class Stop if all the attribute values are the same More restrictive conditions: Stop if number of instances is less than some user-specified threshold Stop if class distribution of instances are independent of the available features (e.g., using χ 2 test) Stop if expanding the current node does not improve impurity measures (e.g., Gini or information gain). 11/84 Post-pruning Grow decision tree to its entirety Trim the nodes of the decision tree in a bottom-up fashion If generalization error improves after trimming, replace subtree by a leaf node. Class label of leaf node is determined from majority class of instances in the sub-tree 12/84 6

7 En iyi bölen ölçütleri - Değerlendirme Karar ağacı oluştururken en iyi bölen nitelik için 3 tane ölçüt gördük Information gain: Çok çeşitli değerler (multivalued) alan nitelikleri seçme eğilimindedir Gain ratio: Dengesiz bölünmeler yapma eğilimindedir (one partition is much smaller than the others) Giniindex: Çok çeşitli değerler (multivalued) alan nitelikleri seçme eğilimindedir Dengeli bölünmeler yapar (hem boyut hem de saflık açısından) Sınıf sayısı çok olduğunda iyi çalışmayabilir 13/84 Karar Ağacı Kullanarak Sınıflandırma- Değerlendirme Avantajları: Karar ağacı oluşturmak zahmetsiz Küçük ağaçları yorumlamak kolay Anlaşılabilir kurallar oluşturulabilir Sürekli ve ayrık nitelik değerleri için kullanılabilir Dezavantajları: Sürekli nitelik değerlerini tahmin etmekte çok başarılı değil Sınıf sayısı fazla ve öğrenme kümesi örnekleri sayısı az olduğunda model oluşturma çok başarılı değil Zamanveyerkarmaşıklığıöğrenmekümesiörneklerisayısına(q), nitelik sayısına(h) ve oluşan ağacın yapısına bağlı. Büyük öğrenme kümeleri için ağaçoluşturmakarmaşıklığıfazla, ağaç budama karmaşıklığı fazla 14/84 7

8 İstatistik ve Olasılık 15/84 Random Variables / Rasgele Değişkenler Random variable olasılığın temel elemanı. Çıktısı belirsizlik içeren olay havaya atılan para olayı bir random variable dır. 16/84 8

9 Boolean Random Variables Boolean random variables Trueya dafalsedeğeri alırlar Bir olayın olması ya da olmaması Örnek(A bir Boolean random variable): A= Paranın yazı gelmesi A= Bugün yağmur yağacak 17/84 Olasılık P(A = true)ifadesia = trueolma olasılığını ifade eder. Olasılık: It is the relative frequency with which an outcome would be obtained if the process were repeated a large number of times under similar conditions Kırmızı ve mavi alanın toplamı 1 P(A = true) P(A = false) 18/84 9

10 Koşullu olasılık P(A = true B = true) =B nin doğru olduğu durumların kaç tanesinde aynı zamanda A da doğru. Probability of Aconditioned on B or Probability of Agiven B P(F = true) P(H = true) H = Baş ağrısı F = Nezle olmak P(H = true) = 1/10 P(F = true) = 1/40 P(H = true F = true) = 1/2 19/84 Koşullu olasılık P(A = true, B = true)ifadesi A = trueveb = true olma olasılığını ifade eder. P(F = true) P(H = true) P(H=true F=true) Area of "H and F" region = Area of "F" region P(H = true,f = true) = P(F = true) P(X Y)=P(X,Y)/P(Y) 20/84 10

11 Ortak olasılık dağılımı Örnek: P(A = true, B = true, C = true) Her kombinasyon için sonuç gösterilir Tüm kombinasyonların olasılıklarının toplamı 1 dir A B C P(A,B,C) false false false 0.1 false false true 0.2 false true false 0.05 false true true 0.05 true false false 0.3 true false true 0.1 true true false 0.05 true true true 0.15 Toplam 1 21/84 Ortak olasılık dağılımı Ortak olasılık dağılım tablosu oluşturulduktan sonra A, B, and C yi içeren tüm olayların olasılığı hesaplanabilir. A B C P(A,B,C) false false false 0.1 false false true 0.2 false true false 0.05 false true true 0.05 true false false 0.3 true false true 0.1 true true false 0.05 true true true 0.15 Örnek: P(A=true) = sum of P(A,B,C) in rows with A=true P(A=true, B = true C=true) = P(A = true, B = true, C = true) / P(C = true) 22/84 11

12 Ortak olasılık dağılımı: Problem Çok fazla hesaplanacak olasılık var. k tane Boolean random variable için2 k tane olasılık hesaplanır. Azaltmak için bağımsızlık konsepti kullanılır A B C P(A,B,C) false false false 0.1 false false true 0.2 false true false 0.05 false true true 0.05 true false false 0.3 true false true 0.1 true true false 0.05 true true true /84 Bağımsızlık AveBdeğişkenleri aşağıdakilerden birisi doğru olduğunda bu iki olay birbirinden bağımsızdır. P(A,B)= P(A)P(B) P(A B)= P(A) P(B A)= P(B) Anın sonucunu bilmek Bhakkında hiçbir bilgi vermiyor. 24/84 12

13 Bağımsızlık Neden bağımsızlık işe yarıyor? Bir parayı ndefa attığımızı ve P(C 1,, C n )yi hesaplamak istediğimizi düşünelim. Para atışları bağımsız değilse, 2 n tane değer tabloda hesaplanmak zorunda. Para atışları bağımsız ise, sadece P( C n 1,..., Cn) = P( C i ) i= 1 değerini hesaplamak yetecektir. 25/84 Koşullu bağımsızlık Aşağıdakilerden birisi doğru ise Ave Bdeğişkenleri Cye göre koşullu olarak bağımsızdır. P(A, B C)= P(A C)P(B C) P(A B, C)= P(A C) P(B A, C)= P(B C) 26/84 13

14 İstatistiksel Modelleme- Bayes Bayes teoremini kullanan istatistiksel sınıflandırıcı Örneklerin hangi sınıfa hangi olasılıkla ait olduklarını hesaplar Naïve Bayes sınıflandırıcı niteliklerin hepsi aynı derecede önemli nitelikler birbirinden bağımsız bir niteliğin değeri başka bir nitelik değeri hakkında bilgi içermiyor 27/84 Bayesian Teori Xveri örneği: sınıf etiketi bilinmiyor (Sadece age ve income niteliklerinden oluşan bir kişi: age:youth,income:medium ) H bir hipotez: X kişisi C sınıfına aittir Sınıflandırma: P(H X) değerini (X veri örneği için H hipotezinin tutma ihtimalini) belirlemek. P(H) önceki olasılık (prior probability) Herhangi bir örnek için hipotezin tutma olasılığı. Herhangi bir örneğin bilgisayar alacaklar sınıfına ait olma olasılığı (diğer niteliklerden bağımsız olarak) P(X)X in olma olasılığı Veri setindeki herhangi bir insanın youth ve medium income sahibi olma olasılığı. P(X H) sonrakiolasılık(posteriori probability), Hipotez H nin tutması durumunda X in olma olasılığı X in bilgisayar alacaklar sınıfında olduğu biliniyor, Xin youth ve medium income sahibi olma olasılığı. 28/84 14

15 Bayesian Teori Gözlemlenen örnek verix için, hipotez H nin sonraki olasılığı, P(H X), Bayes teoremi ile şöyle ifade edilir P ( H X) = P( X H) P( H) P( X) Veri madenciliği açısından, eğer P(C i X) diğer bütün P(C k X) değerlerinden büyükse örnek veri XC i sınıfına aittir Çok sayıda olasılığı önceden kestirmek gerekiyor, çok fazla hesap gerektirir Naïve Bayes Sınıflandırıcı X=(x 1,x 2,...x n ) örneğininc sınıfındaolmaolasılığı (P(C X)) nedir? P( X C ) P( C ) P ( C X) = i i değerini en büyük değere getir i P( X) P(X) her birsınıf için sabit P( C X ) = P( X C ) P( C ) i i i değerini en büyük değere getir 15

16 Naïve Bayes Sınıflandırıcı Basit bir kabul: nitelikler birbirinden bağımsız n P( X Ci) = P( x k = 1 Ci) = P( x Kategorik veri için P(C i )= S i / S, S i : C i sınıfınaaitörneklerinsayısı P(x k C i )=s ik / s i Hesaplama maliyetini azaltıyor, sadece sınıf dağılımları hesaplanıyor Naïve: nitelikler bağımsız k 1 Ci) P( x 2 Ci)... P( x n Ci) Naïve Bayes Sınıflandırıcı Sürekli veri için P(x k C i ) Gaussian dağılımıkullanılarakbulunur(μ=ortalama, σ=standart sapma) g ( x µ ) 1 2 2σ (, µ, σ ) x = e 2πσ P( X Ci) = g( x k, µ C i, σc ) i 2 32/84 16

17 Örnek(Kategorik veri) Sınıf: C1:buys_computer = yes C2:buys_computer = no Örnek veri X = (age = youth, Income = medium, Student = yes Credit_rating = Fair) 33/60 Örnek(devam) P(C i ): P(buys_computer= yes ) = 9/14 = 0.64 P(buys_computer = no ) = 5/14= Her sınıf için P(X k C i ) yihesapla P(age = youth buys_computer= yes ) = 2/9 = P(age = youth buys_computer= no ) = 3/5 = 0.6 P(income = medium buys_computer= yes ) = 4/9 = P(income = medium buys_computer= no ) = 2/5 = 0.4 P(student = yes buys_computer= yes) = 6/9 = P(student = yes buys_computer= no ) = 1/5 = 0.2 P(credit_rating = fair buys_computer = yes ) = 6/9 = P(credit_rating= fair buys_computer= no ) = 2/5 = 0.4 X = (age =youth, income = medium, student = yes, credit_rating = fair) P(X C i ) :P(X buys_computer= yes ) = x x x = P(X buys_computer= no ) = 0.6 x 0.4 x 0.2 x 0.4 = P(X C i )*P(C i ) : P(X buys_computer= yes ) * P(buys_computer= yes ) = P(X buys_computer = no ) * P(buys_computer = no ) = Bu yüzden, X örnegi buys_computer = yes sınıfına aittir. 34/84 17

18 Örnek-2 X={E,65,172} verisinin beden sınıfını bayesiankuralına göre bulunuz? 35/84 Örnek-2 (devam) Veri önişleme -boy arası 1. grup arası 2. grup arası 3. grup arası 4. grup 190 ve üzeri 5. grup Veri önişleme -kilo arası 1. grup arası 2. grup arası 3. grup arası 4. grup arası 5. grup 99 ve üzeri 6. grup Yeni tablo 36/84 18

19 Örnek-2 (devam) Kategorik hale getirildikten sonra: X={E, 65,172} X={E,2,3} P(C j ) değerleri P(küçük)=4/15=0.267, P(orta)=8/15=0.534, P(büyük)=3/15=0.2 Her sınıf için P(X k C i ) yi hesapla P(E Orta) = 3/8 = P(E Küçük) = 3/4 = 0.75 P(E Büyük) = 2/3 = P(3 Orta) = 2/8 = 0.25 P(3 Küçük) = 1/4 = 0.25 P(3 Büyük) = 1/3 = P(2 Orta) = 4/8 = 0.5 P(2 Küçük) = 2/4 = 0.5 P(2 Büyük) = 0/3 = 0 X = (Cinsiyet=E, Kilo= 2, Boy= 3) P(X C i ) :P(X Beden= Orta ) = 0.375x 0.25x 0.5= P(X Beden= Küçük ) = 0.75x 0.25x 0.5= P(X Beden= Büyük ) = x 0.333x 0 = 0 P(X C i )*P(C i ) : P(X Beden = Orta ) * P(Beden = Orta ) = 0.047*0.534= P(X Beden = Küçük ) * P(Beden = Küçük ) = 0.093*0.267= P(X Beden= Büyük ) * P(Beden= Büyük ) = 0*0.2= 0 X örneği Orta bedene sahiptir. 37/84 Olasılığın Sıfır Olması Naïve Bayesian prediction her bir olasılığın sıfırdan büyük olmasınıgerektirir, aksitaktirdebütün olasılık sıfır olur n P( X Ci) = P( xk Ci) k = 1 Örnek: 1000 örneklikbirverisetinde, eğerincome=low (0), income= medium (990), veincome = high (10)ise Laplacian correction (Laplacian estimator) kullanılır Her birduruma1 eklenir Prob(income = low) = 1/1003 Prob(income = medium) = 991/1003 Prob(income = high) = 11/1003 Veriseticokbüyük olduğu icinçok farketmez 19

20 Bayes Sınıflandırıcılar- Değerlendirme Avantajları: gerçeklemesi kolay çoğu durumda iyi sonuçlar Dezavantajları varsayım: sınıf bilgisi verildiğinde nitelikler bağımsız gerçek hayatta değişkenler birbirine bağımlı değişkenler arası ilişki modellenemiyor Çözüm: Bayes ağları 39/84 Bayes Ağları Bir hastanın akciğer şarbonu olup olmadığı araştırılıyor. Hastada aşağıdaki semptomlar gözleniyor: Öksürme Ateş Nefes almada güçlük 40/42 20

21 Bayes Ağları Bu semptomlar dahilinde hastanın akciğer şarbonu olma ihtimalini bulmaya çalışıyoruz. Semptomlara rağmen %100 emin olmadığımız için bir belirsizlik var. 41/42 Bayes Ağları X-ray sonucunda hastanın akciğerleri arasında genişleme olduğunu gördünüz. Şimdi hastanın şarbon olma olasılığına olan inancınız daha yüksek. Gözlemleriniz hastanın şarbon olmasına dair fikriniz etkiledi. Reasoning with uncertainty 42/42 21

22 Bayes Ağları Şarbon Öksürük Ateş Nefes Darlığı Geniş Akciğer Boşluğu 43/84 Örnek Bayes Ağı Bir Bayes Ağı aşağıdakilerden oluşur 1. Directed Acyclic Graph A B C D 2. Graphdaki her düğüm için bir tablo A P(A) false 0.6 true 0.4 A B P(B A) false false 0.01 false true 0.99 true false 0.7 true true 0.3 B D P(D B) false false 0.02 false true 0.98 true false 0.05 true true 0.95 B C P(C B) false false 0.4 false true 0.6 true false 0.9 true true /60 22

23 A Directed Acyclic Graph Her düğüm bir random variable A Ais a parent of B B C D Bden Cye olan ok işareti Bnin C üzerinde bir etkisi olduğunu gösterir 45/60 Her düğüm için bir tablo A P(A) false 0.6 true 0.4 A B P(B A) false false 0.01 false true 0.99 true false 0.7 true true 0.3 Her düğüm X i Parentlerinin etkisini gösteren P(X i Parents(X i )) koşullu olasılık tablosuna sahiptir. B C P(C B) false false 0.4 false true 0.6 true false 0.9 true true 0.1 C A B D B D P(D B) false false 0.02 false true 0.98 true false 0.05 true true /60 23

24 Bayes Ağları İki önemli özelliğe sahiptirler: 1. Değişkenler arasındaki koşullu olasılık ilişkilerini bir graph yapısı üzerinde tutar 2. Değişkenler arasındaki Ortak olasılık dağılımının kompakt bir gösterimidir. 47/84 Koşullu bağımsızlık Markov koşulu given its parents (P 1, P 2 ),a node (X) is conditionally independent of its nondescendants (ND 1, ND 2 ) olduğunu gösterir. P 1 P 2 ND 1 X ND 2 C 1 C 2 48/84 24

25 Ortak olasılık dağılımı Markov koşuluna göre Bayes ağındaki tüm X i düğümlerinin ortak olasılığı aşağıdaki formüle göre bulunabilir: n P( X1 = x1,..., X = x ) = P( X = x Parents( X )) n n i= 1 i i i Parents(X i ) ifadesi graphda X i nin Parentleridir 49/84 Bayes Ağı: Örnek P(A = true, B = true, C = true, D = true)hesaplanacak: P(A = true, B = true, C = true, D = true) = P(A = true) * P(B = true A = true) * P(C = true B = true)* P( D = true B = true) = (0.4)*(0.3)*(0.1)*(0.95) A B C D 50/84 25

26 Bayes Ağı: Örnek P(A = true, B = true, C = true, D = true) = P(A = true) * P(B = true A = true) * P(C = true B = true)*p( D = true B = true) = (0.4)*(0.3)*(0.1)*(0.95) Graph yapısından A Tablolardan alınan değerler B C D 51/84 Çıkarım Bayes ağlarında olasılık hesabı çıkarım olarak adlandırılır. Genel ifadesi: P( X E ) E = Belirtiler / evidence variable(s) X = Sorgu / query variable(s) 52/84 26

27 Çıkarım Şarbon Öksürük Ateş Nefes Darlığı Geniş Akciğer Boşluğu Örnek: P( şarbonvar= true ateşvar= true, öksürükvar = true) 53/84 Ağ oluşturma Bayes ağı nasıl oluşturulur? Alandaki bir uzman Veri incelemesi 54/84 27

28 Diğer Sınıflandırma Yöntemleri Örnek Tabanlı Yöntemler(tembel-lazy yöntemler) Öğrenmekümesinisaklar. Sınıflandırılacak yeni bir örnek geldiğinde öğrenme kümesi sınıf etiketini öngörmek için kullanılır Örnek yöntemler: k-en yakın komşu yöntemi(k-nearest neighbor approach) Her veri uzayda bir nokta olarak tanımlanır. Case-based reasoning yöntemi Uses symbolic representations and knowledge-based inference 55/84 k-en yakın komşu yöntemi(knn) Unknown record Requires three things The set of stored records Distance Metric to compute distance between records The value of k, the number of nearest neighbors to retrieve 56/42 28

29 En yakın komşu tanımı X X X (a) 1-nearest neighbor (b) 2-nearest neighbor (c) 3-nearest neighbor x verisinin k-en yakın komşusu x e uzaklığı en küçük olan k veridir. 57/42 k-en yakın komşu yöntemi Temel yaklaşım: Sınıflandırılmak istenen örneğe en yakın örnekleri bul. Örnek: ördek gibi yürüyor, ördek gibi bağırıyor => büyük olasılıkla ördek 58/84 29

30 k-en yakın komşu yöntemi Nesneler arası yakınlıklar (uzaklıklar) öklid uzaklığı ile ifade edilir. Nitelik değerleri normalize edilerek kullanılır. Nümerik olmayan nitelikler? k değeri nasıl belirlenecek? 59/84 k-en yakın komşu yöntemi Bütün örnekler n-boyutlu uzayda bir noktaya karşı düşürülür Nesnelerarasındakiuzaklık(Ökliduzaklığı) dist(x 1, X 2 ) Öğrenilen fonksiyon ayrık değerli veya gerçel değerli olabilir Ayrık değerli fonksiyonlarda, k komşu algoritması öğrenme örneğindeen çokgörülenx q örneğineen yakınsınıfdeğerini verir Sürekli değerli fonksiyonlarda en yakın k öğrenme örneğinin ortalaması alınır +. + x q + X q örneği 1-en yakın komşuya göre pozitif olarak, 5-en yakın komşuya göre negatif olarak sınıflandırılır 60/84 30

31 k-en yakın komşu yöntemi Compute distance between two points: Euclidean distance/öklid uzaklığı d( p, q) = i ( p i q i 2 ) Determine the class from nearest neighbor list take the majority vote of class labels among the k-nearest neighbors Weigh the vote according to distance weight factor, w = 1/d 2 61/84 k-en yakın komşu yöntemi Choosing the value of k: If k is too small, sensitive to noise points If k is too large, neighborhood may include points from other classes 62/84 31

32 k-en yakın komşu yöntemi Scaling issues Attributes may have to be scaled to prevent distance measures from being dominated by one of the attributes Example: height of a person may vary from 1.5m to 1.8m weight of a person may vary from 90lb to 300lb income of a person may vary from $10K to $1M 63/84 k-en yakın komşu yöntemi Problem with Euclidean measure: High dimensional data curse of dimensionality Solution: Normalize the vectors to unit length 64/84 32

33 Diğer Sınıflandırma Yöntemleri Yapay Sinir Ağları ile Sınıflandırma İnsan beynindeki sinir hücrelerinin işlevini modelleyen bir yapı GenetikAlgoritmalar Optimizasyon amaçlı. Bir başlangıç çözümü öneriyor, tekrarlanan her ara adımda daha iyi çözüm üretmeye çalışıyor. Doğalevrimeveen iyiolanınyaşamını sürdürmesine dayanıyor 65/84 Yapay Sinir Ağı(YSA) X 1 X 2 X 3 Y Eğer girdilerden (X) en az 2 tanesi 1 ise çıktı Y=1 66/84 33

34 Yapay Sinir Ağı(YSA) Girdiler için ağırlıklandırma yapılabilir. X 1 X 2 X 3 Y Y = I ( 0.3 X X X 3 1 if z is true where I ( z) = 0 otherwise 0.4 > 0) 67/84 Yapay Sinir Ağı(YSA) Model bağlı düğümler ve ağırlıklandırılmış bağlantılardan oluşur Çıktı değeri girdilerin bağlantılarla tanımlanmış toplamına eşittir Çıktı değeri daha önceden tanımlı bir eşik değer ile karşılaştırılarak karar verilir Perceptron Model Y = I ( wi X i t) i Y = sign( wi X i t) i or 34

35 Yapay Sinir Ağı(YSA) Genel Yapı YSA nın eğitilmesi düğümlerin ağırlık değerlerinin öğrenilmesini içerir 69/60 YSA Öğrenmesi Başlangıç ağırlık değerlerini belirle (w 0, w 1,, w k ) Ağırlıkları YSA çıktısı öğrenme kümesinde yer alan örneklerin sınıf etiketleri ile uyumlu olacak şekilde güncelle Amaç fonksiyonu (Objective function): E = [ Y (, )] 2 i f wi X i i Amaç fonksiyonunu en küçük yapacak w i ağırlıklarını belirle Örnek: backpropagation algorithm 70/84 35

36 Sınıflandırma Modelini Değerlendirme Model başarımını değerlendirme ölçütleri nelerdir? Hataoranı Anma Duyarlılık F-ölçütü ROC eğrileri Modelin sınıfladırma yeteneğine odaklanılır. Hız ölçeklenebilirlik gibi diğer metrikler ikincil öneme sahiptir. 73/84 Sınıflandırma Modelini Değerlendirme Sınıflandırma yöntemlerinin hatalarını ölçme başarı: örnek doğru sınıfa atandı hata: örnek yanlış sınıfa atandı hata oranı: hata sayısının toplam örnek sayısına bölünmesi Hata oranı sınama kümesi kullanılarak hesaplanır 74/84 36

37 Sınıflandırma Modelini Değerlendirme Model başarımını değerlendirme ölçütleri modelin ne kadar doğru sınıflandırma yaptığını ölçer hız, ölçeklenebilirlik gibi özellikleri değerlendirmez Karışıklık matrisi: a: TP (true positive) b: FN (false negative) c: FP (false positive) d: TN (true negative) Gerçek sınıf Class=Yes Class=No Tahmin edilen sınıf Class=Yes a (TP) c (FP) Class=No b (FN) d (TN) 75/84 Sınıflandırma Modelini Değerlendirme Gerçek sınıf Tahmin edilen sınıf Class=Yes Class=No Class=Yes a (TP) c (FP) Class=No b (FN) d (TN) En çok kullanılan metrik: doğruluk (accuracy) a + d TP + TN Accuracy = = a + b + c + d TP + TN + FP + FN Hata oranı = 1-Accuracy 76/84 37

38 Sınıflandırma Modelini Değerlendirme Hangi sınıflandırıcı daha iyi? B ve C, A dandaha iyi bir sınıflandırıcı B, C dendaha iyi bir sınıflandırıcı mı? 77/84 Limitation of Accuracy Consider a 2-class problem Number of Class 0 examples = 9990 Number of Class 1 examples = 10 If model predicts everything to be class 0, accuracy is 9990/10000 = 99.9 % Accuracy is misleading because model does not detect any class 1 example 78/84 38

39 Cost Matrix PREDICTED CLASS C(i j) Class=Yes Class=No ACTUAL CLASS Class=Yes C(Yes Yes) C(No Yes) Class=No C(Yes No) C(No No) C(i j): Cost of misclassifying class j example as class i 79/42 Computing Cost of Classification Cost Matrix ACTUAL CLASS PREDICTED CLASS C(i j) Model M 1 PREDICTED CLASS Model M 2 PREDICTED CLASS ACTUAL CLASS ACTUAL CLASS Accuracy = 80% Cost = 3910 Accuracy = 90% Cost = /42 39

40 Cost-Sensitive Measures a Precision (p) = a + c a Recall (r) = a + b 2rp 2a F - measure (F) = = r + p 2a + b + c Gerçek sınıf Class=Yes Class=No Tahmin edilen sınıf Class=Yes a (TP) c (FP) Class=No b (FN) d (TN) Precision is biased towards C(Yes Yes) & C(Yes No) Recall is biased towards C(Yes Yes) & C(No Yes) F-measure is biased towards all except C(No No) w a + w d 1 4 Weighted Accuracy = w a + w b + w c + w d /42 Classifier Evaluation Metrics: Example Actual Class\Predicted class cancer = yes cancer = no Total cancer = yes cancer = no Total Duyarlılık -Precision= 90/230 = 39.13% Pozitif olarak bulunmuş örneklerden yüzde kaçı gerçekten pozitif Recall= 90/300 = 30.00% Pozitif örneklerden yüzde kaçı doğru olarak bulunabilmiş

41 Sınıflandırma Modelini Değerlendirme A modeli B modelinden daha iyi recall ve duyarlılık (precision) değerine sahipse A modeli daha iyi bir sınıflandırıcıdır. Duyarlılık (precision) ve recall arasında ters orantı var. 83/84 Sensitivity- specificity sensitivityor true positive rate (TPR)Daha çok biomedikal alanında kullanılır Recall Sensitivity=TP/(TP+FN) = a/(a+b) Hasta birini hasta olarak etiketleme olasılığı specificity(spc) or true negative rate(tnr) Specifity= TN/(TN+FP) = d/(c+d) Hasta olmayan birisini hasta değil olarak etiketleme olasılığı Tahmin edilen sınıf Class=Yes Class=No Gerçek sınıf Class=Yes Class=No a (TP) c (FP) b (FN) d (TN) 84/84 41

42 Receiver Operating Characteristic(ROC) Eğrisi 85/84 Non-diseased cases Diseased cases Threshold Test result value or subjective judgement of likelihood that case is diseased 42

43 Non-diseased cases Diseased cases more typically: Test result value or subjective judgement of likelihood that case is diseased Non-diseased cases Diseased cases Threshold TPF, sensitivity less aggressive mindset FPF, 1-specificity 43

44 Non-diseased cases Diseased cases Threshold TPF, sensitivity moderate mindset FPF, 1-specificity Non-diseased cases Diseased cases Threshold TPF, sensitivity more aggressive mindset FPF, 1-specificity 44

45 Non-diseased cases Entire ROC curve Diseased cases Threshold TPF, sensitivity FPF, 1-specificity Entire ROC curve TPF, sensitivity Reader Skill and/or Level of Technology FPF, 1-specificity 45

Veri Madenciliği. Bölüm 6. Sınıflandırma 2. Doç. Dr. Suat Özdemir.

Veri Madenciliği. Bölüm 6. Sınıflandırma 2. Doç. Dr. Suat Özdemir. Bölüm 6. Sınıflandırma 2 http://ceng.gazi.edu.tr/~ozdemir Karar Ağacı Örnek Algoritma: ID3 Bütün nitelikler ayrık Bir düğüm oluştur N: Eğer örneklerin hepsi C sınıfına ait ise, N düğümü C etiketli yaprak

Detaylı

VERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr

VERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr VERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma

Detaylı

Eğitim seti (training set) sınıflandırma modelinin elde edileceği kayıtları içerir

Eğitim seti (training set) sınıflandırma modelinin elde edileceği kayıtları içerir sınıflandırma: temel kavramlar, karar ağaçları ve model değerlendirme Sınıflandırma : Tanım Eğitim seti (training set) sınıflandırma modelinin elde edileceği kayıtları içerir Eğitim setindeki her kayıt

Detaylı

Dr. Hidayet Takçı. Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1

Dr. Hidayet Takçı. Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1 Besinci Saat Sınıflandırma: Alternatif Teknikler Dr. Hidayet Takçı Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1 Kural tabanlı Sınıflayıcı if then şeklinde ifade edilebilecek kurallarının

Detaylı

Gözetimli & Gözetimsiz Öğrenme

Gözetimli & Gözetimsiz Öğrenme Bölüm 5. Sınıflandırma 1 http://ceng.gazi.edu.tr/~ozdemir Gözetimli & Gözetimsiz Öğrenme Predictive Data Mining vs. Descriptive Data Mining Gözetimli (Supervised) öğrenme= sınıflandırma (clasification)

Detaylı

Web Madenciliği (Web Mining)

Web Madenciliği (Web Mining) Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Sınıflandırıcıların Değerlendirilmesi Skorlar Karışıklık matrisi Accuracy Precision Recall

Detaylı

Tanı Testlerinin Değerlendirilmesi. ROC Analizi. Prof.Dr. Rian DİŞÇİ

Tanı Testlerinin Değerlendirilmesi. ROC Analizi. Prof.Dr. Rian DİŞÇİ Tanı Testlerinin Değerlendirilmesi ROC Analizi Prof.Dr. Rian DİŞÇİ İstanbul Üniversitesi, Onkoloji Enstitüsü Kanser Epidemiyolojisi Ve Biyoistatistik Bilim Dalı Tanı Testleri Klinik çalışmalarda, özellikle

Detaylı

YZM 3217 YAPAY ZEKA DERS#9: ÖĞRENME VE SINIFLANDIRMA

YZM 3217 YAPAY ZEKA DERS#9: ÖĞRENME VE SINIFLANDIRMA YZM 3217 YAPAY ZEKA DERS#9: ÖĞRENME VE SINIFLANDIRMA Makine Öğrenmesi Çok büyük miktardaki verilerin elle işlenip analiz edilmesi mümkün değildir. Bu tür problemlere çözüm bulmak amacıyla makine öğrenmesi

Detaylı

K En Yakın Komşu Methodu (KNearest Neighborhood)

K En Yakın Komşu Methodu (KNearest Neighborhood) K En Yakın Komşu Methodu (KNearest Neighborhood) K-NN algoritması, Thomas. M. Cover ve Peter. E. Hart tarafından önerilen, örnek veri noktasının bulunduğu sınıfın ve en yakın komşunun, k değerine göre

Detaylı

TANI TESTLERİNİN İSTATİSTİKSEL DEĞERLENDİRİLMESİ

TANI TESTLERİNİN İSTATİSTİKSEL DEĞERLENDİRİLMESİ TANI TESTLERİNİN İSTATİSTİKSEL DEĞERLENDİRİLMESİ İÇERİK Tanı testi Altın Standart Test Tanı Testi ile Altın Standart Testin Karşılaştırması İstatistiksel Değerlendirme Duyarlık, Seçicilik,Yanlış Negatif

Detaylı

Veri Madenciliği. Bölüm 5. Sınıflandırma 1. Doç. Dr. Suat Özdemir.

Veri Madenciliği. Bölüm 5. Sınıflandırma 1. Doç. Dr. Suat Özdemir. Bölüm 5. Sınıflandırma 1 http://ceng.gazi.edu.tr/~ozdemir Gözetimli & Gözetimsiz Öğrenme Predictive Data Mining vs. Descriptive Data Mining Gözetimli (Supervised) öğrenme= sınıflandırma (clasification)

Detaylı

Instance Based Learning k-nn. YZM 3226 Makine Öğrenmesi

Instance Based Learning k-nn. YZM 3226 Makine Öğrenmesi Instance Based Learning k-nn YZM 3226 Makine Öğrenmesi Outline Eager vs. Lazy Learning Instance Based Learning K-Nearest Neighbor Algorithm Nearest Neighbor Approach Basic k-nearest Neighbor Classification

Detaylı

Eğiticili (supervised) öğrenme: Sınıflandırma (classification) Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğu bilinir

Eğiticili (supervised) öğrenme: Sınıflandırma (classification) Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğu bilinir Eğiticili (supervised) öğrenme: Sınıflandırma (classification) Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğu bilinir Eğiticisiz (unsupervised) öğrenme: Kümeleme (clustering) Hangi nesnenin hangi

Detaylı

tree) nedir? Karar Ağacı (Decision Decisiontree

tree) nedir? Karar Ağacı (Decision Decisiontree Karar Ağacı (Decision Decisiontree tree) nedir? Bir işletme yönetimi tarafından tercihlerin, risklerin, kazançların, hedeflerin tanımlanmasında yardımcı olabilen ve birçok önemli yatırım alanlarında uygulanabilen,

Detaylı

Konular VERİ MADENCİLİĞİ. Örnek Tabanlı Yöntemler. En Yakın Komşu Sınıflandırıcı. En Yakın Komşu Yöntemi. Farklı Sınıflandırma Yöntemleri

Konular VERİ MADENCİLİĞİ. Örnek Tabanlı Yöntemler. En Yakın Komşu Sınıflandırıcı. En Yakın Komşu Yöntemi. Farklı Sınıflandırma Yöntemleri VERİ MADENCİLİĞİ Farklı Sınıflandırma Yöntemleri Yrd. Doç. Dr. Şule Gündüz Öğüdücü Örnek tabanlı yöntemler ken Yakın Komşu Yöntemi Genetik Algoritmalar Karar Destek Makinaları Bulanık Küme Sınıflandırıcılar

Detaylı

Dr. Hidayet Takçı. Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1

Dr. Hidayet Takçı. Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1 Dördüncü Saat sınıflandırma: temel kavramlar, karar ağaçları ve model değerlendirme Dr. Hidayet Takçı Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1 Sınıflandırma : Tanım Eğitim seti (training

Detaylı

BAYES ÖĞRENMESİ BİLECİK ÜNİVERSİTESİ. Araş. Gör. Nesibe YALÇIN. Yapay Zeka-Bayes Öğrenme

BAYES ÖĞRENMESİ BİLECİK ÜNİVERSİTESİ. Araş. Gör. Nesibe YALÇIN. Yapay Zeka-Bayes Öğrenme BAYES ÖĞRENMESİ Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ Yapay Zeka-Bayes Öğrenme 1 İÇERİK Bayes Teoremi Bayes Sınıflandırma Örnek Kullanım Alanları Avantajları Dezavantajları Yapay Zeka-Bayes Öğrenme

Detaylı

Web Madenciliği (Web Mining)

Web Madenciliği (Web Mining) Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Denetimli Öğrenmenin Temelleri Karar Ağaçları Entropi ID3 Algoritması C4.5 Algoritması Twoing

Detaylı

İstatistik 1. Bölüm 5 Olasılık Teorisi ve Kesikli Olasılık Dağılımları. Ankara Üniversitesi SBF, GYY

İstatistik 1. Bölüm 5 Olasılık Teorisi ve Kesikli Olasılık Dağılımları. Ankara Üniversitesi SBF, GYY İstatistik 1 Bölüm 5 Olasılık Teorisi ve Kesikli Olasılık Dağılımları Bu Bölümde İşlenecek Konular Temel Olasılık Teorisi Örnek uzayı ve olaylar, basit olasılık, birleşik olasılık Koşullu Olasılık İstatistiksel

Detaylı

TANI TESTLERINE GIRIŞ & ROC ANALİZİ

TANI TESTLERINE GIRIŞ & ROC ANALİZİ TANI TESTLERINE GIRIŞ & ROC ANALİZİ Yrd.Doç.Dr. Selçuk Korkmaz Trakya Üniversitesi Tıp Fakültesi Biyoistatistik Anabilim Dalı Turcosa Analitik Çözümlemeler selcukorkmaz@gmail.com ÇOCUK NEFROLOJİ DERNEĞİ

Detaylı

Konular VERİ MADENCİLİĞİ. Örnek Tabanlı Yöntemler. En Yakın Komşu Sınıflandırıcı. En Yakın Komşu Yöntemi. Farklı Sınıflandırma Yöntemleri

Konular VERİ MADENCİLİĞİ. Örnek Tabanlı Yöntemler. En Yakın Komşu Sınıflandırıcı. En Yakın Komşu Yöntemi. Farklı Sınıflandırma Yöntemleri Konular VERİ MADENCİLİĞİ Farklı Sınıflandırma Yöntemleri Yrd. Doç. Dr. Şule Gündüz Öğüdücü Örnek tabanlı yöntemler ken Yakın Komşu Yöntemi Genetik Algoritmalar Bulanık Küme Sınıflandırıcılar Öngörü Eğri

Detaylı

Uzaktan Algılama Teknolojileri

Uzaktan Algılama Teknolojileri Uzaktan Algılama Teknolojileri Ders 11 Hiperspektral Görüntülerde Kümeleme ve Sınıflandırma Alp Ertürk alp.erturk@kocaeli.edu.tr Sınıflandırma Sınıflandırma işleminin amacı, her piksel vektörüne bir ve

Detaylı

Veri madenciliği sınıflandırma ve kümeleme teknikleri yardımıyla Wisconsin veriseti üzerinde Göğüs Kanseri Teşhisi. Hazırlayan: Nury Amanmadov

Veri madenciliği sınıflandırma ve kümeleme teknikleri yardımıyla Wisconsin veriseti üzerinde Göğüs Kanseri Teşhisi. Hazırlayan: Nury Amanmadov Veri madenciliği sınıflandırma ve kümeleme teknikleri yardımıyla Wisconsin veriseti üzerinde Göğüs Kanseri Teşhisi Hazırlayan: Nury Amanmadov Göğüs Kanseri Nedir? Gögüs Kanseri göğüs hücrelerinde başlayan

Detaylı

Hafta 03/04 - Uzaklık/Benzerlik - En Yakın Komşular - Karar Ağaçları

Hafta 03/04 - Uzaklık/Benzerlik - En Yakın Komşular - Karar Ağaçları Hafta 03/04 - Uzaklık/Benzerlik - En Yakın Komşular - Karar Ağaçları BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr

Detaylı

Hafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti

Hafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti Hafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr

Detaylı

Hastalıklarda Risk Faktörleri ve Tarama Tanı ve Tedavi Etkinliği İstatistikleri. A.Ayça ÖZDEMİR

Hastalıklarda Risk Faktörleri ve Tarama Tanı ve Tedavi Etkinliği İstatistikleri. A.Ayça ÖZDEMİR Hastalıklarda Risk Faktörleri ve Tarama Tanı ve Tedavi Etkinliği İstatistikleri A.Ayça ÖZDEMİR İçerik Hastalıklarda Risk Faktörleri Geriye Dönük Case Control Odds Ratio İleriye Dönük Kohort Çalışmalarda

Detaylı

Veri Madenciliği Karar Ağacı Oluşturma

Veri Madenciliği Karar Ağacı Oluşturma C4.5 Algoritması Veri Madenciliği Karar Ağacı Oluşturma Murat TEZGİDER 1 C4.5 Algoritması ID3 algoritmasını geliştiren Quinlan ın geliştirdiği C4.5 karar ağacı oluşturma algoritmasıdır. ID3 algoritmasında

Detaylı

VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN

VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr İçerik Sınıflandırma yöntemleri Karar ağaçları ile sınıflandırma Entropi Kavramı ID3 Algoritması C4.5

Detaylı

K-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi

K-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi K-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi Erdal TAŞCI* Aytuğ ONAN** *Ege Üniversitesi Bilgisayar Mühendisliği Bölümü **Celal Bayar Üniversitesi

Detaylı

Makine Öğrenmesi İle Duygu Analizinde Veri Seti Performansı

Makine Öğrenmesi İle Duygu Analizinde Veri Seti Performansı Makine Öğrenmesi İle Duygu Analizinde Veri Seti Performansı Hatice NİZAM İstanbul Üniversitesi Bilgisayar Mühendisliği Bölümü haticenizam@outlook.com Saliha Sıla AKIN ERS Turizm Yazılım Şirketi, Bilgisayar

Detaylı

Adım Adım SPSS. 1- Data Girişi ve Düzenlemesi 2- Hızlı Menü. Y. Doç. Dr. İbrahim Turan Nisan 2011

Adım Adım SPSS. 1- Data Girişi ve Düzenlemesi 2- Hızlı Menü. Y. Doç. Dr. İbrahim Turan Nisan 2011 Adım Adım SPSS 1- Data Girişi ve Düzenlemesi 2- Hızlı Menü Y. Doç. Dr. İbrahim Turan Nisan 2011 File (Dosya) Menüsü Excel dosyalarını SPSS e aktarma Variable View (Değişken Görünümü 1- Name (İsim - Kod)

Detaylı

Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)

Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data) Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data) M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Bu dersin sunumları, The Elements of Statistical Learning: Data

Detaylı

Web Madenciliği (Web Mining)

Web Madenciliği (Web Mining) Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Denetimsiz Öğrenmenin Temelleri Kümeleme Uzaklık Fonksiyonları Öklid Uzaklığı Manhattan

Detaylı

Makine Öğrenmesi 3. hafta

Makine Öğrenmesi 3. hafta Makine Öğrenmesi 3. hafta Entropi Karar Ağaçları (Desicion Trees) ID3 C4.5 Sınıflandırma ve Regresyon Ağaçları (CART) Karar Ağacı Nedir? Temel fikir, giriş verisinin bir kümeleme algoritması yardımıyla

Detaylı

VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN

VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma

Detaylı

BAYES KURAMI. Dr. Cahit Karakuş

BAYES KURAMI. Dr. Cahit Karakuş BAYES KURAMI Dr. Cahit Karakuş Deney, Olay, Sonuç Küme Klasik olasılık Bayes teoremi Permütasyon, Kombinasyon Rasgele Değişken; Sürekli olasılık dağılımı Kesikli - Süreksiz olasılık dağılımı Stokastik

Detaylı

1 I S L U Y G U L A M A L I İ K T İ S A T _ U Y G U L A M A ( 5 ) _ 3 0 K a s ı m

1 I S L U Y G U L A M A L I İ K T İ S A T _ U Y G U L A M A ( 5 ) _ 3 0 K a s ı m 1 I S L 8 0 5 U Y G U L A M A L I İ K T İ S A T _ U Y G U L A M A ( 5 ) _ 3 0 K a s ı m 2 0 1 2 CEVAPLAR 1. Tekelci bir firmanın sabit bir ortalama ve marjinal maliyet ( = =$5) ile ürettiğini ve =53 şeklinde

Detaylı

WEEK 11 CME323 NUMERIC ANALYSIS. Lect. Yasin ORTAKCI.

WEEK 11 CME323 NUMERIC ANALYSIS. Lect. Yasin ORTAKCI. WEEK 11 CME323 NUMERIC ANALYSIS Lect. Yasin ORTAKCI yasinortakci@karabuk.edu.tr 2 INTERPOLATION Introduction A census of the population of the United States is taken every 10 years. The following table

Detaylı

Veri Madenciliği - Giriş. Erdem Alparslan

Veri Madenciliği - Giriş. Erdem Alparslan Veri Madenciliği - Giriş Erdem Alparslan Amaçlar İş zekasının önemli bir parçası olan veri madenciliğinin tanımı İş analizi ve veri madenciliğinin amaçlarının anlaşılması Veri madenciliğini kullanan çok

Detaylı

Veri madenciliği yöntemleri

Veri madenciliği yöntemleri Sınıflandırma ve Kümeleme Kavramları Giriş Verinin içerdiği ortak özelliklere göre ayrıştırılması işlemi sınıflandırma olarak adlandırılır, veri madenciliği tekniklerinden en çok bilinenidir; veri tabanlarındaki

Detaylı

VERİ MADENCİLİĞİ Metin Madenciliği

VERİ MADENCİLİĞİ Metin Madenciliği VERİ MADENCİLİĞİ Metin Madenciliği Yrd. Doç. Dr. Şule Gündüz Öğüdücü 1 2 Metin için Veri Madenciliği Metin Madenciliğinde Sorunlar Metin madenciliği: Veri madenciliği teknikleri ile yazılı belgeler arasındaki

Detaylı

Akış YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ

Akış YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ Akış Makine Öğrenmesi nedir? Günlük Hayatımızdaki Uygulamaları Verilerin Sayısallaştırılması Özellik Belirleme Özellik Seçim Metotları Bilgi Kazancı (Informaiton Gain-IG) Sinyalin Gürültüye Oranı: (S2N

Detaylı

Veri ve Metin Madenciliği

Veri ve Metin Madenciliği Veri ve Metin Madenciliği Zehra Taşkın Veri Madenciliği Bir kutu toplu iğne İçine 3 boncuk düşürdünüz Nasıl alacağız? Fikirler? Veri Madenciliği Data Information Knowledge Veri madenciliği; Büyük yoğunluklu

Detaylı

Veri ve Metin Madenciliği. Zehra

Veri ve Metin Madenciliği. Zehra Veri ve Metin Madenciliği Zehra Taşkın @zehrataskin Büyük Veri https://www.youtube.com/watch?v=tzxmjbl-i4y Veri Madenciliği Bir kutu toplu iğne İçine 3 boncuk düşürdünüz Nasıl alacağız? Veri Madenciliği

Detaylı

BBM Discrete Structures: Final Exam Date: , Time: 15:00-17:00

BBM Discrete Structures: Final Exam Date: , Time: 15:00-17:00 BBM 205 - Discrete Structures: Final Exam Date: 12.1.2017, Time: 15:00-17:00 Ad Soyad / Name: Ögrenci No /Student ID: Question: 1 2 3 4 5 6 7 8 9 10 11 Total Points: 6 16 8 8 10 9 6 8 14 5 10 100 Score:

Detaylı

Hafta 05 - Karar Ağaçları/Kümeleme

Hafta 05 - Karar Ağaçları/Kümeleme BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr İstanbul Şehir Üniversitesi 2018 - Bahar İçindekiler

Detaylı

Olasılık teorisi, matematiğin belirsizlik taşıyan olaylarla ilgilenen bir dalıdır. Bu bilim dalı rasgele değişkenleri inceler.

Olasılık teorisi, matematiğin belirsizlik taşıyan olaylarla ilgilenen bir dalıdır. Bu bilim dalı rasgele değişkenleri inceler. Bölüm 2 OLASILIK TEORİSİ Olasılık teorisi, matematiğin belirsizlik taşıyan olaylarla ilgilenen bir dalıdır. Bu bilim dalı rasgele değişkenleri inceler. Rasgele değişken, gelecekteki bir gözlemde alacağı

Detaylı

Görüntü Sınıflandırma

Görüntü Sınıflandırma Görüntü Sınıflandırma Chapter 12 https://www.google.com.tr/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0 CBwQFjAA&url=http%3A%2F%2Ffaculty.une.edu%2Fcas%2Fszeeman%2Frs%2Flect%2FCh%2 52012%2520Image%2520Classification.ppt&ei=0IA7Vd36GYX4Uu2UhNgP&usg=AFQjCNE2wG

Detaylı

2.1 Bir Sınıfı Örneklerinden Öğrenme... 15 2.2 Vapnik-Chervonenkis (VC) Boyutu... 20 2.3 Olası Yaklaşık Doğru Öğrenme... 21

2.1 Bir Sınıfı Örneklerinden Öğrenme... 15 2.2 Vapnik-Chervonenkis (VC) Boyutu... 20 2.3 Olası Yaklaşık Doğru Öğrenme... 21 İçindekiler Önsöz İkinci Basım için Önsöz Türkçe Çeviri için Önsöz Gösterim xiii xv xvii xix 1 Giriş 1 1.1 Yapay Öğrenme Nedir?......................... 1 1.2 Yapay Öğrenme Uygulamalarına Örnekler...............

Detaylı

BİYOİSTATİSTİK Olasılıkta Temel Kavramlar Yrd. Doç. Dr. Aslı SUNER KARAKÜLAH

BİYOİSTATİSTİK Olasılıkta Temel Kavramlar Yrd. Doç. Dr. Aslı SUNER KARAKÜLAH BİYOİSTTİSTİK Olasılıkta Temel Kavramlar Yrd. Doç. Dr. slı SUNER KRKÜLH Ege Üniversitesi, Tıp Fakültesi, Biyoistatistik ve Tıbbi Bilişim D. Web: www.biyoistatistik.med.ege.edu.tr 1 OLSILIK Olasılık; Tablo

Detaylı

SPSS (Statistical Package for Social Sciences)

SPSS (Statistical Package for Social Sciences) SPSS (Statistical Package for Social Sciences) SPSS Data Editor: Microsoft Excel formatına benzer satır ve sütunlardan oluşan çalışma sayfası (*sav) Data Editör iki arayüzden oluşur. 1. Data View 2. Variable

Detaylı

Graflar bilgi parçaları arasındaki ilişkileri gösterirler.

Graflar bilgi parçaları arasındaki ilişkileri gösterirler. Graflar (Graphs) Graf gösterimi Uygulama alanları Graf terminolojisi Depth first dolaşma Breadth first dolaşma Topolojik sıralama Yrd.Doç.Dr. M. Ali Akcayol Graflar Graflar bilgi parçaları arasındaki ilişkileri

Detaylı

Ankara Üniversitesi, SBF İstatistik 2 Ders Notları Prof. Dr. Onur Özsoy 1

Ankara Üniversitesi, SBF İstatistik 2 Ders Notları Prof. Dr. Onur Özsoy 1 1 Rastgele bir denemede ortaya çıkması olası sonuçların tamamıdır Örnek: bir zar bir kez yuvarlandığında S= Yukarıdaki sonuçlardan biri elde edilecektir. Sonuçların her biri basit olaydır Örnek: Bir deste

Detaylı

Markov Zinciri Monte Carlo Yaklaşımı. Aktüeryal Uygulamaları

Markov Zinciri Monte Carlo Yaklaşımı. Aktüeryal Uygulamaları Markov Zinciri Monte Carlo Yaklaşımı ve Aktüeryal Uygulamaları ŞİRZAT ÇETİNKAYA Aktüer Sistem Araştırma Geliştirme Bölümü AKTÜERLER DERNEĞİ 2.0.20080 2008 - İSTANBUL Sunum Planı. Giriş 2. Bayesci Metodun

Detaylı

Unlike analytical solutions, numerical methods have an error range. In addition to this

Unlike analytical solutions, numerical methods have an error range. In addition to this ERROR Unlike analytical solutions, numerical methods have an error range. In addition to this input data may have errors. There are 5 basis source of error: The Source of Error 1. Measuring Errors Data

Detaylı

Yarışma Sınavı A ) 60 B ) 80 C ) 90 D ) 110 E ) 120. A ) 4(x + 2) B ) 2(x + 4) C ) 2 + ( x + 4) D ) 2 x + 4 E ) x + 4

Yarışma Sınavı A ) 60 B ) 80 C ) 90 D ) 110 E ) 120. A ) 4(x + 2) B ) 2(x + 4) C ) 2 + ( x + 4) D ) 2 x + 4 E ) x + 4 1 4 The price of a book is first raised by 20 TL, and then by another 30 TL. In both cases, the rate of increment is the same. What is the final price of the book? 60 80 90 110 120 2 3 5 Tim ate four more

Detaylı

Regresyon ve Sınıflandırma

Regresyon ve Sınıflandırma Regresyon ve Sınıflandırma p Temel fark n n Sınıflandırmada sıralı olmayan kategorik bir hedef değişken vardır. Regresyon probleminde sürekli ya da sıralı bir hedef değişken vardır. p Tüm regresyon yaklaşımları,

Detaylı

3 KESİKLİ RASSAL DEĞİŞKENLER VE OLASILIK DAĞILIMLARI

3 KESİKLİ RASSAL DEĞİŞKENLER VE OLASILIK DAĞILIMLARI ÖNSÖZ İÇİNDEKİLER III Bölüm 1 İSTATİSTİK ve SAYISAL BİLGİ 11 1.1 İstatistik ve Önemi 12 1.2 İstatistikte Temel Kavramlar 14 1.3 İstatistiğin Amacı 15 1.4 Veri Türleri 15 1.5 Veri Ölçüm Düzeyleri 16 1.6

Detaylı

VERİ MADENCİLİĞİ. Karar Ağacı Algoritmaları: SPRINT algoritması Öğr.Gör.İnan ÜNAL

VERİ MADENCİLİĞİ. Karar Ağacı Algoritmaları: SPRINT algoritması Öğr.Gör.İnan ÜNAL VERİ MADENCİLİĞİ Karar Ağacı Algoritmaları: SPRINT algoritması Öğr.Gör.İnan ÜNAL SPRINT Algoritması ID3,CART, ve C4.5 gibi algoritmalar önce derinlik ilkesine göre çalışırlar ve en iyi dallara ayırma kriterine

Detaylı

Bölüm 6. Diziler (arrays) Temel kavramlar Tek boyutlu diziler Çok boyutlu diziler

Bölüm 6. Diziler (arrays) Temel kavramlar Tek boyutlu diziler Çok boyutlu diziler Bölüm 6 Diziler (arrays) Temel kavramlar Tek boyutlu diziler Çok boyutlu diziler Chapter 6 Java: an Introduction to Computer Science & Programming - Walter Savitch 1 Genel Bakış Dizi: Hepsi aynı türde

Detaylı

Zeki Optimizasyon Teknikleri

Zeki Optimizasyon Teknikleri Zeki Optimizasyon Teknikleri Ara sınav - 25% Ödev (Haftalık) - 10% Ödev Sunumu (Haftalık) - 5% Final (Proje Sunumu) - 60% - Dönem sonuna kadar bir optimizasyon tekniğiyle uygulama geliştirilecek (Örn:

Detaylı

A New Approach for Named Entity Recognition

A New Approach for Named Entity Recognition A New Approach for Named Entity Recognition Burak Ertopçu 1, Ali Buğra Kanburoğlu 1, Ozan Topsakal 1, Onur Açıkgöz 1, Ali Tunca Gürkan 1, Berke Özenç 1, İlker Çam 1, Begüm Avar 2, Gökhan Ercan 1, Olcay

Detaylı

Kümeler arası. Küme içi. uzaklıklar. maksimize edilir. minimize edilir

Kümeler arası. Küme içi. uzaklıklar. maksimize edilir. minimize edilir Kümeleme Analizi: Temel Kavramlar ve Algoritmalar Kümeleme Analizi Nedir? Her biri bir dizi öznitelik ile, veri noktalarının bir kümesi ve noktalar arasındaki benzerliği ölçen bir benzerlik ölçümü verilmiş

Detaylı

Nitel Tepki Bağlanım Modelleri

Nitel Tepki Bağlanım Modelleri Doğrusal-Dışı Yaklaşım ve Nitel Tepki Bağlanım Modelleri Doğrusal-Dışı Yaklaşım ve Ekonometri 2 Konu 18 Sürüm 2,0 (Ekim 2011) Doğrusal-Dışı Yaklaşım ve UADMK Açık Lisans Bilgisi İşbu belge, Creative Commons

Detaylı

Veri Madenciliği Eğiticili Algoritmalar. Erdem Alparslan

Veri Madenciliği Eğiticili Algoritmalar. Erdem Alparslan Veri Madenciliği Eğiticili Algoritmalar Erdem Alparslan Gündem Sınıflandırma nedir? Öngörü nedir? Sınıflandırma ve öngörü ile ilgili konular Karar ağacı ile sınıflandırma Bayesian Sınıflandırma Geri yayılımlı

Detaylı

Örnek Bir zar atıldığında zarın üstünde bulunan noktaların sayısı gözlensin. Çift sayı gelmesi olasılığı nedir? n(s) = 3 6 = 1 2

Örnek Bir zar atıldığında zarın üstünde bulunan noktaların sayısı gözlensin. Çift sayı gelmesi olasılığı nedir? n(s) = 3 6 = 1 2 Bir Olayın Olasılığı P(A) = n(a) n(s) = A nın eleman sayısı S nin eleman sayısı Örnek Bir zar atıldığında zarın üstünde bulunan noktaların sayısı gözlensin. Çift sayı gelmesi olasılığı nedir? Çözüm: S

Detaylı

Dilbilgisi ve Diller

Dilbilgisi ve Diller Dilbilgisi ve Diller Doç.Dr.Banu Diri 1. Her biçimsel dil belirli bir alfabe üzerinde tanımlanır. 2. Alfabe sonlu sayıda simgelerden oluşan bir kümedir. 3. Alfabedeki simgelerin arka arkaya getirilmesi

Detaylı

rasgele değişkeninin olasılık yoğunluk fonksiyonu,

rasgele değişkeninin olasılık yoğunluk fonksiyonu, 3.6. Bazı Sürekli Dağılımlar 3.6.1 Normal Dağılım Normal dağılım hem uygulamalı hem de teorik istatistikte kullanılan oldukça önemli bir dağılımdır. Normal dağılımın istatistikte önemli bir yerinin olmasının

Detaylı

MIT OpenCourseWare http://ocw.mit.edu. 14.30 Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

MIT OpenCourseWare http://ocw.mit.edu. 14.30 Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009 MIT OpenCourseWare http://ocw.mit.edu 14.30 Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009 Bu materyale atıfta bulunmak ve kullanım koşulları için http://ocw.mit.edu/terms sayfasını ziyaret ediniz.

Detaylı

Final Sınavı Örnek Soruları Bahar 2018

Final Sınavı Örnek Soruları Bahar 2018 Sayfa#1 Manisa Celal Bayar Üniversitesi Yazılım Mühendisliği Bölümü YZM 2116 Veri Yapıları Dersi Final Sınavı Örnek Soruları Bahar 2018 Süre: 70 Dakika Adı ve Soyadı YANIT ANAHTARI Öğrenci Numarası Grubu

Detaylı

İstatistik ve Olasılık

İstatistik ve Olasılık İstatistik ve Olasılık Ders 4: OLASILIK TEORİSİ Giriş Bu bölüm sonunda öğreneceğiniz konular: Rastgele Olay Örnek Uzayı Olasılık Aksiyomları Bağımsız ve Ayrık Olaylar Olasılık Kuralları Koşullu Olasılık

Detaylı

SPSS E GİRİŞ SPSS TE TEMEL İŞLEMLER. Abdullah Can

SPSS E GİRİŞ SPSS TE TEMEL İŞLEMLER. Abdullah Can SPSS E GİRİŞ SPSS TE TEMEL İŞLEMLER SPSS in üzerinde işlem yapılabilecek iki ana ekran görünümü vardır. DATA VIEW (VERİ görünümü) VARIABLE VIEW (DEĞİŞKEN görünümü) 1 DATA VIEW (VERİ görünümü) İstatistiksel

Detaylı

İki Rastgele Değişken

İki Rastgele Değişken İki Rastgele Değişken K ve K kesikli rastgele değişkenlerdir K i = i. bit ten sonra oluşan hata sayısı. Başlangıçta Pr[E] =0. ve Pr[E c ]=0.8 K K olasılık (0.)(0.6)=0. (0.)(0.4)=0.08 0 (0.8)(0.)=0.08 0

Detaylı

Yüz Tanımaya Dayalı Uygulamalar. (Özet)

Yüz Tanımaya Dayalı Uygulamalar. (Özet) 4 Yüz Tanımaya Dayalı Uygulamalar (Özet) Günümüzde, teknolojinin gelişmesi ile yüz tanımaya dayalı bir çok yöntem artık uygulama alanı bulabilmekte ve gittikçe de önem kazanmaktadır. Bir çok farklı uygulama

Detaylı

Mann-Whitney U ve Wilcoxon T Testleri

Mann-Whitney U ve Wilcoxon T Testleri Mann-Whitney U ve Wilcoxon T Testleri Doç. Dr. Ertuğrul ÇOLAK Eskişehir Osmangazi Üniversitesi Tıp Fakültesi Biyoistatistik Anabilim Dalı Konu Başlıkları Parametrik olmayan yöntem Mann-Whitney U testinin

Detaylı

Appendix B: Olasılık ve Dağılım Teorisi

Appendix B: Olasılık ve Dağılım Teorisi Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Notları Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix B: Olasılık ve Dağılım

Detaylı

Appendix C: İstatistiksel Çıkarsama

Appendix C: İstatistiksel Çıkarsama Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Notları Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix C: İstatistiksel Çıkarsama

Detaylı

Korelasyon ve Regresyon

Korelasyon ve Regresyon Korelasyon ve Regresyon Kazanımlar 1 2 3 4 5 6 Değişkenlerin ilişkisini açıklamak ve hesaplamak için Pearson korelasyon katsayısı Örneklem r ile evren korelasyonu hakkında hipotez testi yapmak Spearman

Detaylı

YTÜ İktisat Bölümü EKONOMETRİ I Ders Notları

YTÜ İktisat Bölümü EKONOMETRİ I Ders Notları Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix C: İstatistiksel Çıkarsama Doç.

Detaylı

Týpta Karar Süreçlerinde Belirsizlik ve Bayes Yaklaþýmý

Týpta Karar Süreçlerinde Belirsizlik ve Bayes Yaklaþýmý 3. lusal Týp Biliþimi Kongresi/Medical Informatics 06 Turkey Týpta Karar Süreçlerinde Belirsizlik ve Bayes Yaklaþýmý Anýl AKTAÞ a, Selen BOZKRT a, Osman SAKA a a Akdeniz Üniversitesi, Týp Fakültesi, Biyoistatistik

Detaylı

Korelasyon ve Regresyon

Korelasyon ve Regresyon Korelasyon ve Regresyon Kazanımlar 1 2 3 4 5 6 Değişkenlerin ilişkisini açıklamak ve hesaplamak için Pearson korelasyon katsayısı Örneklem r ile evren korelasyonu hakkında hipotez testi yapmak Spearman

Detaylı

Exponential Distribution. diger. Probability Distributions. Sürekli Şans Değişkenleri. 0 diger. SÜREKLİ RASSAL DEĞİŞKENLER ve OLASILIK DAĞILIMLARI

Exponential Distribution. diger. Probability Distributions. Sürekli Şans Değişkenleri. 0 diger. SÜREKLİ RASSAL DEĞİŞKENLER ve OLASILIK DAĞILIMLARI Probability Distributions Probability Distributions SÜREKLİ RASSAL DEĞİŞKENLER ve OLASILIK DAĞILIMLARI Dr. Mehmet AKSARAYLI Dokuz Eylül Üniversitesi İktisadi ve İdari Bilimler Fakültesi Ekonometri Bölümü

Detaylı

Bilgisayarla Görüye Giriş

Bilgisayarla Görüye Giriş Bilgisayarla Görüye Giriş Ders 10 Nesne / Yüz Tespiti ve Tanıma Alp Ertürk alp.erturk@kocaeli.edu.tr Nesne Tespiti Belirli bir nesnenin sahne içindeki konumunun tespitidir Tespit edilecek nesne önceden

Detaylı

Naive Bayes Yöntemi ile Spam Mail Teşhisi Kübra KURNAZ

Naive Bayes Yöntemi ile Spam Mail Teşhisi Kübra KURNAZ Naive Bayes Yöntemi ile Spam Mail Teşhisi 2 17574006-Kübra KURNAZ Yıldız Teknik Üniversitesi, Elektrik-Elektronik Fakültesi, Bilgisayar Mühendisliği Bölümü, Tezsiz Yüksek Lisans Bilgi Teknolojileri Özet

Detaylı

Olasılık, bir deneme sonrasında ilgilenilen olayın tüm olaylar içinde ortaya çıkma ya da gözlenme oranı olarak tanımlanabilir.

Olasılık, bir deneme sonrasında ilgilenilen olayın tüm olaylar içinde ortaya çıkma ya da gözlenme oranı olarak tanımlanabilir. 5.SUNUM Olasılık, bir deneme sonrasında ilgilenilen olayın tüm olaylar içinde ortaya çıkma ya da gözlenme oranı olarak tanımlanabilir. Günlük hayatta sıklıkla kullanılmakta olan olasılık bir olayın ortaya

Detaylı

BBM Discrete Structures: Midterm 2 Date: , Time: 16:00-17:30. Question: Total Points: Score:

BBM Discrete Structures: Midterm 2 Date: , Time: 16:00-17:30. Question: Total Points: Score: BBM 205 - Discrete Structures: Midterm 2 Date: 8.12.2016, Time: 16:00-17:30 Ad Soyad / Name: Ögrenci No /Student ID: Question: 1 2 3 4 5 6 7 Total Points: 12 22 10 10 15 16 15 100 Score: 1. (12 points)

Detaylı

BMÜ-111 ALGORİTMA VE PROGRAMLAMA AKIŞ KONTROLÜ YRD. DOÇ. DR. İLHAN AYDIN

BMÜ-111 ALGORİTMA VE PROGRAMLAMA AKIŞ KONTROLÜ YRD. DOÇ. DR. İLHAN AYDIN BMÜ-111 ALGORİTMA VE PROGRAMLAMA AKIŞ KONTROLÜ YRD. DOÇ. DR. İLHAN AYDIN TEMEL AMAÇLAR Bir dairenin yarıçapını kullanıcıdan alarak dairenin alanını hesaplamak istediğimizi düşünelim. Eğer girilen değer

Detaylı

Türkçe Dokümanlar Ġçin Yazar Tanıma

Türkçe Dokümanlar Ġçin Yazar Tanıma Türkçe Dokümanlar Ġçin Yazar Tanıma Özcan KOLYĠĞĠT, Rıfat AġLIYAN, Korhan GÜNEL Adnan Menderes Üniversitesi, Matematik Bölümü Bölümü, Aydın okolyigit@gmail.com, rasliyan@adu.edu.tr, kgunel@adu.edu.tr Özet:

Detaylı

Sayı: 2012-13 / 13 Haziran 2012 EKONOMİ NOTLARI. Belirsizlik Altında Yatırım Planları

Sayı: 2012-13 / 13 Haziran 2012 EKONOMİ NOTLARI. Belirsizlik Altında Yatırım Planları EKONOMİ NOTLARI Belirsizlik Altında Yatırım Planları Yavuz Arslan Aslıhan Atabek Demirhan Timur Hülagü Saygın Şahinöz Abstract: This note analyzes the relationship between uncertainty and firm investment

Detaylı

İstatistik, genel olarak, rassal bir olayı (ya da deneyi) matematiksel olarak modellemek ve bu model yardımıyla, anakütlenin bilinmeyen karakteristik

İstatistik, genel olarak, rassal bir olayı (ya da deneyi) matematiksel olarak modellemek ve bu model yardımıyla, anakütlenin bilinmeyen karakteristik 6.SUNUM İstatistik, genel olarak, rassal bir olayı (ya da deneyi) matematiksel olarak modellemek ve bu model yardımıyla, anakütlenin bilinmeyen karakteristik özellikleri (ortalama, varyans v.b. gibi) hakkında

Detaylı

YTÜ İktisat Bölümü EKONOMETRİ I Ders Notları

YTÜ İktisat Bölümü EKONOMETRİ I Ders Notları Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix B: Olasılık ve Dağılım Teorisi

Detaylı

YTÜ İktisat Bölümü EKONOMETRİ I Ders Notları

YTÜ İktisat Bölümü EKONOMETRİ I Ders Notları Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix B: Olasılık ve Dağılım Teorisi

Detaylı

Sosyal Medyada Makine Öğrenmesi ile Duygu Analizinde Dengeli ve Dengesiz Veri Setlerinin Performanslarının Karşılaştırılması

Sosyal Medyada Makine Öğrenmesi ile Duygu Analizinde Dengeli ve Dengesiz Veri Setlerinin Performanslarının Karşılaştırılması Sosyal Medyada Makine Öğrenmesi ile Duygu Analizinde Dengeli ve Dengesiz Veri Setlerinin Performanslarının Karşılaştırılması Hatice Nizam 1, Saliha Sıla Akın 2 1 İstanbul Üniversitesi Bilgisayar Mühendisliği

Detaylı

2. Oracle Data Miner İle Örnek Bir Veri Madenciliği Çalışması

2. Oracle Data Miner İle Örnek Bir Veri Madenciliği Çalışması 2. Oracle Data Miner İle Örnek Bir Veri Madenciliği Çalışması Bu örnek uygulamada bir önceki yazımda Oracle SQL Developer a yüklediğim Data Miner Repository ile gelen hazır bir sigorta şirketi veri setini

Detaylı

Concept Learning. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ. Yapay Zeka - Kavram Öğrenme

Concept Learning. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ. Yapay Zeka - Kavram Öğrenme Concept Learning Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ 1 İÇERİK Öğrenme Metotları Kavram Öğrenme Nedir? Terminoloji Find-S Algoritması Candidate-Elimination Algoritması List-Then Elimination Algoritması

Detaylı

AYRIK YAPILAR ARŞ. GÖR. SONGÜL KARAKUŞ- FIRAT ÜNİVERSİTESİ TEKNOLOJİ FAKÜLTESİ YAZILIM MÜHENDİSLİĞİ BÖLÜMÜ, ELAZIĞ

AYRIK YAPILAR ARŞ. GÖR. SONGÜL KARAKUŞ- FIRAT ÜNİVERSİTESİ TEKNOLOJİ FAKÜLTESİ YAZILIM MÜHENDİSLİĞİ BÖLÜMÜ, ELAZIĞ AYRIK YAPILAR P r o f. D r. Ö m e r A k ı n v e Y r d. D o ç. D r. M u r a t Ö z b a y o ğ l u n u n Ç e v i r i E d i t ö r l ü ğ ü n ü ü s t l e n d i ğ i «A y r ı k M a t e m a t i k v e U y g u l a

Detaylı

*Bir boyutlu veri (bir özellik, bir rasgele değişken, bir boyutlu dağılım): ( x)

*Bir boyutlu veri (bir özellik, bir rasgele değişken, bir boyutlu dağılım): ( x) 4. Ders Tablolar: Hazırlama ve Analiz *Bir boyutlu veri (bir özellik, bir rasgele değişken, bir boyutlu dağılım): Örnek1: 4 çocuklu bir ailede kız çocukların sayısı X rasgele değişkeni olsun. Mendel yasalarına

Detaylı

Multiplication/division

Multiplication/division Multiplication/division Oku H&P sections 4.6-4.8 Bir kac integer multiplication algorithm Bir integer division algorithms Floating point math 10/22/2004 Bilgisayar Mimarisi 6.1 10/22/2004 Bilgisayar Mimarisi

Detaylı

VERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN

VERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN VERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma Kümeleme

Detaylı

SPPS. Verileri Düzenleme ve Değiştirme 3 - Data Menüsü. Y. Doç. Dr. İbrahim Turan Nisan 2011

SPPS. Verileri Düzenleme ve Değiştirme 3 - Data Menüsü. Y. Doç. Dr. İbrahim Turan Nisan 2011 SPPS Verileri Düzenleme ve Değiştirme 3 - Data Menüsü Y. Doç. Dr. İbrahim Turan Nisan 2011 Data Menüsü 1- Define Variable 1- Properties (Değişken Özelliklerini Tanımlama) Değişken özelliklerini tanımlamak

Detaylı