Veri Madenciliği. Bölüm 6. Sınıflandırma 2
|
|
- Ilker Emin
- 8 yıl önce
- İzleme sayısı:
Transkript
1 Bölüm 6. Sınıflandırma 2 Karar Ağacı Örnek Algoritma: ID3 Bütün nitelikler ayrık Bir düğüm oluştur N: Eğer örneklerin hepsi C sınıfına ait ise, N düğümü C etiketli yaprak Eğer karşılaştırma yapılacak nitelik yoksa N düğümü en çok örneği olan sınıf En büyük bilgi kazancı olan niteliği bölmek için seç N yi seçilen nitelik ile etiketle Niteliğin her A i değeri için bir dal oluştur S i, örneklerin hepsinin A i değeri aldığı dal S i boş, bir yaprak oluşturup en çok örneği olan sınıfla etiketle S i boş değil, algoritmayı S i düğümü üzerinde yinele Yaprak düğümlere kadar Ayrıntılı bilgiler: 2/84 1
2 Karar Ağacı Kullanarak Sınıflandırma Doğrudan sınıflandırmak istenilen örneğin nitelikleri ağaç boyunca sınanır ulaşılan yaprağın etiketi sınıf bilgisini verir Dolaylı karar ağacı sınıflandırma kurallarına dönüştürülür kökten yaprakların herbirine giden yollar için ayrı bir kural oluşturulur IF-THEN şeklinde kuralları insanlar daha kolay anlıyor Örnek: IF Outlook= sunny AND humidity= normal THEN play tennis 3/84 Karar Ağaçlarında Aşırı Öğrenme Öğrenmekümesindeki örneklerin azlığı veya gürültülü olması Aşırı öğrenmeyi engelleyen yaklaşım(budama) işlemi erken sona erdirme işlemi sona erdirmek için eşik değeri belirlemek gerekiyor karar ağacı oluştuktan sonra ağacı küçültme 4/84 2
3 Karar ağaçlarında aşırı öğrenme Gürültüden dolayı aşırı öğrenme Aşağıdaki öğrenme kümesinde yarasa ve balina yanlış sınıf etiketine sahiptir. Sınıf etiketi = memeli mi? Cins Vücut Sıcaklığı Doğum Yapma 4-bacaklı Kış uykusu Sınıf etiketi Kirpi Sıcakkanlı Evet Evet Evet Evet Kedi Sıcakkanlı Evet Evet Hayır Evet Yarasa Sıcakkanlı Evet Hayır Evet Hayır Balina Sıcakkanlı Evet Hayır Hayır Hayır Semender Soğukkanlı Hayır Evet Evet Hayır Komodo Ejderi Soğukkanlı Hayır Evet Hayır Hayır Piton Soğukkanlı Hayır Hayır Evet Hayır Alabalık Soğukkanlı Hayır Hayır Hayır Hayır Kartal Sıcakkanlı Hayır Hayır Hayır Hayır Lepistes Soğukkanlı Evet Hayır Hayır Hayır Öğrenme kümesi 5/84 Karar ağaçlarında aşırı öğrenme sıcakkanlı Vücut sıcaklığı soğukkanlı sıcakkanlı Vücut sıcaklığı soğukkanlı evet Doğum yapma Memeli değil hayır evet Doğum yapma Memeli değil hayır evet Memeli 4-bacaklı hayır Memeli değil M1 Memeli değil Memeli M2 Memeli değil Cins Vücut Sıcaklığı Doğum Yapma 4-bacaklı Kış uykusu Sınıf etiketi Kirpi Sıcakkanlı Evet Evet Evet Evet Kedi Sıcakkanlı Evet Evet Hayır Evet Yarasa Sıcakkanlı Evet Hayır Evet Hayır Balina Sıcakkanlı Evet Hayır Hayır Hayır Semender Soğukkanlı Hayır Evet Evet Hayır Komodo Ejderi Soğukkanlı Hayır Evet Hayır Hayır Piton Soğukkanlı Hayır Hayır Evet Hayır Alabalık Soğukkanlı Hayır Hayır Hayır Hayır Kartal Sıcakkanlı Hayır Hayır Hayır Hayır Lepistes Soğukkanlı Evet Hayır Hayır Hayır 6/84 3
4 Karar ağaçlarında aşırı öğrenme Model 1 (M1) öğrenme kümesinde 0 hata verirken, sınama kümesinde %40 hata verir İnsan ve yunus yanlış etiketlenir Model 2 (M2) öğrenme kümesinde %20 hata verirken, sınama kümesinde hata vermez Budanmış ağaç 4-bacaklı niteliği gürültülü veriden dolayı aşırı öğrenmeye neden olmuştur. Cins Vücut Sıcaklığı Doğum Yapma 4-bacaklı Kış uykusu Sınıf etiketi İnsan Sıcakkanlı Evet Hayır Hayır Evet Güvercin Sıcakkanlı Hayır Hayır Hayır Hayır Fil Sıcakkanlı Evet Evet Hayır Evet Yunus Sıcakkanlı Evet Hayır Hayır Evet Kaplumbağa Soğukkanlı Hayır Evet Hayır Hayır Sınama kümesi 7/84 Karar ağaçlarında aşırı öğrenme Öğrenme kümesinin küçüklüğünden dolayı aşırı öğrenme evet Memeli sıcakkanlı evet 4-bacaklı Kış uykusu hayır Memeli değil Vücut sıcaklığı Memeli değil hayır Memeli değil soğukkanlı Cins Vücut Sıcaklığı Doğum Yapma 4-bacaklı Kış uykusu Sınıf etiketi Poorwill Sıcakkanlı Hayır Hayır Evet Hayır Platypus Sıcakkanlı Hayır Evet Evet Evet Semender Soğukkanlı Hayır Evet Evet Hayır Kartal Sıcakkanlı Hayır Hayır Hayır Hayır Lepistes Soğukkanlı Evet Hayır Hayır Hayır Öğrenme kümesi Cins Vücut Sıcaklığı Doğum Yapma 4-bacaklı Kış uykusu Sınıf etiketi İnsan Sıcakkanlı Evet Hayır Hayır Evet Güvercin Sıcakkanlı Hayır Hayır Hayır Hayır Fil Sıcakkanlı Evet Evet Hayır Evet Yunus Sıcakkanlı Evet Hayır Hayır Evet Kaplumbağa Soğukkanlı Hayır Evet Hayır Hayır Sınama kümesi 8/84 4
5 Karar ağaçlarında aşırı öğrenme Oluşan karar ağacının, öğrenme kümesindeki hata oranı sıfır, test kümesinde ise %60 İnsan, fil ve yunus yanlış etiketlenir Kış uykusuna yatmayan tüm sıcakkanlılar memeli-değil olarak etiketlenir Bu duruma uyan sadece kartal vardır Öğrenme kümesi küçük olduğu için ağaç aşırı öğrenmiştir 9/84 Karar Ağaçlarında Budama Ağaç oluşturulurken budama (pre-pruning) eşikdeğer belirle Ağaç oluştuktan sonra budama (post-pruning) 10/84 5
6 Pre-Pruning Stop the algorithm before it becomes a fully-grown tree Typical stopping conditions for a node: Stop if all instances belong to the same class Stop if all the attribute values are the same More restrictive conditions: Stop if number of instances is less than some user-specified threshold Stop if class distribution of instances are independent of the available features (e.g., using χ 2 test) Stop if expanding the current node does not improve impurity measures (e.g., Gini or information gain). 11/84 Post-pruning Grow decision tree to its entirety Trim the nodes of the decision tree in a bottom-up fashion If generalization error improves after trimming, replace subtree by a leaf node. Class label of leaf node is determined from majority class of instances in the sub-tree 12/84 6
7 En iyi bölen ölçütleri - Değerlendirme Karar ağacı oluştururken en iyi bölen nitelik için 3 tane ölçüt gördük Information gain: Çok çeşitli değerler (multivalued) alan nitelikleri seçme eğilimindedir Gain ratio: Dengesiz bölünmeler yapma eğilimindedir (one partition is much smaller than the others) Giniindex: Çok çeşitli değerler (multivalued) alan nitelikleri seçme eğilimindedir Dengeli bölünmeler yapar (hem boyut hem de saflık açısından) Sınıf sayısı çok olduğunda iyi çalışmayabilir 13/84 Karar Ağacı Kullanarak Sınıflandırma- Değerlendirme Avantajları: Karar ağacı oluşturmak zahmetsiz Küçük ağaçları yorumlamak kolay Anlaşılabilir kurallar oluşturulabilir Sürekli ve ayrık nitelik değerleri için kullanılabilir Dezavantajları: Sürekli nitelik değerlerini tahmin etmekte çok başarılı değil Sınıf sayısı fazla ve öğrenme kümesi örnekleri sayısı az olduğunda model oluşturma çok başarılı değil Zamanveyerkarmaşıklığıöğrenmekümesiörneklerisayısına(q), nitelik sayısına(h) ve oluşan ağacın yapısına bağlı. Büyük öğrenme kümeleri için ağaçoluşturmakarmaşıklığıfazla, ağaç budama karmaşıklığı fazla 14/84 7
8 İstatistik ve Olasılık 15/84 Random Variables / Rasgele Değişkenler Random variable olasılığın temel elemanı. Çıktısı belirsizlik içeren olay havaya atılan para olayı bir random variable dır. 16/84 8
9 Boolean Random Variables Boolean random variables Trueya dafalsedeğeri alırlar Bir olayın olması ya da olmaması Örnek(A bir Boolean random variable): A= Paranın yazı gelmesi A= Bugün yağmur yağacak 17/84 Olasılık P(A = true)ifadesia = trueolma olasılığını ifade eder. Olasılık: It is the relative frequency with which an outcome would be obtained if the process were repeated a large number of times under similar conditions Kırmızı ve mavi alanın toplamı 1 P(A = true) P(A = false) 18/84 9
10 Koşullu olasılık P(A = true B = true) =B nin doğru olduğu durumların kaç tanesinde aynı zamanda A da doğru. Probability of Aconditioned on B or Probability of Agiven B P(F = true) P(H = true) H = Baş ağrısı F = Nezle olmak P(H = true) = 1/10 P(F = true) = 1/40 P(H = true F = true) = 1/2 19/84 Koşullu olasılık P(A = true, B = true)ifadesi A = trueveb = true olma olasılığını ifade eder. P(F = true) P(H = true) P(H=true F=true) Area of "H and F" region = Area of "F" region P(H = true,f = true) = P(F = true) P(X Y)=P(X,Y)/P(Y) 20/84 10
11 Ortak olasılık dağılımı Örnek: P(A = true, B = true, C = true) Her kombinasyon için sonuç gösterilir Tüm kombinasyonların olasılıklarının toplamı 1 dir A B C P(A,B,C) false false false 0.1 false false true 0.2 false true false 0.05 false true true 0.05 true false false 0.3 true false true 0.1 true true false 0.05 true true true 0.15 Toplam 1 21/84 Ortak olasılık dağılımı Ortak olasılık dağılım tablosu oluşturulduktan sonra A, B, and C yi içeren tüm olayların olasılığı hesaplanabilir. A B C P(A,B,C) false false false 0.1 false false true 0.2 false true false 0.05 false true true 0.05 true false false 0.3 true false true 0.1 true true false 0.05 true true true 0.15 Örnek: P(A=true) = sum of P(A,B,C) in rows with A=true P(A=true, B = true C=true) = P(A = true, B = true, C = true) / P(C = true) 22/84 11
12 Ortak olasılık dağılımı: Problem Çok fazla hesaplanacak olasılık var. k tane Boolean random variable için2 k tane olasılık hesaplanır. Azaltmak için bağımsızlık konsepti kullanılır A B C P(A,B,C) false false false 0.1 false false true 0.2 false true false 0.05 false true true 0.05 true false false 0.3 true false true 0.1 true true false 0.05 true true true /84 Bağımsızlık AveBdeğişkenleri aşağıdakilerden birisi doğru olduğunda bu iki olay birbirinden bağımsızdır. P(A,B)= P(A)P(B) P(A B)= P(A) P(B A)= P(B) Anın sonucunu bilmek Bhakkında hiçbir bilgi vermiyor. 24/84 12
13 Bağımsızlık Neden bağımsızlık işe yarıyor? Bir parayı ndefa attığımızı ve P(C 1,, C n )yi hesaplamak istediğimizi düşünelim. Para atışları bağımsız değilse, 2 n tane değer tabloda hesaplanmak zorunda. Para atışları bağımsız ise, sadece P( C n 1,..., Cn) = P( C i ) i= 1 değerini hesaplamak yetecektir. 25/84 Koşullu bağımsızlık Aşağıdakilerden birisi doğru ise Ave Bdeğişkenleri Cye göre koşullu olarak bağımsızdır. P(A, B C)= P(A C)P(B C) P(A B, C)= P(A C) P(B A, C)= P(B C) 26/84 13
14 İstatistiksel Modelleme- Bayes Bayes teoremini kullanan istatistiksel sınıflandırıcı Örneklerin hangi sınıfa hangi olasılıkla ait olduklarını hesaplar Naïve Bayes sınıflandırıcı niteliklerin hepsi aynı derecede önemli nitelikler birbirinden bağımsız bir niteliğin değeri başka bir nitelik değeri hakkında bilgi içermiyor 27/84 Bayesian Teori Xveri örneği: sınıf etiketi bilinmiyor (Sadece age ve income niteliklerinden oluşan bir kişi: age:youth,income:medium ) H bir hipotez: X kişisi C sınıfına aittir Sınıflandırma: P(H X) değerini (X veri örneği için H hipotezinin tutma ihtimalini) belirlemek. P(H) önceki olasılık (prior probability) Herhangi bir örnek için hipotezin tutma olasılığı. Herhangi bir örneğin bilgisayar alacaklar sınıfına ait olma olasılığı (diğer niteliklerden bağımsız olarak) P(X)X in olma olasılığı Veri setindeki herhangi bir insanın youth ve medium income sahibi olma olasılığı. P(X H) sonrakiolasılık(posteriori probability), Hipotez H nin tutması durumunda X in olma olasılığı X in bilgisayar alacaklar sınıfında olduğu biliniyor, Xin youth ve medium income sahibi olma olasılığı. 28/84 14
15 Bayesian Teori Gözlemlenen örnek verix için, hipotez H nin sonraki olasılığı, P(H X), Bayes teoremi ile şöyle ifade edilir P ( H X) = P( X H) P( H) P( X) Veri madenciliği açısından, eğer P(C i X) diğer bütün P(C k X) değerlerinden büyükse örnek veri XC i sınıfına aittir Çok sayıda olasılığı önceden kestirmek gerekiyor, çok fazla hesap gerektirir Naïve Bayes Sınıflandırıcı X=(x 1,x 2,...x n ) örneğininc sınıfındaolmaolasılığı (P(C X)) nedir? P( X C ) P( C ) P ( C X) = i i değerini en büyük değere getir i P( X) P(X) her birsınıf için sabit P( C X ) = P( X C ) P( C ) i i i değerini en büyük değere getir 15
16 Naïve Bayes Sınıflandırıcı Basit bir kabul: nitelikler birbirinden bağımsız n P( X Ci) = P( x k = 1 Ci) = P( x Kategorik veri için P(C i )= S i / S, S i : C i sınıfınaaitörneklerinsayısı P(x k C i )=s ik / s i Hesaplama maliyetini azaltıyor, sadece sınıf dağılımları hesaplanıyor Naïve: nitelikler bağımsız k 1 Ci) P( x 2 Ci)... P( x n Ci) Naïve Bayes Sınıflandırıcı Sürekli veri için P(x k C i ) Gaussian dağılımıkullanılarakbulunur(μ=ortalama, σ=standart sapma) g ( x µ ) 1 2 2σ (, µ, σ ) x = e 2πσ P( X Ci) = g( x k, µ C i, σc ) i 2 32/84 16
17 Örnek(Kategorik veri) Sınıf: C1:buys_computer = yes C2:buys_computer = no Örnek veri X = (age = youth, Income = medium, Student = yes Credit_rating = Fair) 33/60 Örnek(devam) P(C i ): P(buys_computer= yes ) = 9/14 = 0.64 P(buys_computer = no ) = 5/14= Her sınıf için P(X k C i ) yihesapla P(age = youth buys_computer= yes ) = 2/9 = P(age = youth buys_computer= no ) = 3/5 = 0.6 P(income = medium buys_computer= yes ) = 4/9 = P(income = medium buys_computer= no ) = 2/5 = 0.4 P(student = yes buys_computer= yes) = 6/9 = P(student = yes buys_computer= no ) = 1/5 = 0.2 P(credit_rating = fair buys_computer = yes ) = 6/9 = P(credit_rating= fair buys_computer= no ) = 2/5 = 0.4 X = (age =youth, income = medium, student = yes, credit_rating = fair) P(X C i ) :P(X buys_computer= yes ) = x x x = P(X buys_computer= no ) = 0.6 x 0.4 x 0.2 x 0.4 = P(X C i )*P(C i ) : P(X buys_computer= yes ) * P(buys_computer= yes ) = P(X buys_computer = no ) * P(buys_computer = no ) = Bu yüzden, X örnegi buys_computer = yes sınıfına aittir. 34/84 17
18 Örnek-2 X={E,65,172} verisinin beden sınıfını bayesiankuralına göre bulunuz? 35/84 Örnek-2 (devam) Veri önişleme -boy arası 1. grup arası 2. grup arası 3. grup arası 4. grup 190 ve üzeri 5. grup Veri önişleme -kilo arası 1. grup arası 2. grup arası 3. grup arası 4. grup arası 5. grup 99 ve üzeri 6. grup Yeni tablo 36/84 18
19 Örnek-2 (devam) Kategorik hale getirildikten sonra: X={E, 65,172} X={E,2,3} P(C j ) değerleri P(küçük)=4/15=0.267, P(orta)=8/15=0.534, P(büyük)=3/15=0.2 Her sınıf için P(X k C i ) yi hesapla P(E Orta) = 3/8 = P(E Küçük) = 3/4 = 0.75 P(E Büyük) = 2/3 = P(3 Orta) = 2/8 = 0.25 P(3 Küçük) = 1/4 = 0.25 P(3 Büyük) = 1/3 = P(2 Orta) = 4/8 = 0.5 P(2 Küçük) = 2/4 = 0.5 P(2 Büyük) = 0/3 = 0 X = (Cinsiyet=E, Kilo= 2, Boy= 3) P(X C i ) :P(X Beden= Orta ) = 0.375x 0.25x 0.5= P(X Beden= Küçük ) = 0.75x 0.25x 0.5= P(X Beden= Büyük ) = x 0.333x 0 = 0 P(X C i )*P(C i ) : P(X Beden = Orta ) * P(Beden = Orta ) = 0.047*0.534= P(X Beden = Küçük ) * P(Beden = Küçük ) = 0.093*0.267= P(X Beden= Büyük ) * P(Beden= Büyük ) = 0*0.2= 0 X örneği Orta bedene sahiptir. 37/84 Olasılığın Sıfır Olması Naïve Bayesian prediction her bir olasılığın sıfırdan büyük olmasınıgerektirir, aksitaktirdebütün olasılık sıfır olur n P( X Ci) = P( xk Ci) k = 1 Örnek: 1000 örneklikbirverisetinde, eğerincome=low (0), income= medium (990), veincome = high (10)ise Laplacian correction (Laplacian estimator) kullanılır Her birduruma1 eklenir Prob(income = low) = 1/1003 Prob(income = medium) = 991/1003 Prob(income = high) = 11/1003 Veriseticokbüyük olduğu icinçok farketmez 19
20 Bayes Sınıflandırıcılar- Değerlendirme Avantajları: gerçeklemesi kolay çoğu durumda iyi sonuçlar Dezavantajları varsayım: sınıf bilgisi verildiğinde nitelikler bağımsız gerçek hayatta değişkenler birbirine bağımlı değişkenler arası ilişki modellenemiyor Çözüm: Bayes ağları 39/84 Bayes Ağları Bir hastanın akciğer şarbonu olup olmadığı araştırılıyor. Hastada aşağıdaki semptomlar gözleniyor: Öksürme Ateş Nefes almada güçlük 40/42 20
21 Bayes Ağları Bu semptomlar dahilinde hastanın akciğer şarbonu olma ihtimalini bulmaya çalışıyoruz. Semptomlara rağmen %100 emin olmadığımız için bir belirsizlik var. 41/42 Bayes Ağları X-ray sonucunda hastanın akciğerleri arasında genişleme olduğunu gördünüz. Şimdi hastanın şarbon olma olasılığına olan inancınız daha yüksek. Gözlemleriniz hastanın şarbon olmasına dair fikriniz etkiledi. Reasoning with uncertainty 42/42 21
22 Bayes Ağları Şarbon Öksürük Ateş Nefes Darlığı Geniş Akciğer Boşluğu 43/84 Örnek Bayes Ağı Bir Bayes Ağı aşağıdakilerden oluşur 1. Directed Acyclic Graph A B C D 2. Graphdaki her düğüm için bir tablo A P(A) false 0.6 true 0.4 A B P(B A) false false 0.01 false true 0.99 true false 0.7 true true 0.3 B D P(D B) false false 0.02 false true 0.98 true false 0.05 true true 0.95 B C P(C B) false false 0.4 false true 0.6 true false 0.9 true true /60 22
23 A Directed Acyclic Graph Her düğüm bir random variable A Ais a parent of B B C D Bden Cye olan ok işareti Bnin C üzerinde bir etkisi olduğunu gösterir 45/60 Her düğüm için bir tablo A P(A) false 0.6 true 0.4 A B P(B A) false false 0.01 false true 0.99 true false 0.7 true true 0.3 Her düğüm X i Parentlerinin etkisini gösteren P(X i Parents(X i )) koşullu olasılık tablosuna sahiptir. B C P(C B) false false 0.4 false true 0.6 true false 0.9 true true 0.1 C A B D B D P(D B) false false 0.02 false true 0.98 true false 0.05 true true /60 23
24 Bayes Ağları İki önemli özelliğe sahiptirler: 1. Değişkenler arasındaki koşullu olasılık ilişkilerini bir graph yapısı üzerinde tutar 2. Değişkenler arasındaki Ortak olasılık dağılımının kompakt bir gösterimidir. 47/84 Koşullu bağımsızlık Markov koşulu given its parents (P 1, P 2 ),a node (X) is conditionally independent of its nondescendants (ND 1, ND 2 ) olduğunu gösterir. P 1 P 2 ND 1 X ND 2 C 1 C 2 48/84 24
25 Ortak olasılık dağılımı Markov koşuluna göre Bayes ağındaki tüm X i düğümlerinin ortak olasılığı aşağıdaki formüle göre bulunabilir: n P( X1 = x1,..., X = x ) = P( X = x Parents( X )) n n i= 1 i i i Parents(X i ) ifadesi graphda X i nin Parentleridir 49/84 Bayes Ağı: Örnek P(A = true, B = true, C = true, D = true)hesaplanacak: P(A = true, B = true, C = true, D = true) = P(A = true) * P(B = true A = true) * P(C = true B = true)* P( D = true B = true) = (0.4)*(0.3)*(0.1)*(0.95) A B C D 50/84 25
26 Bayes Ağı: Örnek P(A = true, B = true, C = true, D = true) = P(A = true) * P(B = true A = true) * P(C = true B = true)*p( D = true B = true) = (0.4)*(0.3)*(0.1)*(0.95) Graph yapısından A Tablolardan alınan değerler B C D 51/84 Çıkarım Bayes ağlarında olasılık hesabı çıkarım olarak adlandırılır. Genel ifadesi: P( X E ) E = Belirtiler / evidence variable(s) X = Sorgu / query variable(s) 52/84 26
27 Çıkarım Şarbon Öksürük Ateş Nefes Darlığı Geniş Akciğer Boşluğu Örnek: P( şarbonvar= true ateşvar= true, öksürükvar = true) 53/84 Ağ oluşturma Bayes ağı nasıl oluşturulur? Alandaki bir uzman Veri incelemesi 54/84 27
28 Diğer Sınıflandırma Yöntemleri Örnek Tabanlı Yöntemler(tembel-lazy yöntemler) Öğrenmekümesinisaklar. Sınıflandırılacak yeni bir örnek geldiğinde öğrenme kümesi sınıf etiketini öngörmek için kullanılır Örnek yöntemler: k-en yakın komşu yöntemi(k-nearest neighbor approach) Her veri uzayda bir nokta olarak tanımlanır. Case-based reasoning yöntemi Uses symbolic representations and knowledge-based inference 55/84 k-en yakın komşu yöntemi(knn) Unknown record Requires three things The set of stored records Distance Metric to compute distance between records The value of k, the number of nearest neighbors to retrieve 56/42 28
29 En yakın komşu tanımı X X X (a) 1-nearest neighbor (b) 2-nearest neighbor (c) 3-nearest neighbor x verisinin k-en yakın komşusu x e uzaklığı en küçük olan k veridir. 57/42 k-en yakın komşu yöntemi Temel yaklaşım: Sınıflandırılmak istenen örneğe en yakın örnekleri bul. Örnek: ördek gibi yürüyor, ördek gibi bağırıyor => büyük olasılıkla ördek 58/84 29
30 k-en yakın komşu yöntemi Nesneler arası yakınlıklar (uzaklıklar) öklid uzaklığı ile ifade edilir. Nitelik değerleri normalize edilerek kullanılır. Nümerik olmayan nitelikler? k değeri nasıl belirlenecek? 59/84 k-en yakın komşu yöntemi Bütün örnekler n-boyutlu uzayda bir noktaya karşı düşürülür Nesnelerarasındakiuzaklık(Ökliduzaklığı) dist(x 1, X 2 ) Öğrenilen fonksiyon ayrık değerli veya gerçel değerli olabilir Ayrık değerli fonksiyonlarda, k komşu algoritması öğrenme örneğindeen çokgörülenx q örneğineen yakınsınıfdeğerini verir Sürekli değerli fonksiyonlarda en yakın k öğrenme örneğinin ortalaması alınır +. + x q + X q örneği 1-en yakın komşuya göre pozitif olarak, 5-en yakın komşuya göre negatif olarak sınıflandırılır 60/84 30
31 k-en yakın komşu yöntemi Compute distance between two points: Euclidean distance/öklid uzaklığı d( p, q) = i ( p i q i 2 ) Determine the class from nearest neighbor list take the majority vote of class labels among the k-nearest neighbors Weigh the vote according to distance weight factor, w = 1/d 2 61/84 k-en yakın komşu yöntemi Choosing the value of k: If k is too small, sensitive to noise points If k is too large, neighborhood may include points from other classes 62/84 31
32 k-en yakın komşu yöntemi Scaling issues Attributes may have to be scaled to prevent distance measures from being dominated by one of the attributes Example: height of a person may vary from 1.5m to 1.8m weight of a person may vary from 90lb to 300lb income of a person may vary from $10K to $1M 63/84 k-en yakın komşu yöntemi Problem with Euclidean measure: High dimensional data curse of dimensionality Solution: Normalize the vectors to unit length 64/84 32
33 Diğer Sınıflandırma Yöntemleri Yapay Sinir Ağları ile Sınıflandırma İnsan beynindeki sinir hücrelerinin işlevini modelleyen bir yapı GenetikAlgoritmalar Optimizasyon amaçlı. Bir başlangıç çözümü öneriyor, tekrarlanan her ara adımda daha iyi çözüm üretmeye çalışıyor. Doğalevrimeveen iyiolanınyaşamını sürdürmesine dayanıyor 65/84 Yapay Sinir Ağı(YSA) X 1 X 2 X 3 Y Eğer girdilerden (X) en az 2 tanesi 1 ise çıktı Y=1 66/84 33
34 Yapay Sinir Ağı(YSA) Girdiler için ağırlıklandırma yapılabilir. X 1 X 2 X 3 Y Y = I ( 0.3 X X X 3 1 if z is true where I ( z) = 0 otherwise 0.4 > 0) 67/84 Yapay Sinir Ağı(YSA) Model bağlı düğümler ve ağırlıklandırılmış bağlantılardan oluşur Çıktı değeri girdilerin bağlantılarla tanımlanmış toplamına eşittir Çıktı değeri daha önceden tanımlı bir eşik değer ile karşılaştırılarak karar verilir Perceptron Model Y = I ( wi X i t) i Y = sign( wi X i t) i or 34
35 Yapay Sinir Ağı(YSA) Genel Yapı YSA nın eğitilmesi düğümlerin ağırlık değerlerinin öğrenilmesini içerir 69/60 YSA Öğrenmesi Başlangıç ağırlık değerlerini belirle (w 0, w 1,, w k ) Ağırlıkları YSA çıktısı öğrenme kümesinde yer alan örneklerin sınıf etiketleri ile uyumlu olacak şekilde güncelle Amaç fonksiyonu (Objective function): E = [ Y (, )] 2 i f wi X i i Amaç fonksiyonunu en küçük yapacak w i ağırlıklarını belirle Örnek: backpropagation algorithm 70/84 35
36 Sınıflandırma Modelini Değerlendirme Model başarımını değerlendirme ölçütleri nelerdir? Hataoranı Anma Duyarlılık F-ölçütü ROC eğrileri Modelin sınıfladırma yeteneğine odaklanılır. Hız ölçeklenebilirlik gibi diğer metrikler ikincil öneme sahiptir. 73/84 Sınıflandırma Modelini Değerlendirme Sınıflandırma yöntemlerinin hatalarını ölçme başarı: örnek doğru sınıfa atandı hata: örnek yanlış sınıfa atandı hata oranı: hata sayısının toplam örnek sayısına bölünmesi Hata oranı sınama kümesi kullanılarak hesaplanır 74/84 36
37 Sınıflandırma Modelini Değerlendirme Model başarımını değerlendirme ölçütleri modelin ne kadar doğru sınıflandırma yaptığını ölçer hız, ölçeklenebilirlik gibi özellikleri değerlendirmez Karışıklık matrisi: a: TP (true positive) b: FN (false negative) c: FP (false positive) d: TN (true negative) Gerçek sınıf Class=Yes Class=No Tahmin edilen sınıf Class=Yes a (TP) c (FP) Class=No b (FN) d (TN) 75/84 Sınıflandırma Modelini Değerlendirme Gerçek sınıf Tahmin edilen sınıf Class=Yes Class=No Class=Yes a (TP) c (FP) Class=No b (FN) d (TN) En çok kullanılan metrik: doğruluk (accuracy) a + d TP + TN Accuracy = = a + b + c + d TP + TN + FP + FN Hata oranı = 1-Accuracy 76/84 37
38 Sınıflandırma Modelini Değerlendirme Hangi sınıflandırıcı daha iyi? B ve C, A dandaha iyi bir sınıflandırıcı B, C dendaha iyi bir sınıflandırıcı mı? 77/84 Limitation of Accuracy Consider a 2-class problem Number of Class 0 examples = 9990 Number of Class 1 examples = 10 If model predicts everything to be class 0, accuracy is 9990/10000 = 99.9 % Accuracy is misleading because model does not detect any class 1 example 78/84 38
39 Cost Matrix PREDICTED CLASS C(i j) Class=Yes Class=No ACTUAL CLASS Class=Yes C(Yes Yes) C(No Yes) Class=No C(Yes No) C(No No) C(i j): Cost of misclassifying class j example as class i 79/42 Computing Cost of Classification Cost Matrix ACTUAL CLASS PREDICTED CLASS C(i j) Model M 1 PREDICTED CLASS Model M 2 PREDICTED CLASS ACTUAL CLASS ACTUAL CLASS Accuracy = 80% Cost = 3910 Accuracy = 90% Cost = /42 39
40 Cost-Sensitive Measures a Precision (p) = a + c a Recall (r) = a + b 2rp 2a F - measure (F) = = r + p 2a + b + c Gerçek sınıf Class=Yes Class=No Tahmin edilen sınıf Class=Yes a (TP) c (FP) Class=No b (FN) d (TN) Precision is biased towards C(Yes Yes) & C(Yes No) Recall is biased towards C(Yes Yes) & C(No Yes) F-measure is biased towards all except C(No No) w a + w d 1 4 Weighted Accuracy = w a + w b + w c + w d /42 Classifier Evaluation Metrics: Example Actual Class\Predicted class cancer = yes cancer = no Total cancer = yes cancer = no Total Duyarlılık -Precision= 90/230 = 39.13% Pozitif olarak bulunmuş örneklerden yüzde kaçı gerçekten pozitif Recall= 90/300 = 30.00% Pozitif örneklerden yüzde kaçı doğru olarak bulunabilmiş
41 Sınıflandırma Modelini Değerlendirme A modeli B modelinden daha iyi recall ve duyarlılık (precision) değerine sahipse A modeli daha iyi bir sınıflandırıcıdır. Duyarlılık (precision) ve recall arasında ters orantı var. 83/84 Sensitivity- specificity sensitivityor true positive rate (TPR)Daha çok biomedikal alanında kullanılır Recall Sensitivity=TP/(TP+FN) = a/(a+b) Hasta birini hasta olarak etiketleme olasılığı specificity(spc) or true negative rate(tnr) Specifity= TN/(TN+FP) = d/(c+d) Hasta olmayan birisini hasta değil olarak etiketleme olasılığı Tahmin edilen sınıf Class=Yes Class=No Gerçek sınıf Class=Yes Class=No a (TP) c (FP) b (FN) d (TN) 84/84 41
42 Receiver Operating Characteristic(ROC) Eğrisi 85/84 Non-diseased cases Diseased cases Threshold Test result value or subjective judgement of likelihood that case is diseased 42
43 Non-diseased cases Diseased cases more typically: Test result value or subjective judgement of likelihood that case is diseased Non-diseased cases Diseased cases Threshold TPF, sensitivity less aggressive mindset FPF, 1-specificity 43
44 Non-diseased cases Diseased cases Threshold TPF, sensitivity moderate mindset FPF, 1-specificity Non-diseased cases Diseased cases Threshold TPF, sensitivity more aggressive mindset FPF, 1-specificity 44
45 Non-diseased cases Entire ROC curve Diseased cases Threshold TPF, sensitivity FPF, 1-specificity Entire ROC curve TPF, sensitivity Reader Skill and/or Level of Technology FPF, 1-specificity 45
Veri Madenciliği. Bölüm 6. Sınıflandırma 2. Doç. Dr. Suat Özdemir.
Bölüm 6. Sınıflandırma 2 http://ceng.gazi.edu.tr/~ozdemir Karar Ağacı Örnek Algoritma: ID3 Bütün nitelikler ayrık Bir düğüm oluştur N: Eğer örneklerin hepsi C sınıfına ait ise, N düğümü C etiketli yaprak
DetaylıVERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr
VERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma
DetaylıEğitim seti (training set) sınıflandırma modelinin elde edileceği kayıtları içerir
sınıflandırma: temel kavramlar, karar ağaçları ve model değerlendirme Sınıflandırma : Tanım Eğitim seti (training set) sınıflandırma modelinin elde edileceği kayıtları içerir Eğitim setindeki her kayıt
DetaylıDr. Hidayet Takçı. Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1
Besinci Saat Sınıflandırma: Alternatif Teknikler Dr. Hidayet Takçı Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1 Kural tabanlı Sınıflayıcı if then şeklinde ifade edilebilecek kurallarının
DetaylıGözetimli & Gözetimsiz Öğrenme
Bölüm 5. Sınıflandırma 1 http://ceng.gazi.edu.tr/~ozdemir Gözetimli & Gözetimsiz Öğrenme Predictive Data Mining vs. Descriptive Data Mining Gözetimli (Supervised) öğrenme= sınıflandırma (clasification)
DetaylıWeb Madenciliği (Web Mining)
Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Sınıflandırıcıların Değerlendirilmesi Skorlar Karışıklık matrisi Accuracy Precision Recall
DetaylıTanı Testlerinin Değerlendirilmesi. ROC Analizi. Prof.Dr. Rian DİŞÇİ
Tanı Testlerinin Değerlendirilmesi ROC Analizi Prof.Dr. Rian DİŞÇİ İstanbul Üniversitesi, Onkoloji Enstitüsü Kanser Epidemiyolojisi Ve Biyoistatistik Bilim Dalı Tanı Testleri Klinik çalışmalarda, özellikle
DetaylıYZM 3217 YAPAY ZEKA DERS#9: ÖĞRENME VE SINIFLANDIRMA
YZM 3217 YAPAY ZEKA DERS#9: ÖĞRENME VE SINIFLANDIRMA Makine Öğrenmesi Çok büyük miktardaki verilerin elle işlenip analiz edilmesi mümkün değildir. Bu tür problemlere çözüm bulmak amacıyla makine öğrenmesi
DetaylıK En Yakın Komşu Methodu (KNearest Neighborhood)
K En Yakın Komşu Methodu (KNearest Neighborhood) K-NN algoritması, Thomas. M. Cover ve Peter. E. Hart tarafından önerilen, örnek veri noktasının bulunduğu sınıfın ve en yakın komşunun, k değerine göre
DetaylıTANI TESTLERİNİN İSTATİSTİKSEL DEĞERLENDİRİLMESİ
TANI TESTLERİNİN İSTATİSTİKSEL DEĞERLENDİRİLMESİ İÇERİK Tanı testi Altın Standart Test Tanı Testi ile Altın Standart Testin Karşılaştırması İstatistiksel Değerlendirme Duyarlık, Seçicilik,Yanlış Negatif
DetaylıVeri Madenciliği. Bölüm 5. Sınıflandırma 1. Doç. Dr. Suat Özdemir.
Bölüm 5. Sınıflandırma 1 http://ceng.gazi.edu.tr/~ozdemir Gözetimli & Gözetimsiz Öğrenme Predictive Data Mining vs. Descriptive Data Mining Gözetimli (Supervised) öğrenme= sınıflandırma (clasification)
DetaylıInstance Based Learning k-nn. YZM 3226 Makine Öğrenmesi
Instance Based Learning k-nn YZM 3226 Makine Öğrenmesi Outline Eager vs. Lazy Learning Instance Based Learning K-Nearest Neighbor Algorithm Nearest Neighbor Approach Basic k-nearest Neighbor Classification
DetaylıEğiticili (supervised) öğrenme: Sınıflandırma (classification) Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğu bilinir
Eğiticili (supervised) öğrenme: Sınıflandırma (classification) Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğu bilinir Eğiticisiz (unsupervised) öğrenme: Kümeleme (clustering) Hangi nesnenin hangi
Detaylıtree) nedir? Karar Ağacı (Decision Decisiontree
Karar Ağacı (Decision Decisiontree tree) nedir? Bir işletme yönetimi tarafından tercihlerin, risklerin, kazançların, hedeflerin tanımlanmasında yardımcı olabilen ve birçok önemli yatırım alanlarında uygulanabilen,
DetaylıKonular VERİ MADENCİLİĞİ. Örnek Tabanlı Yöntemler. En Yakın Komşu Sınıflandırıcı. En Yakın Komşu Yöntemi. Farklı Sınıflandırma Yöntemleri
VERİ MADENCİLİĞİ Farklı Sınıflandırma Yöntemleri Yrd. Doç. Dr. Şule Gündüz Öğüdücü Örnek tabanlı yöntemler ken Yakın Komşu Yöntemi Genetik Algoritmalar Karar Destek Makinaları Bulanık Küme Sınıflandırıcılar
DetaylıDr. Hidayet Takçı. Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1
Dördüncü Saat sınıflandırma: temel kavramlar, karar ağaçları ve model değerlendirme Dr. Hidayet Takçı Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1 Sınıflandırma : Tanım Eğitim seti (training
DetaylıBAYES ÖĞRENMESİ BİLECİK ÜNİVERSİTESİ. Araş. Gör. Nesibe YALÇIN. Yapay Zeka-Bayes Öğrenme
BAYES ÖĞRENMESİ Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ Yapay Zeka-Bayes Öğrenme 1 İÇERİK Bayes Teoremi Bayes Sınıflandırma Örnek Kullanım Alanları Avantajları Dezavantajları Yapay Zeka-Bayes Öğrenme
DetaylıWeb Madenciliği (Web Mining)
Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Denetimli Öğrenmenin Temelleri Karar Ağaçları Entropi ID3 Algoritması C4.5 Algoritması Twoing
Detaylıİstatistik 1. Bölüm 5 Olasılık Teorisi ve Kesikli Olasılık Dağılımları. Ankara Üniversitesi SBF, GYY
İstatistik 1 Bölüm 5 Olasılık Teorisi ve Kesikli Olasılık Dağılımları Bu Bölümde İşlenecek Konular Temel Olasılık Teorisi Örnek uzayı ve olaylar, basit olasılık, birleşik olasılık Koşullu Olasılık İstatistiksel
DetaylıTANI TESTLERINE GIRIŞ & ROC ANALİZİ
TANI TESTLERINE GIRIŞ & ROC ANALİZİ Yrd.Doç.Dr. Selçuk Korkmaz Trakya Üniversitesi Tıp Fakültesi Biyoistatistik Anabilim Dalı Turcosa Analitik Çözümlemeler selcukorkmaz@gmail.com ÇOCUK NEFROLOJİ DERNEĞİ
DetaylıKonular VERİ MADENCİLİĞİ. Örnek Tabanlı Yöntemler. En Yakın Komşu Sınıflandırıcı. En Yakın Komşu Yöntemi. Farklı Sınıflandırma Yöntemleri
Konular VERİ MADENCİLİĞİ Farklı Sınıflandırma Yöntemleri Yrd. Doç. Dr. Şule Gündüz Öğüdücü Örnek tabanlı yöntemler ken Yakın Komşu Yöntemi Genetik Algoritmalar Bulanık Küme Sınıflandırıcılar Öngörü Eğri
DetaylıUzaktan Algılama Teknolojileri
Uzaktan Algılama Teknolojileri Ders 11 Hiperspektral Görüntülerde Kümeleme ve Sınıflandırma Alp Ertürk alp.erturk@kocaeli.edu.tr Sınıflandırma Sınıflandırma işleminin amacı, her piksel vektörüne bir ve
DetaylıVeri madenciliği sınıflandırma ve kümeleme teknikleri yardımıyla Wisconsin veriseti üzerinde Göğüs Kanseri Teşhisi. Hazırlayan: Nury Amanmadov
Veri madenciliği sınıflandırma ve kümeleme teknikleri yardımıyla Wisconsin veriseti üzerinde Göğüs Kanseri Teşhisi Hazırlayan: Nury Amanmadov Göğüs Kanseri Nedir? Gögüs Kanseri göğüs hücrelerinde başlayan
DetaylıHafta 03/04 - Uzaklık/Benzerlik - En Yakın Komşular - Karar Ağaçları
Hafta 03/04 - Uzaklık/Benzerlik - En Yakın Komşular - Karar Ağaçları BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr
DetaylıHafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti
Hafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr
DetaylıHastalıklarda Risk Faktörleri ve Tarama Tanı ve Tedavi Etkinliği İstatistikleri. A.Ayça ÖZDEMİR
Hastalıklarda Risk Faktörleri ve Tarama Tanı ve Tedavi Etkinliği İstatistikleri A.Ayça ÖZDEMİR İçerik Hastalıklarda Risk Faktörleri Geriye Dönük Case Control Odds Ratio İleriye Dönük Kohort Çalışmalarda
DetaylıVeri Madenciliği Karar Ağacı Oluşturma
C4.5 Algoritması Veri Madenciliği Karar Ağacı Oluşturma Murat TEZGİDER 1 C4.5 Algoritması ID3 algoritmasını geliştiren Quinlan ın geliştirdiği C4.5 karar ağacı oluşturma algoritmasıdır. ID3 algoritmasında
DetaylıVERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN
VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr İçerik Sınıflandırma yöntemleri Karar ağaçları ile sınıflandırma Entropi Kavramı ID3 Algoritması C4.5
DetaylıK-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi
K-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi Erdal TAŞCI* Aytuğ ONAN** *Ege Üniversitesi Bilgisayar Mühendisliği Bölümü **Celal Bayar Üniversitesi
DetaylıMakine Öğrenmesi İle Duygu Analizinde Veri Seti Performansı
Makine Öğrenmesi İle Duygu Analizinde Veri Seti Performansı Hatice NİZAM İstanbul Üniversitesi Bilgisayar Mühendisliği Bölümü haticenizam@outlook.com Saliha Sıla AKIN ERS Turizm Yazılım Şirketi, Bilgisayar
DetaylıAdım Adım SPSS. 1- Data Girişi ve Düzenlemesi 2- Hızlı Menü. Y. Doç. Dr. İbrahim Turan Nisan 2011
Adım Adım SPSS 1- Data Girişi ve Düzenlemesi 2- Hızlı Menü Y. Doç. Dr. İbrahim Turan Nisan 2011 File (Dosya) Menüsü Excel dosyalarını SPSS e aktarma Variable View (Değişken Görünümü 1- Name (İsim - Kod)
DetaylıBüyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)
Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data) M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Bu dersin sunumları, The Elements of Statistical Learning: Data
DetaylıWeb Madenciliği (Web Mining)
Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Denetimsiz Öğrenmenin Temelleri Kümeleme Uzaklık Fonksiyonları Öklid Uzaklığı Manhattan
DetaylıMakine Öğrenmesi 3. hafta
Makine Öğrenmesi 3. hafta Entropi Karar Ağaçları (Desicion Trees) ID3 C4.5 Sınıflandırma ve Regresyon Ağaçları (CART) Karar Ağacı Nedir? Temel fikir, giriş verisinin bir kümeleme algoritması yardımıyla
DetaylıVERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN
VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma
DetaylıBAYES KURAMI. Dr. Cahit Karakuş
BAYES KURAMI Dr. Cahit Karakuş Deney, Olay, Sonuç Küme Klasik olasılık Bayes teoremi Permütasyon, Kombinasyon Rasgele Değişken; Sürekli olasılık dağılımı Kesikli - Süreksiz olasılık dağılımı Stokastik
Detaylı1 I S L U Y G U L A M A L I İ K T İ S A T _ U Y G U L A M A ( 5 ) _ 3 0 K a s ı m
1 I S L 8 0 5 U Y G U L A M A L I İ K T İ S A T _ U Y G U L A M A ( 5 ) _ 3 0 K a s ı m 2 0 1 2 CEVAPLAR 1. Tekelci bir firmanın sabit bir ortalama ve marjinal maliyet ( = =$5) ile ürettiğini ve =53 şeklinde
DetaylıWEEK 11 CME323 NUMERIC ANALYSIS. Lect. Yasin ORTAKCI.
WEEK 11 CME323 NUMERIC ANALYSIS Lect. Yasin ORTAKCI yasinortakci@karabuk.edu.tr 2 INTERPOLATION Introduction A census of the population of the United States is taken every 10 years. The following table
DetaylıVeri Madenciliği - Giriş. Erdem Alparslan
Veri Madenciliği - Giriş Erdem Alparslan Amaçlar İş zekasının önemli bir parçası olan veri madenciliğinin tanımı İş analizi ve veri madenciliğinin amaçlarının anlaşılması Veri madenciliğini kullanan çok
DetaylıVeri madenciliği yöntemleri
Sınıflandırma ve Kümeleme Kavramları Giriş Verinin içerdiği ortak özelliklere göre ayrıştırılması işlemi sınıflandırma olarak adlandırılır, veri madenciliği tekniklerinden en çok bilinenidir; veri tabanlarındaki
DetaylıVERİ MADENCİLİĞİ Metin Madenciliği
VERİ MADENCİLİĞİ Metin Madenciliği Yrd. Doç. Dr. Şule Gündüz Öğüdücü 1 2 Metin için Veri Madenciliği Metin Madenciliğinde Sorunlar Metin madenciliği: Veri madenciliği teknikleri ile yazılı belgeler arasındaki
DetaylıAkış YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ
Akış Makine Öğrenmesi nedir? Günlük Hayatımızdaki Uygulamaları Verilerin Sayısallaştırılması Özellik Belirleme Özellik Seçim Metotları Bilgi Kazancı (Informaiton Gain-IG) Sinyalin Gürültüye Oranı: (S2N
DetaylıVeri ve Metin Madenciliği
Veri ve Metin Madenciliği Zehra Taşkın Veri Madenciliği Bir kutu toplu iğne İçine 3 boncuk düşürdünüz Nasıl alacağız? Fikirler? Veri Madenciliği Data Information Knowledge Veri madenciliği; Büyük yoğunluklu
DetaylıVeri ve Metin Madenciliği. Zehra
Veri ve Metin Madenciliği Zehra Taşkın @zehrataskin Büyük Veri https://www.youtube.com/watch?v=tzxmjbl-i4y Veri Madenciliği Bir kutu toplu iğne İçine 3 boncuk düşürdünüz Nasıl alacağız? Veri Madenciliği
DetaylıBBM Discrete Structures: Final Exam Date: , Time: 15:00-17:00
BBM 205 - Discrete Structures: Final Exam Date: 12.1.2017, Time: 15:00-17:00 Ad Soyad / Name: Ögrenci No /Student ID: Question: 1 2 3 4 5 6 7 8 9 10 11 Total Points: 6 16 8 8 10 9 6 8 14 5 10 100 Score:
DetaylıHafta 05 - Karar Ağaçları/Kümeleme
BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr İstanbul Şehir Üniversitesi 2018 - Bahar İçindekiler
DetaylıOlasılık teorisi, matematiğin belirsizlik taşıyan olaylarla ilgilenen bir dalıdır. Bu bilim dalı rasgele değişkenleri inceler.
Bölüm 2 OLASILIK TEORİSİ Olasılık teorisi, matematiğin belirsizlik taşıyan olaylarla ilgilenen bir dalıdır. Bu bilim dalı rasgele değişkenleri inceler. Rasgele değişken, gelecekteki bir gözlemde alacağı
DetaylıGörüntü Sınıflandırma
Görüntü Sınıflandırma Chapter 12 https://www.google.com.tr/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0 CBwQFjAA&url=http%3A%2F%2Ffaculty.une.edu%2Fcas%2Fszeeman%2Frs%2Flect%2FCh%2 52012%2520Image%2520Classification.ppt&ei=0IA7Vd36GYX4Uu2UhNgP&usg=AFQjCNE2wG
Detaylı2.1 Bir Sınıfı Örneklerinden Öğrenme... 15 2.2 Vapnik-Chervonenkis (VC) Boyutu... 20 2.3 Olası Yaklaşık Doğru Öğrenme... 21
İçindekiler Önsöz İkinci Basım için Önsöz Türkçe Çeviri için Önsöz Gösterim xiii xv xvii xix 1 Giriş 1 1.1 Yapay Öğrenme Nedir?......................... 1 1.2 Yapay Öğrenme Uygulamalarına Örnekler...............
DetaylıBİYOİSTATİSTİK Olasılıkta Temel Kavramlar Yrd. Doç. Dr. Aslı SUNER KARAKÜLAH
BİYOİSTTİSTİK Olasılıkta Temel Kavramlar Yrd. Doç. Dr. slı SUNER KRKÜLH Ege Üniversitesi, Tıp Fakültesi, Biyoistatistik ve Tıbbi Bilişim D. Web: www.biyoistatistik.med.ege.edu.tr 1 OLSILIK Olasılık; Tablo
DetaylıSPSS (Statistical Package for Social Sciences)
SPSS (Statistical Package for Social Sciences) SPSS Data Editor: Microsoft Excel formatına benzer satır ve sütunlardan oluşan çalışma sayfası (*sav) Data Editör iki arayüzden oluşur. 1. Data View 2. Variable
DetaylıGraflar bilgi parçaları arasındaki ilişkileri gösterirler.
Graflar (Graphs) Graf gösterimi Uygulama alanları Graf terminolojisi Depth first dolaşma Breadth first dolaşma Topolojik sıralama Yrd.Doç.Dr. M. Ali Akcayol Graflar Graflar bilgi parçaları arasındaki ilişkileri
DetaylıAnkara Üniversitesi, SBF İstatistik 2 Ders Notları Prof. Dr. Onur Özsoy 1
1 Rastgele bir denemede ortaya çıkması olası sonuçların tamamıdır Örnek: bir zar bir kez yuvarlandığında S= Yukarıdaki sonuçlardan biri elde edilecektir. Sonuçların her biri basit olaydır Örnek: Bir deste
DetaylıMarkov Zinciri Monte Carlo Yaklaşımı. Aktüeryal Uygulamaları
Markov Zinciri Monte Carlo Yaklaşımı ve Aktüeryal Uygulamaları ŞİRZAT ÇETİNKAYA Aktüer Sistem Araştırma Geliştirme Bölümü AKTÜERLER DERNEĞİ 2.0.20080 2008 - İSTANBUL Sunum Planı. Giriş 2. Bayesci Metodun
DetaylıUnlike analytical solutions, numerical methods have an error range. In addition to this
ERROR Unlike analytical solutions, numerical methods have an error range. In addition to this input data may have errors. There are 5 basis source of error: The Source of Error 1. Measuring Errors Data
DetaylıYarışma Sınavı A ) 60 B ) 80 C ) 90 D ) 110 E ) 120. A ) 4(x + 2) B ) 2(x + 4) C ) 2 + ( x + 4) D ) 2 x + 4 E ) x + 4
1 4 The price of a book is first raised by 20 TL, and then by another 30 TL. In both cases, the rate of increment is the same. What is the final price of the book? 60 80 90 110 120 2 3 5 Tim ate four more
DetaylıRegresyon ve Sınıflandırma
Regresyon ve Sınıflandırma p Temel fark n n Sınıflandırmada sıralı olmayan kategorik bir hedef değişken vardır. Regresyon probleminde sürekli ya da sıralı bir hedef değişken vardır. p Tüm regresyon yaklaşımları,
Detaylı3 KESİKLİ RASSAL DEĞİŞKENLER VE OLASILIK DAĞILIMLARI
ÖNSÖZ İÇİNDEKİLER III Bölüm 1 İSTATİSTİK ve SAYISAL BİLGİ 11 1.1 İstatistik ve Önemi 12 1.2 İstatistikte Temel Kavramlar 14 1.3 İstatistiğin Amacı 15 1.4 Veri Türleri 15 1.5 Veri Ölçüm Düzeyleri 16 1.6
DetaylıVERİ MADENCİLİĞİ. Karar Ağacı Algoritmaları: SPRINT algoritması Öğr.Gör.İnan ÜNAL
VERİ MADENCİLİĞİ Karar Ağacı Algoritmaları: SPRINT algoritması Öğr.Gör.İnan ÜNAL SPRINT Algoritması ID3,CART, ve C4.5 gibi algoritmalar önce derinlik ilkesine göre çalışırlar ve en iyi dallara ayırma kriterine
DetaylıBölüm 6. Diziler (arrays) Temel kavramlar Tek boyutlu diziler Çok boyutlu diziler
Bölüm 6 Diziler (arrays) Temel kavramlar Tek boyutlu diziler Çok boyutlu diziler Chapter 6 Java: an Introduction to Computer Science & Programming - Walter Savitch 1 Genel Bakış Dizi: Hepsi aynı türde
DetaylıZeki Optimizasyon Teknikleri
Zeki Optimizasyon Teknikleri Ara sınav - 25% Ödev (Haftalık) - 10% Ödev Sunumu (Haftalık) - 5% Final (Proje Sunumu) - 60% - Dönem sonuna kadar bir optimizasyon tekniğiyle uygulama geliştirilecek (Örn:
DetaylıA New Approach for Named Entity Recognition
A New Approach for Named Entity Recognition Burak Ertopçu 1, Ali Buğra Kanburoğlu 1, Ozan Topsakal 1, Onur Açıkgöz 1, Ali Tunca Gürkan 1, Berke Özenç 1, İlker Çam 1, Begüm Avar 2, Gökhan Ercan 1, Olcay
DetaylıKümeler arası. Küme içi. uzaklıklar. maksimize edilir. minimize edilir
Kümeleme Analizi: Temel Kavramlar ve Algoritmalar Kümeleme Analizi Nedir? Her biri bir dizi öznitelik ile, veri noktalarının bir kümesi ve noktalar arasındaki benzerliği ölçen bir benzerlik ölçümü verilmiş
DetaylıNitel Tepki Bağlanım Modelleri
Doğrusal-Dışı Yaklaşım ve Nitel Tepki Bağlanım Modelleri Doğrusal-Dışı Yaklaşım ve Ekonometri 2 Konu 18 Sürüm 2,0 (Ekim 2011) Doğrusal-Dışı Yaklaşım ve UADMK Açık Lisans Bilgisi İşbu belge, Creative Commons
DetaylıVeri Madenciliği Eğiticili Algoritmalar. Erdem Alparslan
Veri Madenciliği Eğiticili Algoritmalar Erdem Alparslan Gündem Sınıflandırma nedir? Öngörü nedir? Sınıflandırma ve öngörü ile ilgili konular Karar ağacı ile sınıflandırma Bayesian Sınıflandırma Geri yayılımlı
DetaylıÖrnek Bir zar atıldığında zarın üstünde bulunan noktaların sayısı gözlensin. Çift sayı gelmesi olasılığı nedir? n(s) = 3 6 = 1 2
Bir Olayın Olasılığı P(A) = n(a) n(s) = A nın eleman sayısı S nin eleman sayısı Örnek Bir zar atıldığında zarın üstünde bulunan noktaların sayısı gözlensin. Çift sayı gelmesi olasılığı nedir? Çözüm: S
DetaylıDilbilgisi ve Diller
Dilbilgisi ve Diller Doç.Dr.Banu Diri 1. Her biçimsel dil belirli bir alfabe üzerinde tanımlanır. 2. Alfabe sonlu sayıda simgelerden oluşan bir kümedir. 3. Alfabedeki simgelerin arka arkaya getirilmesi
Detaylırasgele değişkeninin olasılık yoğunluk fonksiyonu,
3.6. Bazı Sürekli Dağılımlar 3.6.1 Normal Dağılım Normal dağılım hem uygulamalı hem de teorik istatistikte kullanılan oldukça önemli bir dağılımdır. Normal dağılımın istatistikte önemli bir yerinin olmasının
DetaylıMIT OpenCourseWare http://ocw.mit.edu. 14.30 Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009
MIT OpenCourseWare http://ocw.mit.edu 14.30 Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009 Bu materyale atıfta bulunmak ve kullanım koşulları için http://ocw.mit.edu/terms sayfasını ziyaret ediniz.
DetaylıFinal Sınavı Örnek Soruları Bahar 2018
Sayfa#1 Manisa Celal Bayar Üniversitesi Yazılım Mühendisliği Bölümü YZM 2116 Veri Yapıları Dersi Final Sınavı Örnek Soruları Bahar 2018 Süre: 70 Dakika Adı ve Soyadı YANIT ANAHTARI Öğrenci Numarası Grubu
Detaylıİstatistik ve Olasılık
İstatistik ve Olasılık Ders 4: OLASILIK TEORİSİ Giriş Bu bölüm sonunda öğreneceğiniz konular: Rastgele Olay Örnek Uzayı Olasılık Aksiyomları Bağımsız ve Ayrık Olaylar Olasılık Kuralları Koşullu Olasılık
DetaylıSPSS E GİRİŞ SPSS TE TEMEL İŞLEMLER. Abdullah Can
SPSS E GİRİŞ SPSS TE TEMEL İŞLEMLER SPSS in üzerinde işlem yapılabilecek iki ana ekran görünümü vardır. DATA VIEW (VERİ görünümü) VARIABLE VIEW (DEĞİŞKEN görünümü) 1 DATA VIEW (VERİ görünümü) İstatistiksel
Detaylıİki Rastgele Değişken
İki Rastgele Değişken K ve K kesikli rastgele değişkenlerdir K i = i. bit ten sonra oluşan hata sayısı. Başlangıçta Pr[E] =0. ve Pr[E c ]=0.8 K K olasılık (0.)(0.6)=0. (0.)(0.4)=0.08 0 (0.8)(0.)=0.08 0
DetaylıYüz Tanımaya Dayalı Uygulamalar. (Özet)
4 Yüz Tanımaya Dayalı Uygulamalar (Özet) Günümüzde, teknolojinin gelişmesi ile yüz tanımaya dayalı bir çok yöntem artık uygulama alanı bulabilmekte ve gittikçe de önem kazanmaktadır. Bir çok farklı uygulama
DetaylıMann-Whitney U ve Wilcoxon T Testleri
Mann-Whitney U ve Wilcoxon T Testleri Doç. Dr. Ertuğrul ÇOLAK Eskişehir Osmangazi Üniversitesi Tıp Fakültesi Biyoistatistik Anabilim Dalı Konu Başlıkları Parametrik olmayan yöntem Mann-Whitney U testinin
DetaylıAppendix B: Olasılık ve Dağılım Teorisi
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Notları Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix B: Olasılık ve Dağılım
DetaylıAppendix C: İstatistiksel Çıkarsama
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Notları Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix C: İstatistiksel Çıkarsama
DetaylıKorelasyon ve Regresyon
Korelasyon ve Regresyon Kazanımlar 1 2 3 4 5 6 Değişkenlerin ilişkisini açıklamak ve hesaplamak için Pearson korelasyon katsayısı Örneklem r ile evren korelasyonu hakkında hipotez testi yapmak Spearman
DetaylıYTÜ İktisat Bölümü EKONOMETRİ I Ders Notları
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix C: İstatistiksel Çıkarsama Doç.
DetaylıTýpta Karar Süreçlerinde Belirsizlik ve Bayes Yaklaþýmý
3. lusal Týp Biliþimi Kongresi/Medical Informatics 06 Turkey Týpta Karar Süreçlerinde Belirsizlik ve Bayes Yaklaþýmý Anýl AKTAÞ a, Selen BOZKRT a, Osman SAKA a a Akdeniz Üniversitesi, Týp Fakültesi, Biyoistatistik
DetaylıKorelasyon ve Regresyon
Korelasyon ve Regresyon Kazanımlar 1 2 3 4 5 6 Değişkenlerin ilişkisini açıklamak ve hesaplamak için Pearson korelasyon katsayısı Örneklem r ile evren korelasyonu hakkında hipotez testi yapmak Spearman
DetaylıExponential Distribution. diger. Probability Distributions. Sürekli Şans Değişkenleri. 0 diger. SÜREKLİ RASSAL DEĞİŞKENLER ve OLASILIK DAĞILIMLARI
Probability Distributions Probability Distributions SÜREKLİ RASSAL DEĞİŞKENLER ve OLASILIK DAĞILIMLARI Dr. Mehmet AKSARAYLI Dokuz Eylül Üniversitesi İktisadi ve İdari Bilimler Fakültesi Ekonometri Bölümü
DetaylıBilgisayarla Görüye Giriş
Bilgisayarla Görüye Giriş Ders 10 Nesne / Yüz Tespiti ve Tanıma Alp Ertürk alp.erturk@kocaeli.edu.tr Nesne Tespiti Belirli bir nesnenin sahne içindeki konumunun tespitidir Tespit edilecek nesne önceden
DetaylıNaive Bayes Yöntemi ile Spam Mail Teşhisi Kübra KURNAZ
Naive Bayes Yöntemi ile Spam Mail Teşhisi 2 17574006-Kübra KURNAZ Yıldız Teknik Üniversitesi, Elektrik-Elektronik Fakültesi, Bilgisayar Mühendisliği Bölümü, Tezsiz Yüksek Lisans Bilgi Teknolojileri Özet
DetaylıOlasılık, bir deneme sonrasında ilgilenilen olayın tüm olaylar içinde ortaya çıkma ya da gözlenme oranı olarak tanımlanabilir.
5.SUNUM Olasılık, bir deneme sonrasında ilgilenilen olayın tüm olaylar içinde ortaya çıkma ya da gözlenme oranı olarak tanımlanabilir. Günlük hayatta sıklıkla kullanılmakta olan olasılık bir olayın ortaya
DetaylıBBM Discrete Structures: Midterm 2 Date: , Time: 16:00-17:30. Question: Total Points: Score:
BBM 205 - Discrete Structures: Midterm 2 Date: 8.12.2016, Time: 16:00-17:30 Ad Soyad / Name: Ögrenci No /Student ID: Question: 1 2 3 4 5 6 7 Total Points: 12 22 10 10 15 16 15 100 Score: 1. (12 points)
DetaylıBMÜ-111 ALGORİTMA VE PROGRAMLAMA AKIŞ KONTROLÜ YRD. DOÇ. DR. İLHAN AYDIN
BMÜ-111 ALGORİTMA VE PROGRAMLAMA AKIŞ KONTROLÜ YRD. DOÇ. DR. İLHAN AYDIN TEMEL AMAÇLAR Bir dairenin yarıçapını kullanıcıdan alarak dairenin alanını hesaplamak istediğimizi düşünelim. Eğer girilen değer
DetaylıTürkçe Dokümanlar Ġçin Yazar Tanıma
Türkçe Dokümanlar Ġçin Yazar Tanıma Özcan KOLYĠĞĠT, Rıfat AġLIYAN, Korhan GÜNEL Adnan Menderes Üniversitesi, Matematik Bölümü Bölümü, Aydın okolyigit@gmail.com, rasliyan@adu.edu.tr, kgunel@adu.edu.tr Özet:
DetaylıSayı: 2012-13 / 13 Haziran 2012 EKONOMİ NOTLARI. Belirsizlik Altında Yatırım Planları
EKONOMİ NOTLARI Belirsizlik Altında Yatırım Planları Yavuz Arslan Aslıhan Atabek Demirhan Timur Hülagü Saygın Şahinöz Abstract: This note analyzes the relationship between uncertainty and firm investment
Detaylıİstatistik, genel olarak, rassal bir olayı (ya da deneyi) matematiksel olarak modellemek ve bu model yardımıyla, anakütlenin bilinmeyen karakteristik
6.SUNUM İstatistik, genel olarak, rassal bir olayı (ya da deneyi) matematiksel olarak modellemek ve bu model yardımıyla, anakütlenin bilinmeyen karakteristik özellikleri (ortalama, varyans v.b. gibi) hakkında
DetaylıYTÜ İktisat Bölümü EKONOMETRİ I Ders Notları
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix B: Olasılık ve Dağılım Teorisi
DetaylıYTÜ İktisat Bölümü EKONOMETRİ I Ders Notları
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix B: Olasılık ve Dağılım Teorisi
DetaylıSosyal Medyada Makine Öğrenmesi ile Duygu Analizinde Dengeli ve Dengesiz Veri Setlerinin Performanslarının Karşılaştırılması
Sosyal Medyada Makine Öğrenmesi ile Duygu Analizinde Dengeli ve Dengesiz Veri Setlerinin Performanslarının Karşılaştırılması Hatice Nizam 1, Saliha Sıla Akın 2 1 İstanbul Üniversitesi Bilgisayar Mühendisliği
Detaylı2. Oracle Data Miner İle Örnek Bir Veri Madenciliği Çalışması
2. Oracle Data Miner İle Örnek Bir Veri Madenciliği Çalışması Bu örnek uygulamada bir önceki yazımda Oracle SQL Developer a yüklediğim Data Miner Repository ile gelen hazır bir sigorta şirketi veri setini
DetaylıConcept Learning. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ. Yapay Zeka - Kavram Öğrenme
Concept Learning Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ 1 İÇERİK Öğrenme Metotları Kavram Öğrenme Nedir? Terminoloji Find-S Algoritması Candidate-Elimination Algoritması List-Then Elimination Algoritması
DetaylıAYRIK YAPILAR ARŞ. GÖR. SONGÜL KARAKUŞ- FIRAT ÜNİVERSİTESİ TEKNOLOJİ FAKÜLTESİ YAZILIM MÜHENDİSLİĞİ BÖLÜMÜ, ELAZIĞ
AYRIK YAPILAR P r o f. D r. Ö m e r A k ı n v e Y r d. D o ç. D r. M u r a t Ö z b a y o ğ l u n u n Ç e v i r i E d i t ö r l ü ğ ü n ü ü s t l e n d i ğ i «A y r ı k M a t e m a t i k v e U y g u l a
Detaylı*Bir boyutlu veri (bir özellik, bir rasgele değişken, bir boyutlu dağılım): ( x)
4. Ders Tablolar: Hazırlama ve Analiz *Bir boyutlu veri (bir özellik, bir rasgele değişken, bir boyutlu dağılım): Örnek1: 4 çocuklu bir ailede kız çocukların sayısı X rasgele değişkeni olsun. Mendel yasalarına
DetaylıMultiplication/division
Multiplication/division Oku H&P sections 4.6-4.8 Bir kac integer multiplication algorithm Bir integer division algorithms Floating point math 10/22/2004 Bilgisayar Mimarisi 6.1 10/22/2004 Bilgisayar Mimarisi
DetaylıVERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN
VERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma Kümeleme
DetaylıSPPS. Verileri Düzenleme ve Değiştirme 3 - Data Menüsü. Y. Doç. Dr. İbrahim Turan Nisan 2011
SPPS Verileri Düzenleme ve Değiştirme 3 - Data Menüsü Y. Doç. Dr. İbrahim Turan Nisan 2011 Data Menüsü 1- Define Variable 1- Properties (Değişken Özelliklerini Tanımlama) Değişken özelliklerini tanımlamak
Detaylı