Hafta 03/04 - Uzaklık/Benzerlik - En Yakın Komşular - Karar Ağaçları
|
|
- Ilker Neyzi
- 5 yıl önce
- İzleme sayısı:
Transkript
1 Hafta 03/04 - Uzaklık/Benzerlik - En Yakın Komşular - Karar Ağaçları BGM Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr İstanbul Şehir Üniversitesi Bahar
2 İçindekiler 1 Regularization Detay Neden Katsayıların Büyüklüğünü Cezalandırıyoruz? Lab 2 Uzaklık ve Benzerlik Uzaklık Farklı Uzaklık Ölçümleri Benzerlik Ölçümleri 3 knn Yöntemi Giriş knn Yöntemi Karar Sınırları Ağırlıklı knn 4 Karar Ağaçları Giriş Çok Sınıflı Sınıflandırma Ağacın Oluşturulması
3 İçindekiler 1 Regularization Detay Neden Katsayıların Büyüklüğünü Cezalandırıyoruz? Lab 2 Uzaklık ve Benzerlik Uzaklık Farklı Uzaklık Ölçümleri Benzerlik Ölçümleri 3 knn Yöntemi Giriş knn Yöntemi Karar Sınırları Ağırlıklı knn 4 Karar Ağaçları Giriş Çok Sınıflı Sınıflandırma Ağacın Oluşturulması
4 Regularization - Detay I Regularization Ridge ve Lasso regresyonu, genellikle yüksek sayıda özniteliğin (feature, column v.s.) olduğu durumlarda model (hipotez) oluşturulmasında kullanılan güçlü tekniklerdir. Burada yüksek, genellikle iki konudan birini ifade etmektedir: Bir modelin aşırı öğrenme eğilimini arttırmak için yeterince yüksek sayıda (10 değişken bile aşırı öğrenmeye neden olabilir) Hesaplama zorluklarına neden olacak kadar büyük. Modern sistemlerde, bu durum milyonlarca veya milyarlarca özellikte ortaya çıkabilir. Regularization: Tahmin ve gerçek gözlemler arasındaki hatayı en aza indirgeyerek, özellik katsayılarının büyüklüğünü cezalandırarak çalışırlar.
5 y y Regularization - Detay II Lasso Regularization Ridge Regularization λ 1.00e-15 λ 1.00e-03 λ 1.00e+00 λ 1.00e+01 Samples Test Samples λ 1.00e-15 λ 1.00e-03 λ 1.00e+00 λ 1.00e+01 Samples Test Samples x x Şekil: Farklı λ değerleri için lasso ve ridge regularization
6 y y y Regularization - Detay III Degree 1 Degree 4 Degree 15 Model True function Samples Model True function Samples Model True function Samples x x x Şekil: Aşırı Öğrenme
7 Neden Katsayıların Büyüklüğünü Cezalandırıyoruz? Regularization ) 2 Eski maliyet fonksiyonu C = 1 m 2m i=1 (h(x (i) ) y (i) MSE (Mean Square Error) değerinin azaltılması tek hedeftir. Bu nedenle, MSE düşürmek için ağırlık değerleri herhangi bir değer alabilir. Ağırlıkların yüksek olması ezberlemeye (overfit) neden olabilir. Çözüm: Sadece MSE düşürülmemeli aynı zamanda ağırlıklar çok yüksek olmamalıdır. ( m ( ) ) 2 Yeni maliyet fonksiyonu C = 1 2m i=1 h(x (i) ) y (i) + λ n j=1 w j 2 λ: regularization ifadesinin değerini ayarlamak için kullanılmaktadır. n değeri öznitelik sayısıdır. λ değeri çok düşükse, maliyet sadece çoğunlukla MSE ye bağımlıdır. λ değeri çok büyükse ağırlıklar oldukça düşük değerler olacaktır.
8 Lab Lab Uygulaması 1 ve 2
9 İçindekiler 1 Regularization Detay Neden Katsayıların Büyüklüğünü Cezalandırıyoruz? Lab 2 Uzaklık ve Benzerlik Uzaklık Farklı Uzaklık Ölçümleri Benzerlik Ölçümleri 3 knn Yöntemi Giriş knn Yöntemi Karar Sınırları Ağırlıklı knn 4 Karar Ağaçları Giriş Çok Sınıflı Sınıflandırma Ağacın Oluşturulması
10 Uzaklık I Kümeleme ve sınıflandırma olmak üzere iki örneğin birbirlerine olan uzaklık ve benzerlikleri kullanılmaktadır. Uzaklık Uzaklık: X kümesindeki bir metrik. (uzaklık fonksiyonu veya sadece uzaklık adlandırılır). d : X X R [0, ) x, y, z X gibi X kümesinden alınacak örnekler için uzaklık olarak [0, ) şeklinde skaler sonuçlar üretir. Aşağıdaki koşullar yerine getirir: d(x, y) 0, iki örneklem arasında uzaklık pozitiftir. d(x, y) = 0 x = y iki örneklem arasında uzaklık 0 ise bu iki örneklem aynıdır. d(x, y) = d(y, x), Uzaklıklar simetriktir. d(x, z) d(x, y) + d(x, z) Üçgen eşitsizliği Alternatif olarak uzaklık d, norm N olarak ifade edebiliriz. d(x, y) = N(x y)
11 Uzaklık II Uzaklık Matrisi m adet satır ve n adet özniteliğe sahip veri kümesi D R m n için uzaklık matrisi R R m m şeklinde tanımlanır. 0 d d 1m d d 2m R = d m1 d m2... 0
12 Uzaklık III Uygulama Örnekler (satırlar, x i R n, n 1) arasında benzerliği birbirlerine olan yakınlık olarak tanımlayabiliriz
13 Farklı Uzaklık Ölçümleri I Uzaklık Ölçümleri - Minkowski Uzaklığı d p(x, y) = x y p = ( n k=1 x k y k p ) 1 p (1) p = 1: Manhattan uzaklığı (L 1 -Norm, Taxicab veya City-Block) p = 2: Öklid uzaklığı (L 2 -Norm veya Ruler) p : Chebyshev uzaklığı (L max-norm, maximum metric) d Chebyshev (x, y) = max x i y i Örnek: i x = [0, 3, 4, 5] y = [7, 6, 3, 1] d Chebyshev (x, y) = 7
14 Benzerlik Ölçümleri I Pearson Correlation Tanım Pearson korelasyon katsayısı, X ve Y iki değişkeni arasındaki doğrusal korelasyonun bir ölçütüdür. Öznitelikler arasında bulunan benzerlik derecesini hesaplamada kullanılır. [ 1, +1] aralığında yer alırlar. Pearson Correlation ρ X,Y = n n k=1 (x k x)(y k y) k=1 (x i x) 2 n k=1 (y i y) 2 (2)
15 Benzerlik Ölçümleri II Pearson Correlation
16 Kosinüs Benzerliği I Kosinüs Benzerliği İki vektör arasında bulunan açı farkını kullanan benzerlik ölçümü. Açı 0 ise kosinüs değeri 1 olacaktır. Diğer durumlarda 1 den küçük olacaktır. Kullanım alanı: Döküman benzerlikleri Multimedia kıyaslamaları Arama motorları v.s. cos(θ) = a b a b = n n i=1 a ib i i=1 a2 i n i=1 b2 i (3)
17 Kosinüs Benzerliği II
18 Kosinüs Benzerliği III Örnek a = [1, 6] b = [3, 5] a = = 6.08 b = = 5.83 cos(θ) = a b = = = 0.93
19 Kategorik Değişkenler I Kategorik Değişkenler Öznitelikerin temsili amacıyla söz konusu özelliğin varlığı/yokluğu (Var/Yok, True/False) ile ifade edilmesi Hamming Uzaklığı Tanım: x R m y R m olsun. d(x, y) için Örnekler: m d hamming (x, y) = (x i XOR y i ) (4) i=1 d(00111, 11001) = 4 d(0122, 1220) = 3 d( karolin, kathrin ) = 3
20 Kategorik Değişkenler II İkili alfabe Hamming uzaklığı Kelimeler (R 3 ) üç boyutlu bir küpün köşeleri olarak temsil edilebilir. 000, 001, 010, 011, , 110, 111
21 Kategorik Değişkenler III Jaccard Benzerliği Jaccard benzerliği, hangi üyelerin paylaşıldığını, hangilerinin farklı olduğunu görmek için iki kümeyi karşılaştırmaktadır. Benzerlik ölçüsü aralığı: [0, 1] Jaccard = (the number in both sets) / (the number in either set) * 100 J(X, Y ) = X Y X Y Örnek: J(A, B) = A = {0, 1, 2, 5, 6} B = {0, 2, 3, 4, 5, 7, 9} A B A B = {0, 2, 5} {0, 1, 2, 3, 4, 5, 6, 7, 9} = 3 9 = 0.33 Jaccard uzaklığı: d jaccard (A, B) = 1 J(A, B)
22 Lab Lab Uygulaması 3
23 İçindekiler 1 Regularization Detay Neden Katsayıların Büyüklüğünü Cezalandırıyoruz? Lab 2 Uzaklık ve Benzerlik Uzaklık Farklı Uzaklık Ölçümleri Benzerlik Ölçümleri 3 knn Yöntemi Giriş knn Yöntemi Karar Sınırları Ağırlıklı knn 4 Karar Ağaçları Giriş Çok Sınıflı Sınıflandırma Ağacın Oluşturulması
24 knn Yöntemi Giriş İki değişkenin benzerliği ve uzaklığı çeşitli yöntemlerle (Öklid, Hamming, Jaccard, Pearson gibi) hesaplanabilmektedir. Bu yöntemler kullanılarak Voronoi mozaikleriyle karar sınırları tanımlanabilmektedir. Voronoi: Düzlemin belirli bir alt kümesindeki noktalara olan uzaklığa bağlı olarak bir düzlemin bölgelere ayrılmasıdır.
25 k-en Yakın Komşu Yöntemi I k-nearest-neighbor (knn) knn En basit sınıflandırma algoritmalarından bir tanesidir. Bir test örneği ile belirtilen eğitim örnekleri arasındaki uzaklığa dayanır ? k-en-yakın komşu algoritması En basit sınıflandırma yöntemi Örnek tabanlı: Bir öğrenme aşaması yok. Bunun yerine bütün örnekleri hatırlayarak yeni örneğin sınıfını uzaklıkları kullanarak hesaplamaktadır
26 k-en Yakın Komşu Yöntemi II k-nearest-neighbor (knn) knn Nasıl Çalışır? k adet en yakın komşunun sahip olduğu sınıf etiketi kullanılarak gözlemin sınıfı belirlenir. Uzaklık ölçümü (d(x, y)) için genellikle Öklid (Euclidean) uzaklığı kullanılır. En yakın komşu: eğer bilinmeyen örnek x R m için eğitim veri kümesinde D R m n bulunan örneklerin (satırların) uzaklıklarına göre artan sırada sıralayalım. d 1 (x) d 2 (x) d m(x) d 1 ifadesi en yakın örneğe olan uzaklık, d 2 ifadesi ikinci en yakın örneğe olan uzaklığı ifade etmektedir.
27 k-en Yakın Komşu Yöntemi III k-nearest-neighbor (knn) Formal Tanım positif tamsayı K, gözlemlenen örnek x ve benzerlik metriği d olmak üzere, knn aşağıda yer alan 2 adımı gerçekleştirir. Bütün veri kümesi, D, üzerinde bulunan örnekler (satırlar, gözlemler v.b.) ile sınıf etiketi bilinmeyen x arasında d hesaplanır. Her bir sınıf için şartlı olasılık hesaplanarak, en yüksek olasılığa sahip sınıf etiketi x gözlemine atanmaktadır. P(y = j X = x) = 1 I(y (i) = j) K i A I: Indicator function, doğru ise 1 diğer durumda 0. knn yi anlamak için alternatif bir yol: yeni noktaları sınıflandırmak için kullanılan bir karar sınırını hesaplamak olarak düşünülebilir.
28 k-en Yakın Komşu Yöntemi IV k-nearest-neighbor (knn) Table: KDDCUP 99 veri kümesinden alınmış 10 örneğin birbirlerine olan öklid uzaklıkları. x 0 x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 x x x x x x x x x x
29 Karar Sınırları I Decision Boundaries k = 1 k = 5 k = k = k = k = Şekil: knn karar sınırları
30 Karar Sınırları II Decision Boundaries Lab Uygulaması - 4
31 Ağırlıklı knn Weighted k-nearest-neighbors Ağırlıklı knn Yöntem: sınıf etiketi bilinmeyen örneklem x için yakınında bulunan örneklerin uzaklıklarına göre ağırlıklandırılması yöntemidir. Bu amaçla uzaklık bir benzerlik ölçüsü olarak kullanılır. Yakın olan noktaların ağırlıkları daha yüksek olmalıdır. P(y = j X = x) = 1 K i A 1 d(x, x i ) I(y (i) = j) Python class sklearn.neighbors.kneighborsclassifier(n_neighbors=5, weights= uniform, algorithm= auto, leaf_size=30, p=2, metric= minkowski, metric_params=none,n_jobs=1, **kwargs)
32 İçindekiler 1 Regularization Detay Neden Katsayıların Büyüklüğünü Cezalandırıyoruz? Lab 2 Uzaklık ve Benzerlik Uzaklık Farklı Uzaklık Ölçümleri Benzerlik Ölçümleri 3 knn Yöntemi Giriş knn Yöntemi Karar Sınırları Ağırlıklı knn 4 Karar Ağaçları Giriş Çok Sınıflı Sınıflandırma Ağacın Oluşturulması
33 Karar Ağaçları I Hiyerarşik Öğrenme Tek Aşamalı Sınıflandırıcılar Tek bir işlem kullanarak (doğrusal regresyon, lojistik regresyon) bir x örneklemine sınıf etiketi ataması yaparlar. Bütün sınıflar için tek bir öznitelik kümesi kullanılmaktadır. Özniteliklerin nominal olma durumu. Hiyerarşik Sınıflandırıcılar Birden çok ardışık test
34 Karar Ağaçları II Nominal Veri Öznitelikler Ayrık (Discrete) Herhangi bir sıralama/benzerlik kavramı yok Metrik olmayan öğrenme (Non-metric learning) Örnekler: Protocol type: TCP, UDP Service: http, mail, ftp, ssh Flags: SYN, ACK, RST, FIN
35 Karar Ağaçları III
36 Çok Sınıflı Sınıflandırma Multiclass classification Çok Sınıflı Sınıflandırma Bire-karşı-hepsi (One-versus-all) K adet sınıflandırıcı (hipotez, model) oluştur, oylama ile x etikietini bul Bire-karşı-bir (One-versus-one): K(K-1)/2 adet sınıflandırıcı (hipotez, model) oluştur, oylama ile x etikietini bul Çoklu sınıfları işleyen bir algoritma kullanımı: Karar ağaçları Yapay Sinir ağları
37 Ağacın Oluşturulması I Giriş Monothetic ağaçlarda (her bir node üzerinde sadece bir öznitelik olması) karar sınırları axis lere ortagonal yapıdadır. Ayrıştırma değişkeni (j) ve ayrıştırma noktaları 2 bölge tanımlamaktadır. j ve s değerleri saf olmamayı (Impurity) azaltacak şekilde seçilmelidir. Niteliklerin kategorik olması durumunda: Bilgi Kazanımı Niteliklerin sürekli olması durumunda: Gini index Gini = 1 c i=1 (p i ) 2 Formal Tanım Eğitim vektörleri x i R n, i = 1,, m ve sınıf vektörü y R m olsun. Karar ağacı algoritması, girdi uzayını aynı etiketlere sahip örneklere göre parçalamaktadır. Amaç: Impurity minimize etmek için öznitelikler seçilir. ( R1 (j) min Imp(R 1 (j)) + R ) 2(j) Imp(R 2 (j)) (5) j n total n total
38 Ağacın Oluşturulması II Bilgi Kazanımı (Information Gain) Rassal bir değişken X belirsizliği/rassallığı Entropi ile ölçülür. H(X n) = k p k log 2 (p k ) (6) p k ifadesi, X n içinde yer alan eğitim örneklerinin k sınıfına ait olanlarının oranıdır. İkili sınıflandırma problemi (-1, +1): Bütün örneklerin sınıf etiketi aynı ise Entropi 0. Düşük Entropi. y = { 1, 1,, 1} veya y = {+1, +1,, +1} Bütün örneklerin yarısının sınıf etiketi 1 diğer yarısı +1 aynı ise Entropi 1. Yüksek Entropi
39 Ağacın Oluşturulması III Şekil: Örnek verikümesi 1
40 Ağacın Oluşturulması IV Bağımlı Değişken Entropy Değeri
41 Ağacın Oluşturulması V Bağımsız Değişken (Outlook) Entropy Değeri
42 Ağacın Oluşturulması VI Bilgi Kazanımı (Information Gain) Bilgi kazancı, bir veri kümesinin bir öznitelik üzerine bölünmesinden sonra Entropi azalmasına dayanmaktadır.
43 Ağacın Oluşturulması VII En yüksek bilgi kazanımı olan öznitelik (Outlook), karar düğümü olarak seçilir.
44 Ağacın Oluşturulması VIII 1 tree.htm
Hafta 05 - Karar Ağaçları/Kümeleme
BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr İstanbul Şehir Üniversitesi 2018 - Bahar İçindekiler
DetaylıVERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN
VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr İçerik Sınıflandırma yöntemleri Karar ağaçları ile sınıflandırma Entropi Kavramı ID3 Algoritması C4.5
DetaylıK En Yakın Komşu Methodu (KNearest Neighborhood)
K En Yakın Komşu Methodu (KNearest Neighborhood) K-NN algoritması, Thomas. M. Cover ve Peter. E. Hart tarafından önerilen, örnek veri noktasının bulunduğu sınıfın ve en yakın komşunun, k değerine göre
DetaylıYZM 3217 YAPAY ZEKA DERS#10: KÜMELEME
YZM 317 YAPAY ZEKA DERS#10: KÜMELEME Sınıflandırma (Classification) Eğiticili (supervised) sınıflandırma: Sınıflandırma: Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğunu bilinir Eğiticisiz (unsupervised)
DetaylıWeb Madenciliği (Web Mining)
Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Denetimsiz Öğrenmenin Temelleri Kümeleme Uzaklık Fonksiyonları Öklid Uzaklığı Manhattan
DetaylıHafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti
Hafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr
DetaylıBüyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)
Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data) M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Bu dersin sunumları, The Elements of Statistical Learning: Data
DetaylıEğitim seti (training set) sınıflandırma modelinin elde edileceği kayıtları içerir
sınıflandırma: temel kavramlar, karar ağaçları ve model değerlendirme Sınıflandırma : Tanım Eğitim seti (training set) sınıflandırma modelinin elde edileceği kayıtları içerir Eğitim setindeki her kayıt
DetaylıK-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi
K-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi Erdal TAŞCI* Aytuğ ONAN** *Ege Üniversitesi Bilgisayar Mühendisliği Bölümü **Celal Bayar Üniversitesi
DetaylıVERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN
VERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma Kümeleme
DetaylıVERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN
VERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr İçerik Kümeleme İşlemleri Kümeleme Tanımı Kümeleme Uygulamaları Kümeleme Yöntemleri Kümeleme (Clustering) Kümeleme birbirine
DetaylıWeb Madenciliği (Web Mining)
Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Denetimli Öğrenmenin Temelleri Karar Ağaçları Entropi ID3 Algoritması C4.5 Algoritması Twoing
DetaylıVERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr
VERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma
Detaylı3 KESİKLİ RASSAL DEĞİŞKENLER VE OLASILIK DAĞILIMLARI
ÖNSÖZ İÇİNDEKİLER III Bölüm 1 İSTATİSTİK ve SAYISAL BİLGİ 11 1.1 İstatistik ve Önemi 12 1.2 İstatistikte Temel Kavramlar 14 1.3 İstatistiğin Amacı 15 1.4 Veri Türleri 15 1.5 Veri Ölçüm Düzeyleri 16 1.6
DetaylıKonular. VERİ MADENCİLİĞİ Veri Önişleme. Değer Kümeleri. Veri Nedir? Nitelik Türleri. Konular. Veri Veri Önişleme Benzerlik ve farklılık
0 VERİ MADENCİLİĞİ Veri Önişleme Yrd. Doç. Dr. Şule Gündüz Öğüdücü Veri Nedir? nesneler ve nesnelerin niteliklerinden oluşan küme kayıt (record), varlık (entity), örnek (sample, instance) nesne için kullanılabilir.
DetaylıBoosting. Birol Yüceoğlu Migros T.A.Ş.
Boosting Birol Yüceoğlu Migros T.A.Ş. www.veridefteri.com biroly@migros.com.tr İçerik Karar ağaçları Bagging Boosting Ana fikir Boosting vs. Bagging LightGBM Scikit-learn AdaBoost Calibration Gradient
DetaylıMakine Öğrenmesi 2. hafta
Makine Öğrenmesi 2. hafta Uzaklığa dayalı gruplandırma K-means kümeleme K-NN sınıflayıcı 1 Uzaklığa dayalı gruplandırma Makine öğrenmesinde amaç birbirine en çok benzeyen veri noktalarını aynı grup içerisinde
DetaylıUzaktan Algılama Teknolojileri
Uzaktan Algılama Teknolojileri Ders 11 Hiperspektral Görüntülerde Kümeleme ve Sınıflandırma Alp Ertürk alp.erturk@kocaeli.edu.tr Sınıflandırma Sınıflandırma işleminin amacı, her piksel vektörüne bir ve
DetaylıRegresyon ve Sınıflandırma
Regresyon ve Sınıflandırma p Temel fark n n Sınıflandırmada sıralı olmayan kategorik bir hedef değişken vardır. Regresyon probleminde sürekli ya da sıralı bir hedef değişken vardır. p Tüm regresyon yaklaşımları,
DetaylıKümeler arası. Küme içi. uzaklıklar. maksimize edilir. minimize edilir
Kümeleme Analizi: Temel Kavramlar ve Algoritmalar Kümeleme Analizi Nedir? Her biri bir dizi öznitelik ile, veri noktalarının bir kümesi ve noktalar arasındaki benzerliği ölçen bir benzerlik ölçümü verilmiş
DetaylıVERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN
VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN kergun@balikesir.edu.tr Genel İçerik Veri Madenciliğine Giriş Veri Madenciliğinin Adımları Veri Madenciliği Yöntemleri Sınıflandırma
DetaylıGörüntü Sınıflandırma
Görüntü Sınıflandırma Chapter 12 https://www.google.com.tr/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0 CBwQFjAA&url=http%3A%2F%2Ffaculty.une.edu%2Fcas%2Fszeeman%2Frs%2Flect%2FCh%2 52012%2520Image%2520Classification.ppt&ei=0IA7Vd36GYX4Uu2UhNgP&usg=AFQjCNE2wG
Detaylı2. BASİT DOĞRUSAL REGRESYON 12
1. GİRİŞ 1 1.1 Regresyon ve Model Kurma / 1 1.2 Veri Toplama / 5 1.3 Regresyonun Kullanım Alanları / 9 1.4 Bilgisayarın Rolü / 10 2. BASİT DOĞRUSAL REGRESYON 12 2.1 Basit Doğrusal Regresyon Modeli / 12
Detaylı2.1 Gri Düzey Eş Oluşum Matrisi ( GLCM) Gri düzey eş oluşum matrisi Haralick tarafından öne sürülmüştür [1]. Đstatistiksel doku analizi yöntemidir.
ÇELĐK YÜZEYLERĐN SINIFLANDIRILMASI * Cem ÜNSALAN ** Aytül ERÇĐL * Ayşın ERTÜZÜN *Boğaziçi Üniversitesi, Elektrik-Elektronik Mühendisliği Bölümü unsalan@boun.edu.tr **Boğaziçi Üniversitesi, Endüstri Mühendisliği
DetaylıBu bölümde; Çok ölçütlü karar verme yöntemlerinden biri olan TOPSİS yöntemi anlatılacaktır.
ÇOK ÖLÇÜTLÜ KARAR VERME TOPSIS (Technique For Order Preference By Similarity To Ideal Solution) PROF. DR. İBRAHİM ÇİL 1 Bu bölümde; Çok ölçütlü karar verme yöntemlerinden biri olan TOPSİS yöntemi anlatılacaktır.
DetaylıCBS ve Coğrafi Hesaplama
Yıldız Teknik Üniversitesi CBS ve Coğrafi Hesaplama 2. Bölüm Yrd. Doç. Dr. Alper ŞEN Harita Mühendisliği Bölümü Kartografya Anabilim Dalı web: http://www.yarbis.yildiz.edu.tr/alpersen/ E mail: alpersen@yildiz.edu.tr
DetaylıHafta 13 - Adversarial ML
BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr İstanbul Şehir Üniversitesi 2018 - Bahar İçindekiler
DetaylıGözetimli & Gözetimsiz Öğrenme
Bölüm 5. Sınıflandırma 1 http://ceng.gazi.edu.tr/~ozdemir Gözetimli & Gözetimsiz Öğrenme Predictive Data Mining vs. Descriptive Data Mining Gözetimli (Supervised) öğrenme= sınıflandırma (clasification)
DetaylıTürkçe Dokümanlar Ġçin Yazar Tanıma
Türkçe Dokümanlar Ġçin Yazar Tanıma Özcan KOLYĠĞĠT, Rıfat AġLIYAN, Korhan GÜNEL Adnan Menderes Üniversitesi, Matematik Bölümü Bölümü, Aydın okolyigit@gmail.com, rasliyan@adu.edu.tr, kgunel@adu.edu.tr Özet:
DetaylıHafta 01 - Giriş. BGM Siber Güvenlik için Makine Öğrenme Yöntemleri. Yüksek Lisans Programı. Dr. Ferhat Özgür Çatak
BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr İstanbul Şehir Üniversitesi 2018 - Bahar İçindekiler
DetaylıWeb Madenciliği (Web Mining)
Web Madenciliği (Web Mining) Hazırlayan: M. Ali Akcayol Gazi Üniversitesi Bilgisayar Mühendisliği Bölümü Konular Sınıflandırıcıların Değerlendirilmesi Skorlar Karışıklık matrisi Accuracy Precision Recall
DetaylıVeri Madenciliği. Bölüm 5. Sınıflandırma 1. Doç. Dr. Suat Özdemir.
Bölüm 5. Sınıflandırma 1 http://ceng.gazi.edu.tr/~ozdemir Gözetimli & Gözetimsiz Öğrenme Predictive Data Mining vs. Descriptive Data Mining Gözetimli (Supervised) öğrenme= sınıflandırma (clasification)
DetaylıİÇİNDEKİLER 1. GİRİŞ...
İÇİNDEKİLER 1. GİRİŞ... 1 1.1. Regresyon Analizi... 1 1.2. Uygulama Alanları ve Veri Setleri... 2 1.3. Regresyon Analizinde Adımlar... 3 1.3.1. Problemin İfadesi... 3 1.3.2. Konu ile İlgili Potansiyel
DetaylıÇok-öbekli Veri için Aradeğerlemeci Ayrışım
Interpolative Decomposition for Data with Multiple Clusters Çok-öbekli Veri için Aradeğerlemeci Ayrışım İsmail Arı, A. Taylan Cemgil, Lale Akarun. Boğaziçi Üniversitesi, Bilgisayar Mühendisliği 25 Nisan
Detaylı1. Metrik Uzaylar ve Topolojisi
1. Metrik Uzaylar ve Topolojisi Euclidean R uzayının tabanının B = {(a, b) : a, b R} olduğunu biliyoruz. Demek ki bu uzayda belirleyiçi unsur açık aralıklar. Her açık aralık (a, b) için, olmak üzere, d
DetaylıBSM-767 MAKİNE ÖĞRENMESİ. Doğrusal Ayırıcılar (Linear Discriminants)
BSM-767 MAKİNE ÖĞRENMESİ Doğrusal Ayırıcılar (Linear Discriminants) Yrd. Doç. Dr. Ümit ATİLA umitatila@karabuk.edu.tr http://web.karabuk.edu.tr/umitatilla/ Perceptron Perceptron, bir giriş kümesinin ağırlıklandırılmış
DetaylıTANIMLAYICI İSTATİSTİKLER
TANIMLAYICI İSTATİSTİKLER Tanımlayıcı İstatistikler ve Grafikle Gösterim Grafik ve bir ölçüde tablolar değişkenlerin görsel bir özetini verirler. İdeal olarak burada değişkenlerin merkezi (ortalama) değerlerinin
DetaylıYZM 3217 YAPAY ZEKA DERS#9: ÖĞRENME VE SINIFLANDIRMA
YZM 3217 YAPAY ZEKA DERS#9: ÖĞRENME VE SINIFLANDIRMA Makine Öğrenmesi Çok büyük miktardaki verilerin elle işlenip analiz edilmesi mümkün değildir. Bu tür problemlere çözüm bulmak amacıyla makine öğrenmesi
DetaylıAkış YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ
Akış Makine Öğrenmesi nedir? Günlük Hayatımızdaki Uygulamaları Verilerin Sayısallaştırılması Özellik Belirleme Özellik Seçim Metotları Bilgi Kazancı (Informaiton Gain-IG) Sinyalin Gürültüye Oranı: (S2N
Detaylı2. REGRESYON ANALİZİNİN TEMEL KAVRAMLARI Tanım
2. REGRESYON ANALİZİNİN TEMEL KAVRAMLARI 2.1. Tanım Regresyon analizi, bir değişkenin başka bir veya daha fazla değişkene olan bağımlılığını inceler. Amaç, bağımlı değişkenin kitle ortalamasını, açıklayıcı
DetaylıMakine Öğrenmesi 3. hafta
Makine Öğrenmesi 3. hafta Entropi Karar Ağaçları (Desicion Trees) ID3 C4.5 Sınıflandırma ve Regresyon Ağaçları (CART) Karar Ağacı Nedir? Temel fikir, giriş verisinin bir kümeleme algoritması yardımıyla
DetaylıDr. Hidayet Takçı. Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1
İkinci Ders Veri Madenciliği: Veri Dr. Hidayet Takçı Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1 Veri Nedir? Sayısal veya mantıksal her türlü değer bir veridir. Öznitelik Bir nesneye ait
DetaylıMetin Sınıflandırma. Akış
Metin Sınıflandırma Mehmet Fatih AMASYALI BLM 5212 Doğal Dil İşlemeye Giriş Ders Notları Akış Görev Eğiticili Eğiticisiz Öğrenme Metin Özellikleri Metin Kümeleme Özellik Belirleme Çok Boyutlu Verilerle
DetaylıVERİ MADENCİLİĞİ. Karar Ağacı Algoritmaları: SPRINT algoritması Öğr.Gör.İnan ÜNAL
VERİ MADENCİLİĞİ Karar Ağacı Algoritmaları: SPRINT algoritması Öğr.Gör.İnan ÜNAL SPRINT Algoritması ID3,CART, ve C4.5 gibi algoritmalar önce derinlik ilkesine göre çalışırlar ve en iyi dallara ayırma kriterine
DetaylıİSTATİSTİKSEL DARALTICI (SHRINKAGE) MODEL VE UYGULAMALARI * A Statistical Shrinkage Model And Its Applications*
Ç.Ü. Fen Bilimleri Enstitüsü Yıl:010 Cilt:-1 İSTATİSTİKSEL DARALTICI (SHRINKAGE) MODEL VE UYGULAMALARI * A Statistical Shrinkage Model And Its Applications* Işıl FİDANOĞLU İstatistik Anabilim Dalı Fikri
DetaylıAkış YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ
Akış Makine Öğrenmesi nedir? Günlük Hayatımızdaki Uygulamaları Verilerin Sayısallaştırılması Özellik Belirleme Özellik Seçim Metotları Bilgi Kazancı (Informaiton Gain-IG) Sinyalin Gürültüye Oranı: (S2N
DetaylıİÇİNDEKİLER. BÖLÜM 1 Değişkenler ve Grafikler 1. BÖLÜM 2 Frekans Dağılımları 37
İÇİNDEKİLER BÖLÜM 1 Değişkenler ve Grafikler 1 İstatistik 1 Yığın ve Örnek; Tümevarımcı ve Betimleyici İstatistik 1 Değişkenler: Kesikli ve Sürekli 1 Verilerin Yuvarlanması Bilimsel Gösterim Anlamlı Rakamlar
Detaylıii) S 2LW 2WH 2LW 2WH S 2WH 2LW S 3( x 1) 5( x 2) 5 3x 3 5x x Maliye Bölümü EKON 103 Matematik I / Mart 2018 Proje 2 CEVAPLAR C.1) C.
C.1) x1 x 1 4 4( x1) x 6 4x 4 x 6 x 46 x Maliye Bölümü EKON 10 Matematik I / Mart 018 Proje CEVAPLAR C.) i) S LW WH LW WH S LW WH S W W W S L H W ii) S LW WH WH LW S WH LW S W W W S H L W C.) ( x1) 5(
DetaylıKarar Ağacı Öğrenmesi(Decision Tree Learning)
Karar Ağacı Öğrenmesi(Decision Tree Learning) Bu yazımızda karar ağacı öğrenmesini inceleyeceğiz. Öncelikle karar ağacı öğrenmesi danışmanlı öğrenmenin, danışmanlı öğrenme de makine öğrenmesinin bir alt
DetaylıVeri madenciliği yöntemleri
Sınıflandırma ve Kümeleme Kavramları Giriş Verinin içerdiği ortak özelliklere göre ayrıştırılması işlemi sınıflandırma olarak adlandırılır, veri madenciliği tekniklerinden en çok bilinenidir; veri tabanlarındaki
DetaylıBilgisayarla Görüye Giriş
Bilgisayarla Görüye Giriş Ders 10 Nesne / Yüz Tespiti ve Tanıma Alp Ertürk alp.erturk@kocaeli.edu.tr Nesne Tespiti Belirli bir nesnenin sahne içindeki konumunun tespitidir Tespit edilecek nesne önceden
DetaylıK-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi
K-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi Erdal Taşcı 1, Aytuğ Onan 2 1 Ege Üniversitesi, Bilgisayar Mühendisliği Bölümü, İzmir 2 Celal Bayar
DetaylıHafta 02 - Çok Değişkenli Regresyon
BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr İstanbul Şehir Üniversitesi 2018 - Bahar İçindekiler
Detaylı2.1 Bir Sınıfı Örneklerinden Öğrenme... 15 2.2 Vapnik-Chervonenkis (VC) Boyutu... 20 2.3 Olası Yaklaşık Doğru Öğrenme... 21
İçindekiler Önsöz İkinci Basım için Önsöz Türkçe Çeviri için Önsöz Gösterim xiii xv xvii xix 1 Giriş 1 1.1 Yapay Öğrenme Nedir?......................... 1 1.2 Yapay Öğrenme Uygulamalarına Örnekler...............
DetaylıKorelasyon, Korelasyon Türleri ve Regresyon
Korelasyon, Korelasyon Türleri ve Regresyon İçerik Korelasyon Korelasyon Türleri Korelasyon Katsayısı Regresyon KORELASYON Korelasyon iki ya da daha fazla değişken arasındaki doğrusal ilişkiyi gösterir.
Detaylıİş Zekası. Hafta 6 Kestirimci Modelleme Teknikleri. Yrd. Doç. Dr. H. İbrahim CEBECİ
İş Zekası Hafta 6 Kestirimci Modelleme Teknikleri Business Intelligence and Analytics: Systems for Decision Support 10e isimli eserden adapte edilmiştir Bölüm Amaçları Yapay Sinir Ağları (YSA) kavramını
DetaylıBİYOİSTATİSTİK DERSLERİ AMAÇ VE HEDEFLERİ
BİYOİSTATİSTİK DERSLERİ AMAÇ VE HEDEFLERİ DÖNEM I-I. DERS KURULU Konu: Bilimsel yöntem ve istatistik Amaç: Biyoistatistiğin tıptaki önemini kavrar ve sonraki dersler için gerekli terminolojiye hakim olur.
DetaylıT.C. ESKİŞEHİR OSMANGAZİ ÜNİVERSİTESİ SAĞLIK BİLİMLERİ ENSTİTÜSÜ BİYOİSTATİSTİK ANABİLİM DALI. BiR UYGULAMA YÜKSEK LİSANS TEZİ HÜLYA YILMAZ
T.C. ESKİŞEHİR OSMANGAZİ ÜNİVERSİTESİ SAĞLIK BİLİMLERİ ENSTİTÜSÜ BİYOİSTATİSTİK ANABİLİM DALI RANDOM FORESTS YöNTEMiNDE KAYIP VERi PROBLEMiNiN incelenmesi VE SAĞLIK ALANINDA BiR UYGULAMA YÜKSEK LİSANS
DetaylıMatematiksel Optimizasyon ve Yapay Öğrenme
Matematiksel Optimizasyon ve Yapay Öğrenme İlker Birbil Sabancı Üniversitesi Mühendislik ve Doğa Bilimleri Fakültesi Endüstri Mühendisliği Programı Veri Bilimi İstanbul Buluşma 14 Şubat, 2017 Optimizasyon
DetaylıYrd. Doç. Dr. A. Burak İNNER
Yrd. Doç. Dr. A. Burak İNNER Kocaeli Üniversitesi Bilgisayar Mühendisliği Yapay Zeka ve Benzetim Sistemleri Ar-Ge Lab. http://yapbenzet.kocaeli.edu.tr Doğrusal Ara Değer Hesabı Lagrance Polinom İnterpolasyonu
Detaylı7. BÖLÜM İÇ ÇARPIM UZAYLARI İÇ ÇARPIM UZAYLARI İÇ ÇARPIM UZAYLARI İÇ ÇARPIM UZAYLARI .= 1 1 + + Genel: Vektörler bölümünde vektörel iç çarpım;
İÇ ÇARPIM UZAYLARI 7. BÖLÜM İÇ ÇARPIM UZAYLARI Genel: Vektörler bölümünde vektörel iç çarpım;.= 1 1 + + Açıklanmış ve bu konu uzunluk ve uzaklık kavramlarını açıklamak için kullanılmıştır. Bu bölümde öklit
DetaylıREGRESYON ANALİZİ VE UYGULAMA. Yrd. Doç. Dr. Hidayet Takcı
REGRESYON ANALİZİ VE UYGULAMA Yrd. Doç. Dr. Hidayet Takcı htakci@cumhuriyet.edu.tr Sunum içeriği Bu sunumda; Lojistik regresyon konu anlatımı Basit doğrusal regresyon problem çözümleme Excel yardımıyla
DetaylıInstance Based Learning k-nn. YZM 3226 Makine Öğrenmesi
Instance Based Learning k-nn YZM 3226 Makine Öğrenmesi Outline Eager vs. Lazy Learning Instance Based Learning K-Nearest Neighbor Algorithm Nearest Neighbor Approach Basic k-nearest Neighbor Classification
DetaylıHafta 10 - Vektör Uzay Modelleri
BGM 565 - Siber Güvenlik için Makine Öğrenme Yöntemleri Bilgi Güvenliği Mühendisliği Yüksek Lisans Programı Dr. Ferhat Özgür Çatak ozgur.catak@tubitak.gov.tr İstanbul Şehir Üniversitesi 2018 - Bahar İçindekiler
DetaylıÖrneklemden elde edilen parametreler üzerinden kitle parametreleri tahmin edilmek istenmektedir.
ÇIKARSAMALI İSTATİSTİKLER Çıkarsamalı istatistikler, örneklemden elde edilen değerler üzerinde kitleyi tanımlamak için uygulanan istatistiksel yöntemlerdir. Çıkarsamalı istatistikler; Tahmin Hipotez Testleri
DetaylıAppendix B: Olasılık ve Dağılım Teorisi
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Notları Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix B: Olasılık ve Dağılım
DetaylıYTÜ İktisat Bölümü EKONOMETRİ I Ders Notları
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix B: Olasılık ve Dağılım Teorisi
DetaylıYTÜ İktisat Bölümü EKONOMETRİ I Ders Notları
Yıldız Teknik Üniversitesi İktisat Bölümü Ekonometri I Ders Kitabı: J.M. Wooldridge, Introductory Econometrics A Modern Approach, 2nd. edition, Thomson Learning Appendix B: Olasılık ve Dağılım Teorisi
DetaylıEME 3117 SİSTEM SIMÜLASYONU. Girdi Analizi. Özet İstatistikler ve Histogram (Minitab)(1) Örnek: Eczane İçin Servis Süreleri
EME 3117 1 2 Girdi Analizi SİSTEM SIMÜLASYONU Modellenecek sistemi (prosesi) dokümante et. Veri toplamak için bir plan geliştir. Veri topla. Verilerin grafiksel ve istatistiksel analizini yap. Girdi Analizi-I
DetaylıKullanılacak İstatistikleri Belirleme Ölçütleri. Değişkenin Ölçek Türü ya da Yapısı
ARAŞTIRMA MODELLİLERİNDE KULLANILACAK İSTATİSTİKLERİ BELİRLEME ÖLÇÜTLERİ Parametrik mi Parametrik Olmayan mı? Kullanılacak İstatistikleri Belirleme Ölçütleri Değişken Sayısı Tek değişkenli (X) İki değişkenli
DetaylıRASSAL DEĞİŞKENLER VE OLASILIK DAĞILIMLARI. Yrd. Doç. Dr. Emre ATILGAN
RASSAL DEĞİŞKENLER VE OLASILIK DAĞILIMLARI Yrd. Doç. Dr. Emre ATILGAN 1 RASSAL DEĞİŞKENLER VE OLASILIK DAĞILIMLARI Olasılığa ilişkin olayların çoğunluğunda, deneme sonuçlarının bir veya birkaç yönden incelenmesi
DetaylıMEH535 Örüntü Tanıma
MEH535 Örünü Tanıma 4. Paramerik Sınıflandırma Doç.Dr. M. Kemal GÜLLÜ Elekronik ve Haberleşme Mühendisliği Bölümü web: hp://akademikpersonel.kocaeli.edu.r/kemalg/ E-posa: kemalg@kocaeli.edu.r Paramerik
DetaylıKümeleme Algoritmaları. Tahir Emre KALAYCI
Tahir Emre KALAYCI 2010 Gündem En önemli gözetimsiz öğrenme (unsupervised learning) problemi olarak değerlendirilmektedir Bu türdeki diğer problemler gibi etiketsiz veri kolleksiyonları için bir yapı bulmakla
DetaylıTEMEL İSTATİSTİKİ KAVRAMLAR YRD. DOÇ. DR. İBRAHİM ÇÜTCÜ
TEMEL İSTATİSTİKİ KAVRAMLAR YRD. DOÇ. DR. İBRAHİM ÇÜTCÜ 1 İstatistik İstatistik, belirsizliğin veya eksik bilginin söz konusu olduğu durumlarda çıkarımlar yapmak ve karar vermek için sayısal verilerin
DetaylıZeki Optimizasyon Teknikleri
Zeki Optimizasyon Teknikleri Ara sınav - 25% Ödev (Haftalık) - 10% Ödev Sunumu (Haftalık) - 5% Final (Proje Sunumu) - 60% - Dönem sonuna kadar bir optimizasyon tekniğiyle uygulama geliştirilecek (Örn:
DetaylıAnalitik Hiyerarşi Prosesi (AHP) Yrd.Doç.Dr. Sabahattin Kerem AYTULUN
Analitik Hiyerarşi Prosesi (AHP) Yrd.Doç.Dr. Sabahattin Kerem AYTULUN Giriş AHP Thomas L.Saaty tarafından 1970'lerde ortaya atılmıştır. Amaç alternatifler arasından en iyisinin seçilmesidir. Subjektif
DetaylıMIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009
MIT OpenCourseWare http://ocw.mit.edu 14.30 Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009 Bu materyale atıfta bulunmak ve kullanım koşulları için http://ocw.mit.edu/terms sayfasını ziyaret ediniz.
DetaylıBİYOİSTATİSTİK. Uygulama 6. Yrd. Doç. Dr. Aslı SUNER KARAKÜLAH
BİYOİSTATİSTİK Uygulama 6 Yrd. Doç. Dr. Aslı SUNER KARAKÜLAH Ege Üniversitesi, Tıp Fakültesi, Biyoistatistik ve Tıbbi Bilişim AD. Web: www.biyoistatistik.med.ege.edu.tr Soru 1 İlaç malzemelerinin kalitesini
DetaylıUzaktan Algılama Uygulamaları
Aksaray Üniversitesi Uzaktan Algılama Uygulamaları Doç.Dr. Semih EKERCİN Harita Mühendisliği Bölümü sekercin@aksaray.edu.tr 2010-2011 Bahar Yarıyılı Uzaktan Algılama Uygulamaları GÖRÜNTÜ İŞLEME TEKNİKLERİ
DetaylıMAK 210 SAYISAL ANALİZ
MAK 210 SAYISAL ANALİZ BÖLÜM 6- İSTATİSTİK VE REGRESYON ANALİZİ Doç. Dr. Ali Rıza YILDIZ 1 İSTATİSTİK VE REGRESYON ANALİZİ Bütün noktalardan geçen bir denklem bulmak yerine noktaları temsil eden, yani
Detaylıİçindekiler. Ön Söz... xiii
İçindekiler Ön Söz.................................................... xiii Bölüm 1 İstatistiğe Giriş....................................... 1 1.1 Giriş......................................................1
DetaylıKorelasyon. Korelasyon. Merkezi eğilim ve değişim ölçüleri bir defada sadece bir değişkenin özelliklerini incelememize imkan tanır.
Korelasyon Korelasyon Merkezi eğilim ve değişim ölçüleri bir defada sadece bir değişkenin özelliklerini incelememize imkan tanır. Biz şimdi, bir değişkenin özelliklerini diğer değişkenle olan ilişkisine
DetaylıMatris Cebiriyle Çoklu Regresyon Modeli
Matris Cebiriyle Çoklu Regresyon Modeli Hüseyin Taştan Mart 00 Klasik Regresyon Modeli k açıklayıcı değişkenden oluşan regresyon modelini her gözlem i için aşağıdaki gibi yazabiliriz: y i β + β x i + β
DetaylıYABANCI DİL EĞİTİMİ VEREN ÖZEL BİR EĞİTİM KURUMUNDAKİ ÖĞRENCİLERİN BEKLENTİLERİNİN ARAŞTIRILMASI. Sibel SELİM 1 Efe SARIBAY 2
Dokuz Eylül Üniversitesi Sosyal Bilimler Enstitüsü Dergisi Cilt 5, Sayı:2, 2003 YABANCI DİL EĞİTİMİ VEREN ÖZEL BİR EĞİTİM KURUMUNDAKİ ÖĞRENCİLERİN BEKLENTİLERİNİN ARAŞTIRILMASI Sibel SELİM 1 Efe SARIBAY
DetaylıŞimdi de [ ] vektörünün ile gösterilen boyu veya büyüklüğü Pisagor. teoreminini iki kere kullanarak
10.Konu İç çarpım uzayları ve özellikleri 10.1. ve üzerinde uzunluk de [ ] vektörünün ile gösterilen boyu veya büyüklüğü Pisagor teoreminden dir. 1.Ö.: [ ] ise ( ) ( ) ve ( ) noktaları gözönüne alalım.
DetaylıKorelasyon ve Regresyon
Korelasyon ve Regresyon Korelasyon- (lineer korelasyon) Açıklayıcı (Bağımsız) Değişken x çalışma zamanı ayakkabı numarası İki değişken arasındaki ilişkidir. Günlük sigara sayısı SAT puanı boy Yanıt (Bağımlı)
DetaylıMIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009
MIT OpenCourseWare http://ocw.mit.edu 14.30 Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009 Bu materyale atıfta bulunmak ve kullanım koşulları için http://ocw.mit.edu/terms sayfasını ziyaret ediniz.
DetaylıBKİ farkı Standart Sapması (kg/m 2 ) A B BKİ farkı Ortalaması (kg/m 2 )
4. SUNUM 1 Gözlem ya da deneme sonucu elde edilmiş sonuçların, rastlantıya bağlı olup olmadığının incelenmesinde kullanılan istatistiksel yöntemlere HİPOTEZ TESTLERİ denir. Sonuçların rastlantıya bağlı
Detaylıİstatistik ve Olasılık
İstatistik ve Olasılık KORELASYON ve REGRESYON ANALİZİ Doç. Dr. İrfan KAYMAZ Tanım Bir değişkenin değerinin diğer değişkendeki veya değişkenlerdeki değişimlere bağlı olarak nasıl etkilendiğinin istatistiksel
DetaylıYÖNEYLEM ARAŞTIRMASI - III
YÖNEYLEM ARAŞTIRMASI - III Prof. Dr. Cemalettin KUBAT Yrd. Doç. Dr. Özer UYGUN İçerik Quadratic Programming Bir karesel programlama modeli aşağıdaki gibi tanımlanır. Amaç fonksiyonu: Maks.(veya Min.) z
DetaylıBİYOİSTATİSTİK Korelasyon Analizi Yrd. Doç. Dr. Aslı SUNER KARAKÜLAH
BİYOİSTATİSTİK Korelasyon Analizi Yrd. Doç. Dr. Aslı SUNER KARAKÜLAH Ege Üniversitesi, Tıp Fakültesi, Biyoistatistik ve Tıbbi Bilişim AD. Web: www.biyoistatistik.med.ege.edu.tr 1 Bir değişkenin değerinin,
DetaylıEğiticili (supervised) öğrenme: Sınıflandırma (classification) Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğu bilinir
Eğiticili (supervised) öğrenme: Sınıflandırma (classification) Sınıf sayısı ve bir grup örneğin hangi sınıfa ait olduğu bilinir Eğiticisiz (unsupervised) öğrenme: Kümeleme (clustering) Hangi nesnenin hangi
DetaylıMAK 210 SAYISAL ANALİZ
MAK 210 SAYISAL ANALİZ BÖLÜM 5- SONLU FARKLAR VE İNTERPOLASYON TEKNİKLERİ Doç. Dr. Ali Rıza YILDIZ MAK 210 - Sayısal Analiz 1 İNTERPOLASYON Tablo halinde verilen hassas sayısal değerler veya ayrık noktalardan
DetaylıMUTLAK DEĞER Test -1
MUTLAK DEĞER Test -. < x < olduğuna göre, x x ifadesinin eşiti aşağıdakilerden 7 B) 7 x C) x 7 D) x 7 E) 7 x 5. y < 0 < x olduğuna göre, y x x y x y ifadesinin eşiti aşağıdakilerden xy B) xy C) xy D) xy
DetaylıTanımlayıcı İstatistikler. Yrd. Doç. Dr. Emre ATILGAN
Tanımlayıcı İstatistikler Yrd. Doç. Dr. Emre ATILGAN 1 Tanımlayıcı İstatistikler Yer Gösteren Ölçüler Yaygınlık Ölçüleri Merkezi Eğilim Ölçüleri Konum Ölçüleri 2 3 Aritmetik Ortalama Aritmetik ortalama,
DetaylıBölüm 3. Tanımlayıcı İstatistikler
Bölüm 3 Tanımlayıcı İstatistikler 1 Tanımlayıcı İstatistikler Bir veri setini tanımak veya birden fazla veri setini karşılaştırmak için kullanılan ve ayrıca örnek verilerinden hareket ile frekans dağılışlarını
DetaylıKredi Onayı İçin Bir Sınıflandırma Algoritması Önerisi A Classification Algorithm Advice for Credit Approval
Kredi Onayı İçin Bir Sınıflandırma Algoritması Önerisi A Classification Algorithm Advice for Credit Approval İsmail Haberal Bilgisayar Mühendisliği Bölümü Başkent Üniversitesi ihaberal@baskent.edu.tr Umut
Detaylı2018 YILI BİRİNCİ SEVİYE AKTÜERLİK SINAVLARI İSTATİSTİK VE OLASILIK 29 NİSAN 2018
2018 YILI BİRİNCİ SEVİYE AKTÜERLİK SINAVLARI İSTATİSTİK VE OLASILIK 29 NİSAN 2018 Sigortacılık Eğitim Merkezi (SEGEM) tarafından hazırlanmış olan bu sınav sorularının her hakkı saklıdır. Hangi amaçla olursa
DetaylıÖrüntü Tanıma (EE 448) Ders Detayları
Örüntü Tanıma (EE 448) Ders Detayları Ders Adı Ders Kodu Dönemi Ders Saati Uygulama Saati Laboratuar Saati Kredi AKTS Örüntü Tanıma EE 448 Bahar 3 0 0 3 5 Ön Koşul Ders(ler)i Dersin Dili Dersin Türü Dersin
Detaylı