MEH535 Örünü Tanıma 3. Deneimli Öğrenme Doç.Dr. M. Kemal GÜLLÜ Elekronik ve Haberleşme Mühendisliği Bölümü web: hp://akademikpersonel.kocaeli.edu.r/kemalg/ E-posa: kemalg@kocaeli.edu.r Örneklerden Sınıf Öğrenme Aile arabası sınıfı C Tahmin: x aracı aile arabası mıdır? Bilgi çıkarımı: İnsanlar aile arabasından ne bekler? Çıkış: Poziif (+) ya da negaif (-) örnekler Giriş: Öznielikler: x 1 : price, x : engine power 1
Eğiim Kümesi X X { x,r } N 1 x1 x x 1, x poziif r 0, x negaif Lecure Noes for E Alpaydın 004 Inroducion o Machine Learning The MIT Press (V1.1) 3 Sınıf C p price p AND e engine power e 1 1 Lecure Noes for E Alpaydın 004 Inroducion o Machine Learning The MIT Press (V1.1) 4
Hipoez Sınıfı H Hipoez sınıfı H : olası üm dikdörgenler kümesi alalım 1, h x'i poziif siniflandirir ise h() x 0, h x'i negaif siniflandirir ise h hipoezinin haası: N E( h X ) 1 h x r 1 Lecure Noes for E Alpaydın 004 Inroducion o Machine Learning The MIT Press (V1.1) 5 S, G ve Versiyon Uzayı En özel hipoez (S) En genel hipoez (G) h H, S ile G arasında uarlıdır (sıfır haa) Sıfır haalı bu aralıkaki üm hipoezler versiyon uzayını oluşurur (Michell, 1997) Lecure Noes for E Alpaydın 004 Inroducion o Machine Learning The MIT Press (V1.1) 6 3
Vapnik-Chervonenkis Boyuu N noka N ayrı yolla +/- olarak eikelenebilir N farklı öğrenme problemi N örnekle anımlanan bir öğrenme problemi, H dan çizilen bir hipoezi ile haasız öğrenilebilir H ile ayrılabilen en fazla noka sayısı Vapnik- Chervonenkis (VC) boyuu olarak adlandırılır ve VC(H) ile göserilir H hipoez sınıfının kapasiesini ölçer VC(H ) = N Lecure Noes for E Alpaydın 004 Inroducion o Machine Learning The MIT Press (V1.1) 7 Basi yapıyı kullan: Gürülü ve Model Karmaşıklığı Kolay kullanım (düşük hesapsal karmaşıklık) Eğiimi kolay (düşük uzay karmaşıklığı) Açıklama kolay (daha yorumlanabilir yapı) Genelleme iyi (düşük değişini) Lecure Noes for E Alpaydın 004 Inroducion o Machine Learning The MIT Press (V1.1) 8 4
Çoklu Sınıf Durumu X { x,r } N 1 1 if x i ri 0 if x j, j i Hipoez eği h i (x), i =1,...,K: h i x 1 eger x i 0 eger x j, j i Lecure Noes for E Alpaydın 004 Inroducion o Machine Learning The MIT Press (V1.1) 9 Bağlanım X r x, r N 1 r f x N 1 E g X r g x N 1 N 1 E w w r w x w N, X 1 0 1 0 1 Lecure Noes for E Alpaydın 004 Inroducion o Machine Learning The MIT Press (V1.1) 10 5
Modele Seçimi ve Genelleşirme Öğrenme köü konumlanmış (ill-posed) bir problemdir Veri ek çözüm için uygun değildir Aynı veri ile eğiim ve es modeli nasıl genelleyebilir? Genelleşirme: Model yeni veride ne ölçüde performans göserecekir? Aşırı uydurma (Overfiing): Hipoez karmaşıklığı fazla Az uydurma (Underfiing): Hipoez karmaşıklığı yeersiz 11 Modele Seçimi ve Genelleşirme Üçlü Ödünleşim (Dieerich, 003): H ın karmaşıklığı c(h) Eğiim kimesi boyuu N Yeni verideki genelleşirme haası E NE c (H)ilk olarak Esonra E 1 6
Çapraz Geçerleme Model Karmaşıklığı? Çapraz Geçerleme (Cross Validaion) Eğiim Veri Kümesi: Eğiim Kimesi (Training Se) Geçerleme Kümesi (Validaion Se) Paramere en iyileme (ϴ * ) Model karmaşıklığını en iyileme (f/g) 13 Çapraz Geçerleme Haa (E) eğiim haası geçerleme haası min. haa Olması gerekenden daha basi Olması gerekenden daha karmaşık Yeersiz uydurma (UNDERFITTING) Aşırı uydurma (OVERFITTING) karmaşıklık 14 7
Çapraz Geçerleme Seçilen model geçerleme aşamasında iyi çalışabilir Bulunan modelin es aşamasında çalışma başarımı? Holdou yönemi Eğiim Kimesi (Training Se) Geçerleme Kümesi (Validaion Se) Tes Kümesi (Tes Se) Tese başarım düşük ise eğiim kümesi yeersiz olabilir 15 Genelleşirme haasını kesirmek için örneğin: Eğiim kümesi (%50) Geçerleme kümesi (%5) Tes kümesi (%5) seçilebilir Çapraz Geçerleme Eğer veri kümesindeki örnek sayısı az ise, isenen başarım için yeniden örnekleme yapılabilir 16 8
Deneimli Öğrenme 1. Model:. Kayıp Fonksiyonu: 3. En İyileme Prosedürü: g x X, x E L r g * arg min E X Lecure Noes for E Alpaydın 004 Inroducion o Machine Learning The MIT Press (V1.1) 17 9