Kolektif Öğrenme Metotları



Benzer belgeler
Web Madenciliği (Web Mining)

Hafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti

Boosting. Birol Yüceoğlu Migros T.A.Ş.

Web Madenciliği (Web Mining)

Uzaktan Algılama Teknolojileri

MEH535 Örüntü Tanıma

Akış YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ

Kümeler arası. Küme içi. uzaklıklar. maksimize edilir. minimize edilir

KAHKAHA TANIMA İÇİN RASSAL ORMANLAR

Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)

Örnek tabanlı sınıflandırıcı topluluklarıyla yeni bir klinik karar destek sistemi

VERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN

Zeki Optimizasyon Teknikleri

Yazılım Hata Kestiriminde Kolektif Sınıflandırma Modellerinin Etkisi

VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN

Topluluk Algoritması Destekli Yarı-eğiticili Öğrenme Semi-supervised Learning Based on Ensemble Algorithm

Uzman Karışımlarında Yeni Bir Yaklaşım: Uzman Kararlarının Yeni Bir Geçiş Fonksiyonuyla Birleştirmesi

YZM ALGORİTMA ANALİZİ VE TASARIM DERS#9: AÇGÖZLÜ ALGORİTMALAR

Metin Sınıflandırma. Akış

VERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN

PARALEL VERİ MADENCİLİĞİ ALGORİTMALARI. BAŞARIM 09, Nisan 2009, ODTÜ, Ankara

Makine Öğrenmesi 3. hafta

İş Zekası. Hafta 6 Kestirimci Modelleme Teknikleri. Yrd. Doç. Dr. H. İbrahim CEBECİ

Bilgisayarla Görüye Giriş

VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN

Eğitim seti (training set) sınıflandırma modelinin elde edileceği kayıtları içerir

Karaciğerde Oluşan Hastalıkların Tespitinde Makine Öğrenmesi Yöntemlerinin Kullanılması

Örüntü Tanıma (EE 448) Ders Detayları

Geriye Yayılım ve Levenberg Marquardt Algoritmalarının YSA Eğitimlerindeki Başarımlarının Dinamik Sistemler Üzerindeki Başarımı. Mehmet Ali Çavuşlu

Naive Bayes Yöntemi ile Spam Mail Teşhisi Kübra KURNAZ

T.C. KIRIKKALE ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ YAPAY SİNİR AĞLARI. Doç.Dr. Necaattin BARIŞÇI FİNAL PROJESİ

K En Yakın Komşu Methodu (KNearest Neighborhood)

T.C. ESKİŞEHİR OSMANGAZİ ÜNİVERSİTESİ SAĞLIK BİLİMLERİ ENSTİTÜSÜ BİYOİSTATİSTİK ANABİLİM DALI. BiR UYGULAMA YÜKSEK LİSANS TEZİ HÜLYA YILMAZ

Esnek Hesaplamaya Giriş

Ankara Üniversitesi, SBF İstatistik 2 Ders Notları Prof. Dr. Onur Özsoy 1

Toplam Olasılık Prensibi

Makine Öğrenmesi 2. hafta

Çok-öbekli Veri için Aradeğerlemeci Ayrışım

GENETİK ALGORİTMALARA GİRİŞ (II) BİNARİ KODLANMIŞ GA

GENETİK ALGORİTMA ÖZNUR CENGİZ HİLAL KOCA

İlk Yapay Sinir Ağları. Dr. Hidayet Takçı

Tedarik Zinciri Yönetiminde Yapay Zeka Teknikler

Concept Learning. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ. Yapay Zeka - Kavram Öğrenme

Karar ağaçları overfitting e karşı çok hassastır. Birkaç alternatif karar ağacı oluşturulur ve sonuçta oylama yapılarak karar verilir.

Popülasyon Ortalamasının Tahmin Edilmesi

Web Madenciliği (Web Mining)

2. Oracle Data Miner İle Örnek Bir Veri Madenciliği Çalışması

2.1 Bir Sınıfı Örneklerinden Öğrenme Vapnik-Chervonenkis (VC) Boyutu Olası Yaklaşık Doğru Öğrenme... 21

Akış YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ

Türkçe Dokümanlar Ġçin Yazar Tanıma

YAPAY SİNİR AĞLARI. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ

T.C. SELÇUK ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ

A GRUBU Noktaları adlandırılmış K 6 tam çizgesinin tam olarak 3 noktalı kaç tane alt çizgesi vardır? A) 9 B) 20 C) 24 D) 60 E) 160

Makine Öğrenmesine Giriş (Machine Learning ML)

2.1 Gri Düzey Eş Oluşum Matrisi ( GLCM) Gri düzey eş oluşum matrisi Haralick tarafından öne sürülmüştür [1]. Đstatistiksel doku analizi yöntemidir.

BÜYÜK VERI UYGULAMALARı DERS 7. Doç. Dr. Yuriy Mishchenko

YZM 5257 YAPAY ZEKA VE UZMAN SİSTEMLER DERS#6: GENETİK ALGORİTMALAR

23. Sistem denge denklemlerinin direkt kurulması

Otomatik Doküman Sınıflandırma

BIL684 Nöron Ağları Dönem Projesi

GENETİK ALGORİTMALARA GİRİŞ (II) BİNARİ KODLANMIŞ GA

Genetik Algoritmalar. Bölüm 1. Optimizasyon. Yrd. Doç. Dr. Adem Tuncer E-posta:

Görüntü Sınıflandırma

Doğal Dil İşlemede Eğilimler. Önceden: Yapay Zeka Tabanlı, tam olarak anlama. Şimdiki: Külliyat(Corpus)-tabanlı, İstatistiki, makine öğrenmesi içeren

ALKÜ EKONOMİ ve FİNANS BÖLÜMÜ ISL 207 İSTATİSTİK I ALIŞTIRMALAR

1 Vektör Uzayları 2. Lineer Cebir. David Pierce. Matematik Bölümü, MSGSÜ mat.msgsu.edu.tr/~dpierce/

BÖLÜM III: Şebeke Modelleri. Şebeke Kavramları. Şebeke Kavramları. Şebeke Kavramları. Yönlü Şebeke (Directed Network) Dal / ok

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Ders 1- Yapay Zekâya Giriş. Erhan AKDOĞAN, Ph.D.

127 - Twoing Algoritması ile Sınıflandırma Kalp Hastalığı Uygulaması MEHMET AKİF ERSOY ÜNİVERSİTESİ İLHAN UYSAL MEHMET BİLEN SAMİ ULUKUŞ

Makine Öğrenmesi (COMPE 565) Ders Detayları

Gözetimli & Gözetimsiz Öğrenme

BİYOİSTATİSTİK Örnekleme ve Örnekleme Yöntemleri Dr. Öğr. Üyesi Aslı SUNER KARAKÜLAH

T.C. YILDIZ TEKNİK ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ VERİ MADENCİLİĞİNDEKİ SINIF DENGESİZLİĞİ SORUNUNUN GİDERİLMESİ AKKENZHE SARMANOVA

3.2. DP Modellerinin Simpleks Yöntem ile Çözümü Primal Simpleks Yöntem

İleri Diferansiyel Denklemler

Büyük Veri ve Endüstri Mühendisliği

Algoritma Geliştirme ve Veri Yapıları 2 Veri Modelleri. Mustafa Kemal Üniversitesi

6.Hafta Kıyım Fonksiyonu (Hashing), BST. Doğrudan erişim tabloları Çarpışmaları ilmekleme ile çözmek Kıyım fonksiyonu seçimi Açık adresleme

Genel Graf Üzerinde Mutlak 1-merkez

VERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN

Bilgisayar programlamanın üç temel mantık yapısından biridir. Diğer ikisi ise Seçilim(Selection) ve Döngü(Loop, Iteration)dür.

GENETİK ALGORİTMALAR. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ

KARINCA KOLONİ ALGORİTMASI BMÜ-579 Meta Sezgisel Yöntemler. Yrd. Doç. Dr. İlhan AYDIN Fırat Üniversitesi, Bilgisayar Mühendisliği Bölümü

Doç.Dr.Erkan ÜLKER, Selçuk Üniversitesi Mühendislik F, Bilgisayar Mühendisliği Bölümü

Fonksiyon Minimizasyonunda Simulated Annealing Yöntemi

Otomatik Doküman Sınıflandırma

Algoritma Geliştirme ve Veri Yapıları 10 Graf Veri Modeli. Mustafa Kemal Üniversitesi

AST416 Astronomide Sayısal Çözümleme - II. 6. Monte Carlo

MEH535 Örüntü Tanıma

ŞİFRELEME YÖNTEMLERİ

Hafta 03/04 - Uzaklık/Benzerlik - En Yakın Komşular - Karar Ağaçları

Faktöriyel: 1'den n'ye kadar olan tüm pozitif tamsayıların çarpımına, biçiminde gösterilir. Aynca; 0! = 1 ve 1!=1 1 dir. [Bunlar kabul değildir,

OLASILIĞA GİRİŞ P( )= =

10.Hafta Minimum kapsayan ağaçlar Minimum spanning trees (MST)

METASEZGİSEL YÖNTEMLER

ANADOLU ÜNİVERSİTESİ OLASILIĞA GİRİŞ

Karınca Koloni Algoritması 2

İSTATİSTİK. Bölüm 1 Giriş. Ankara Üniversitesi SBF İstatistik 1 Ders Notları Prof. Dr. Onur Özsoy 4/4/2018

Transkript:

Kolektif Öğrenme Metotları Kolektif öğrenme algoritmalarına genel bakış 1-Bagging 2-Ardışık Topluluklarla Öğrenme (Boosting) 3-Rastsal Altuzaylar 4-Rastsal Ormanlar 5-Aşırı Rastsal Ormanlar 6-Rotasyon Ormanları 7-Hata düzelten kod tabanlı topluluklar 8-Yerel Modellerin Birlesimi 9-İki Katmanlı Kolektif Öğrenme Model sonuçlarını modelleme Kolektif öğrenme algoritmalarına genel bakış Amaç: Temel öğrenicilerin karar çeşitliliğini sağlamak Nasıl? 1

Farkı nasıl sağlarız? Farklı temel öğreniciler Ayni öğrenicinin farklı hiperparametreli halleri (KNN de farklı K lar, YSA da farklı başlangıçlar ve gizli katmana farklı sayılarda nöron koymak vb.) Aynı öğreniciyi farklı eğitim setleri ile eğitmek Farkli egitim setlerini nasil uretiriz? Neler değişebilir? Örnekler Bagging AdaBoost Rastsal Ormanlar (Random Forest) Özellikler Rastsal Altzaylar (Random Subspaces) Rastsal Ormanlar (Random Forest) Rotasyon Ormanları (Rotation Forest) Sınıflar Ensemble of Nested Dichotomies ECOC Bölgeler Uzman karışımları Random Lineer Oracle Model sonuçlarını modelleme (Stacking) 2

1-Bagging Yerine koyarak örnekleme Data ID Training Data Original Data 1 2 3 4 5 6 7 8 9 10 Bagging (Round 1) 7 8 10 8 2 5 10 10 5 9 Bagging (Round 2) 1 4 9 1 2 3 2 7 3 2 Bagging (Round 3) 1 8 5 10 5 5 9 6 3 7 Her seçilen n örnekle temel öğreniciyi eğit Seçilen n örnek tüm örneklerin yaklaşık %63.2 sini içerir? n 1 e 1 0.368 n 5 3

Bagging Örnek Egitim verisi: 0.4 to 0.7: +1-1 +1 0.3 0.8 x Hedef: 10 temel sınıflandırıcıdan oluşan Bagging Ensemble. -Her temel sınıflandırıcı bir eşik (K) değerine sahip: (x<=k class = +1 ya da -1; K toplam entropinin minimizasyonu ile seçilir) 7 8 4

Bagging (kolektif kararın üretimi) ensemble basarisi: 100% 9 2 özellikte Bagging 5

Bagging- Bulgular Temel öğreniciler eğitim verisine duyarlı iseler iyi çalışır. 1NN? DT? ANN? Spesifik örneklere yoğunlaşmadığından gurultulu verilere karşı gürbüz. 11 Ağaçları tamamen büyütürsek düşük başarı, yüksek çeşitlilik, daha genel bırakırsak yüksek başarı, az çeşitlilik 12 6

S : tek ağaç B : çok ağaç 2-Ardışık Topluluklarla Öğrenme (Boosting) Temel öğrenicilerin eğitileceği örneklerin seçiminde önceki temel öğrenicilerin hata yaptıkları örneklere öncelik veriyor. Başlangıçta tüm örneklerin eğitim kümesine seçilme olasılıkları aynı Her iterasyonda seçilme olasılıkları güncelleniyor (Bagging te aynı kalıyordu) 14 7

AdaBoost Adaboost iterasyonlarinda 4 numaralı örneğin sınıflandırması zor ise, iterasyon sayısı arttıkça 4 numaralı örneğin seçilme şansı (temel sınıflandırıcının eğitiminde kullanılma) artıyor. Original Data 1 2 3 4 5 6 7 8 9 10 Boosting (Round 1) 7 3 2 8 7 9 4 10 6 3 Boosting (Round 2) 5 4 9 4 2 5 1 7 4 2 Boosting (Round 3) 4 4 8 10 4 5 4 6 3 4 15 AdaBoost 8

10/22/2013 AdaBoost Örnek ilk seçilme olasılıkları Seçilen örnekler 17 AdaBoost Örnek 18 9

2 boyutta Adaboost Round 1 Round 2 Round 3 Final Hypothesis 10

Kırmızı çerçeveler tek ağacın daha iyi olduğu datasetleri gösteriyor. Son sütundaki 1 den büyükler Bagging in Boosting den daha iyi olduklarını gösteriyor. 11

3-Rastsal Altuzaylar - Random Subspace Tin Kam Ho, 1998 Topluluktaki her bir öğreniciyi tüm özellikler yerine bir bölümüyle eğitme. Her öğrenicinin eğitim seti oluşturulurken rastgele d adet özellik seçilip sadece bu özellikler eğitim kümesine dahil edilir. Sonuçlar demokrasi usulü birleştirilir. 23 Kaç özellik kullanılacak? 12

Ağaçları nasıl oluştursak? Tüm ağaçları mı yoksa en başarılıları mı kullansak? 13

Denemelerde kullanılan veri kümeleri: denemeler 10 * 2 fold cv, öğrenici C4.5 14

15

4-Rastsal Ormanlar - Random Forests Öncekilerin aksine sadece karar ağaçları için tasarlanmış bir Ensemble yöntemi 2 tür rastgelelik kullanır Bagging : her ağacın eğitimi için orijinal eğitim kümesiyle aynı boyutta resampling yapar Rastgele Özellikler: Her karar düğümünde tun özellikler yerine rastgele seçilmiş F tanesi (RI) ya da adet özelliklerin lineer kombinasyonlarından F adedi (RC) kullanır 31 Rastsal Ormanlar - Random Forests Budanmamış ağaçları kullanır Sonuçlar demokrasi usulü birleştirilir. Eğitim hızı? F kaç olmalı? 32 16

Forest-RI (ozellik secimi) Forest-RC (ozelliklerin lineer kombinasyonu) 17

Gürültüye dayanıklı mı? Eğitim kümesinin etiketlerine eklenen gurultunun hata oranına etkileri 5-Aşırı Rastsal Ormanlar Extremely randomized trees Pierre Geurts Damien Ernst Louis Wehenkel, 2006 Öğrenmede rastgelelik ne kadar fazla olursa, temel öğrenicilerin kararları birbirlerinden o kadar farklı olur. Fikir: Ağacın karar düğümlerini rastgele üretelim. 36 18

Seçilen K adet özelliğin her biri için rastgele bir eşik değerleri belirleniyor. Bu K adet özellik-eşik ikilisinden en iyisi karar düğümünü oluşturuyor. 3 parametre: M: temel öğrenici sayısı K: rastgele seçilecek özellik sayısı (default : sınıflandırma = karekök(orijinal özellik sayısı), regresyon =orijinal özellik sayısı) nmin:bölmeye devam etmek için gerekli minimum örnek sayısı (default : sınıflandırma = 2, regresyon =5) 38 19

Avantajları: Rastgelelik sayesinde diversity yüksek En iyi özellik-eşik ikilisini bulmak için tüm olasılıkların çok azını denediğinden eğitimi hızlı Dezavantajları: Temel öğrenicilerin ağaçları çok büyük (fazla hafıza gereksinimi) Test işlemi uzun 39 Diğer alg. başarı karş. Win/draw/loss PST: Tekil ağaç TB: Bagging RS: Random Subspaces RF: Random Forest ET: Extremly Randomized Forest 20

6-Rotasyon Ormanları - Rotation Forests J.J. Rodriguez, L.I Kuncheva, 2006 Orijinal eğitim kümesine yakın eğitim kümeleriyle eğitilen temel öğrenicilerin kişisel başarıları yüksek ancak kararlarının birbirlerinden farklılıkları az olur. Fikir: Tüm örnek ve özelliklerin sayılarını aynı bırakalım. Datayı döndürelim. Ama nasıl? 41 Rotation Forest PCA kullanalım ama farklı transformasyon matrislerini nasıl bulacağız? olasılıklar: - örneklerden bir kısmı - sınıflardan bir kısmı - özelliklerden bir kısmı 42 21

Rotasyon + Karar Agaçları 43 22

23

7- Hata düzelten kod tabanlı topluluklar (Error-Correcting Output Codes) Daha basit problemler K sınıf; L problem (Dietterich and Bakiri, 1995) Kod matrisi W oluşturma yöntemleri (3 adet) 1-Bir sınıfı diğer tüm sınıflara karşı L=K Her sütunun ifade ettiği eğitim setini bir öğrenici öğrenir. Yeni eğitim setinde sütunda +1 ile ifade edilen sınıfa ait örneklerin çıkışı +1, diğer tüm sınıflara ait örneklerin çıkışı -1 yapılır. Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) 47 1 1 1 1 1 1 2-Sınıf ikilileri (Pairwise) L=K(K-1)/2 1 0 0 0 0 0 1 0 0 0 0 0 0 0 1 Her sütunun ifade ettiği eğitim setini bir öğrenici öğrenir. Yeni eğitim setinde sütunda +1 ile ifade edilen sınıfa ait örneklerin çıkışı +1, -1 ile ifade edilenlerinki -1 yapılır. Diğer sınıflara ait örnekler eğitim setine dahil edilmezler. 24

3-Tüm olası alt problemler (Full code) L=2 (K-1) -1 1 1 1 Her sütunun ifade ettiği eğitim setini bir öğrenici öğrenir. Yeni eğitim setinde sütunda +1 ile ifade edilen sınıflara ait örneklerin çıkışı +1, -1 olan sınıflara ait örneklerin çıkışı -1 yapılır. Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) 49 Test süreci Her bir öğrenici, her test örneğine -1, +1 aralığında bir değeri çıkış olarak verir (d 1..L ). Bir örneğin sınıfı ise bu d vektörünün en çok benzediği w satırının indisidir. w deki 0 lar etkisiz eleman olarak algılanmalıdır. 25

8- Yerel Modellerin Birleşimi (Mixture of Experts) Her bir öğrenici veri uzayının farklı bir bölgesine uzmanlaşır. (Jacobs et al., 1991) 1 Test örneğinin gating e de verilmesinin sebebi o örneğin uzayın hangi bölgesinde olduğunun bulunmasıdır. Öğreniciler ve gating fonksiyonu lineer ya da nonlineer olabilir. Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) 9- İki aşamalı öğrenme (Stacking) Öğrenicilerin çıktılarının yeni bir veri kümesi olarak görüldüğü yöntemdir. (Wolpert, 1992) Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) 52 26

Sorular Eğitim datasını bölgelere bölüp kolektif öğrenme uygularsak, temel öğrenicilerin kararlarını demokrasi ile birleştirmek mantıklı olur mu? Boosting, Bagging, RS, RF, RotF hangileri paralelleştirilebilir? Rotasyon Ormanlarında temel öğrenici olarak KNN kullanımı işe yarar mi? Neden karar ağacı kullanılmış? 27