MEH535 Örüntü Tanıma

Benzer belgeler
MEH535 Örüntü Tanıma. Örneklerden Sınıf Öğrenme

Web Madenciliği (Web Mining)

Kolektif Öğrenme Metotları

MEH535 Örüntü Tanıma. 6. Boyut Azaltımı (Dimensionality Reduction)

MEH535 Örüntü Tanıma. Karar Teorisi

MUTLAK DEĞER Test -1

Concept Learning. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ. Yapay Zeka - Kavram Öğrenme

MEH535 Örüntü Tanıma

Zeki Optimizasyon Teknikleri

Web Madenciliği (Web Mining)

Destekçi Vektör Makineleri. Destekçi Vektör Makineleri(Support Vector Machines)

Veride etiket bilgisi yok Denetimsiz öğrenme (unsupervised learning) Neden gereklidir?

8.Konu Vektör uzayları, Alt Uzaylar

Şimdi de [ ] vektörünün ile gösterilen boyu veya büyüklüğü Pisagor. teoreminini iki kere kullanarak

Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)

Bulanık Mantık Bilgisayar Mühendisliği Bölümü Arasınav - 11 Nisan 2014 Süre: 1 Saat 30 Dakika

VERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN

SORU 1: En az iki elemana sahip bir X kümesi ile bunun P (X) kuvvet. kümesi veriliyor. P (X) üzerinde 0 ; A = 1 ; A

YÖNEYLEM ARAŞTIRMASI - III

Web Madenciliği (Web Mining)

Konular VERİ MADENCİLİĞİ. Örnek Tabanlı Yöntemler. En Yakın Komşu Sınıflandırıcı. En Yakın Komşu Yöntemi. Farklı Sınıflandırma Yöntemleri

YZM 3217 YAPAY ZEKA DERS#10: KÜMELEME

GENELLEŞTİRİLMİŞ FUZZY KOMŞULUK SİSTEMİ ÜZERİNE

Çok-öbekli Veri için Aradeğerlemeci Ayrışım

Leyla Bugay Doktora Nisan, 2011

MEH535 Örüntü Tanıma

VERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN

BİYOİSTATİSTİK Olasılıkta Temel Kavramlar Yrd. Doç. Dr. Aslı SUNER KARAKÜLAH

İSTATİSTİKSEL TAHMİNLEME. Örneklem istatistiklerinden hareketle ana kütle parametreleri hakkında genelleme yapmaya istatistiksel tahminleme denir.

Metin Sınıflandırma. Akış

Ders 2: Küme Teorisi, Örnek Uzay, Permütasyonlar ve Kombinasyonlar

İçindekiler. Ön Söz... xiii

Ortak Akıl MATEMATİK DENEME SINAVI

ÖĞRENME ALANI TEMEL MATEMATİK BÖLÜM TÜREV. ALT ÖĞRENME ALANLARI 1) Türev 2) Türev Uygulamaları TÜREV

Küme temel olarak belli nesnelerin ya da elamanların bir araya gelmesi ile oluşur

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Ders 1- Yapay Zekâya Giriş. Erhan AKDOĞAN, Ph.D.

Sıralama Öğrenme ile Sağkalım Tahminleme

Üç Boyutlu Uzayda Koordinat sistemi

REGRESYON ANALİZİ VE UYGULAMA. Yrd. Doç. Dr. Hidayet Takcı

Regresyon ve Sınıflandırma

İÇİNDEKİLER. BÖLÜM 1 Değişkenler ve Grafikler 1. BÖLÜM 2 Frekans Dağılımları 37

Şartlı Olasılık. Pr[A A ] Pr A A Pr[A ] Bir olayın (A 1 ) olma olsılığı, başka bir olayın (A 2 ) gerçekleştiğinin bilinmesine bağlıysa;

Yıldız Teknik Üniversitesi Fen Bilimleri Enstitüsü Bilgisayar Mühendisliği Bölümü. Şekil Tanıma Final Projesi. Selçuk BAŞAK

BS503 BİLİMSEL NEDENSELLİK VE YAZIM

Lineer Dönüşümler ÜNİTE. Amaçlar. İçindekiler. Yazar Öğr. Grv.Dr. Nevin ORHUN

Makine Öğrenmesi (COMPE 565) Ders Detayları

Makine Öğrenmesi İle Duygu Analizinde Veri Seti Performansı

EŞİTSİZLİKLER. 5. x 2 + 4x + 4 > x 2 0. eşitsizliğinin çözüm kümesi. eşitsizliğinin çözüm kümesi. aşağıdakilerden hangisidir?

7. BÖLÜM İÇ ÇARPIM UZAYLARI İÇ ÇARPIM UZAYLARI İÇ ÇARPIM UZAYLARI İÇ ÇARPIM UZAYLARI .= Genel: Vektörler bölümünde vektörel iç çarpım;

DEĞİŞMELİ BANACH CEBİRLERİNİN GELFAND SPEKTRUMLARI ÜZERİNE

Konular VERİ MADENCİLİĞİ. Örnek Tabanlı Yöntemler. En Yakın Komşu Sınıflandırıcı. En Yakın Komşu Yöntemi. Farklı Sınıflandırma Yöntemleri

MIT Açık Ders Malzemeleri Bu materyallerden alıntı yapmak veya Kullanım Koşulları hakkında bilgi almak için

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

1. GİRİŞ Kılavuzun amacı. Bu bölümde;

İleri Diferansiyel Denklemler

Cebir Notları. Gökhan DEMĐR, ÖRNEK : A ve A x A nın bir alt kümesinden A ya her fonksiyona

13.Konu Reel sayılar

Örnek...3 : Aşağıdaki ifadelerden hangileri bir dizinin genel terim i olabilir?

MIT Açık Ders Malzemeleri Bu materyallerden alıntı yapmak veya Kullanım Koşulları hakkında bilgi almak için

KESİKLİ DÜZGÜN DAĞILIM

Ders 9: Kitle Ortalaması ve Varyansı için Tahmin

BULANIK MANTIK DENETLEYİCİLERİ. Bölüm-4 Bulanık Çıkarım

14.Konu Reel sayılarının topolojisi. 1.Tanım:, verilsin. açık aralığına noktasının -komşuluğu denir. { } kümesine nın delinmiş -komşuluğu denir.

Prof.Dr.Ünal Ufuktepe

TEK BOYUTLU RASSAL DEĞİŞKENLER

Ders 8: Konikler - Doğrularla kesişim

Fen ve Anadolu Liselerine Öğretmen Seçme Sınav Denemesi

BAYES ÖĞRENMESİ BİLECİK ÜNİVERSİTESİ. Araş. Gör. Nesibe YALÇIN. Yapay Zeka-Bayes Öğrenme

K-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi

10.Konu Tam sayıların inşası

Bulanık Mantık Bilgisayar Mühendisliği Bölümü Final Sınavı 27 Mayıs 2014 Süre: 1 Saat 45 Dakika

OLASILIĞA GİRİŞ P( )= =

EBE-368 Veri Tabanı Yönetim Sistemleri Veri Tabanı Tasarımı

ANADOLU ÜNİVERSİTESİ OLASILIĞA GİRİŞ

Makine Öğrenmesi 2. hafta

Doğrusal Olmayan Devreler, Sistemler ve Kaos

X ve Y boş olmayan iki küme olsun. İki küme arasında tanımlanmış olan bir bulanık ilişki R, X x Y nin bir bulanık alt kümesidir.

kişi biri 4 kişilik, üçü ikişer kişilik 4 takıma kaç farklı şekilde ayrılabilir? (3150)

Örnek Bir zar atıldığında zarın üstünde bulunan noktaların sayısı gözlensin. Çift sayı gelmesi olasılığı nedir? n(s) = 3 6 = 1 2

14. LİSELERARASI MATEMATİK YARIŞMASI EKİP FİNAL SORULARI

ÜNİTE MATEMATİK-1 İÇİNDEKİLER HEDEFLER ÜSTEL VE LOGARİTMA FONKSİYONLARI. Prof.Dr.Ahmet KÜÇÜK. Üstel Fonksiyon Logaritma Fonksiyonu

KONU 4: DOĞRUSAL PROGRAMLAMA MODELİ İÇİN ÇÖZÜM YÖNTEMLERİ I

İleri Örüntü Tanıma Teknikleri Ve Uygulamaları İçerik

Bu bölümde cebirsel yapıların temelini oluşturan Grup ve özelliklerini inceleyeceğiz.

SORU 1: X bir sonsuz küme ve A da X kümesinin tüm sonlu alt kümelerinin. A := {B P (X) : B sonlu} SORU 2: X sayılamayan bir küme

Ders 4: Olasılık Aksiyomları ve Bazı Olasılık Kuralları

Ders 3: Olasılık Aksiyomları ve Bazı Olasılık Kuralları

İleri Diferansiyel Denklemler

Toplam Olasılık Prensibi

ALGORİTMA VE PROGRAMLAMA I

DOKUZ EYLÜL ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ MÜDÜRLÜĞÜ DERS/MODÜL/BLOK TANITIM FORMU. Dersin Kodu: CSE 6003

Ankara Üniversitesi Kütüphane ve Dokümantasyon Daire Başkanlığı Açık Ders Malzemeleri. Ders izlence Formu

KOCAELİ ÜNİVERSİTESİ ELEKTRONİK VE HABERLEŞME MÜHENDİSLİĞİ BÖLÜMÜ 2018/2019 GYY BİTİRME ÇALIŞMASI ÖNERİ FORMU. (Doç.Dr. M.

(a,b) şeklindeki ifadelere sıralı ikili denir. Burada a'ya 1. bileşen b'ye 2. bileşen denir.

İÇİNDEKİLER ÖZELLİKLER. 3-4 KONTROL PANELİ HARİCİ KONTROL ÜNİTESİ BAĞLANTILAR VE HABERLEŞMELER 23-24

DEÜ MÜHENDİSLİK FAKÜLTESİ MÜHENDİSLİK BİLİMLERİ DERGİSİ Cilt: 16 Sayı: 48 sh Eylül 2014

Naive Bayes Yöntemi ile Spam Mail Teşhisi Kübra KURNAZ

RASSAL DEĞİŞKENLER VE OLASILIK DAĞILIMLARI. Yrd. Doç. Dr. Emre ATILGAN

Kümeler arası. Küme içi. uzaklıklar. maksimize edilir. minimize edilir

OLASILIK LASILIK ve İSTATİSTİK Olasılık

Transkript:

MEH535 Örüntü Tanıma 3. Denetimli Öğrenme Doç.Dr. M. Kemal GÜLLÜ Elektronik ve Haberleşme Mühendisliği Bölümü web: http://akademikpersonel.kocaeli.edu.tr/kemalg/ E-posta: kemalg@kocaeli.edu.tr

Örneklerden Sınıf Öğrenme Aile arabası sınıfı C Tahmin: x aracı aile arabası mıdır? Bilgi çıkartımı: İnsanlar aile arabasından ne bekler? Çıkış: Pozitif (+) ya da negatif (-) örnekler Giriş: Öznitelikler: x 1 : price, x 2 : engine power - - 2

Eğitim Kümesi X x = { 'T it r,?, N : is.mg,, rt *t t our. nek t.ir#netiketi*=tm = { 1, you 7 ek, x my a srrek tif Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) 3

4 Sınıf C ( price Bs Epz ) AND ( e, Eeypow. ed Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) 4

Hipotez Sınıfı H Hipotez sınıfı H : olası tüm dikdörtgenler kümesi alalım hay = fl ; x ' I porikf! shift and in rise 4 nyakf inpteuwn Gerçek sınıf hats 1 : Ethbettylkixtttr 'T v u Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) 5

S, G ve Versiyon Uzayı enohellnpotet A He engenders potet the ) Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) egihn wish de ( K srnk Kines in4 hs ; le ha anasmdnhi Lnhpetnhr s hath vows vast. B n aahfavesjen may for. term 6

. X, Xz 7. Y, Y ] Ty 7536 Tt ) oy,.1dyyh1d 8,#88##, 10 1 1 0 0 0 0 1 111 1 O 0 0 1 1 0 0 1 1 00 1 4 0011 1 1 01 0 1 0 1 0 1 01 0 101 bin ; EX - OR mantkalislemswionyruelsh 7784

N nokta 2 N ayrı yolla +/- olarak etiketlenebilir 2 N farklı öğrenme problemi N örnekle tanımlanan bir öğrenme problemi, H dan çizilen bir hipotezi ile hatasız öğrenilebilir H ile ayrılabilen en fazla nokta sayısı Vapnik- Chervonenkis (VC) boyutu olarak adlandırılır ve VC(H) ile gösterilir H hipotez sınıfının (sınıflandırma modelinin) kapasitesini ölçer Vapnik-Chervonenkis Boyutu Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) HEEEB VC(H ) = N 7

Özetle; Soru: Öğrenme algoritması kaç örneğe ihtiyaç duyar? Yanıt: VC(H) Vapnik-Chervonenkis Boyutu X örnek uzayı üzerinde tanımlı H hipotez uzayı tarafından parçalanmış en büyük örnek alt kümesinin büyüklüğüdür. Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) 8

Gürültü ve Model Karmaşıklığı Basit yapıyı kullan: Kolay kullanım (düşük hesapsal karmaşıklık) Eğitimi kolay (düşük uzay karmaşıklığı) Açıklama kolay (daha yorumlanabilir yapı) Genelleme iyi (düşük değişinti) gbasiidd Yµ birdnfffe Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) 9

Çoklu Sınıf Durumu X { x,r } t t N t 1 r t i t 1 if x i t 0 if x j, j i Hipotez eğit h i (x), i =1,...,K: h i x t t 1 eger x i t 0 eger x j, j i Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) 10

X={ut,rt} µ Bağlanım Zdeeceoler model ; T(Ht=w(x4+went+w. RTER te rt=fkt)+e y opeeo * Hsbc )=tn{frtjcxtf Eke, y=antb - At,wo1k)=µt{,( rt.w.nt.w.lt dotnfdllemmdfljsndnkihatn Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) gcxitwnnttwo 11

Model Seçimi ve Genelleştirme Öğrenme kötü konumlanmış (ill-posed) bir problemdir Veri tek çözüm için uygun değildir Aynı veri ile eğitim ve test modeli nasıl genelleyebilir? Genelleştirme: Model yeni veride ne ölçüde performans gösterecektir? Aşırı uydurma (Overfitting): Hipotez karmaşıklığı fazla Az uydurma (Underfitting): Hipotez karmaşıklığı yetersiz 12

Model Seçimi ve Genelleştirme Üçlü Ödünleşim (Dietterich, 2003): H ın karmaşıklığı: c(h) Eğitim kümesi miktarı: N Yeni verideki genelleme hatası: E I. 2. N 4 : Et, ( N biigidiihaemoetl yersek Lafhhme zakleyir ) C ( N ) In ; inalihle Et, savasmdr ET 13

Model Seçimi ve Genelleştirme 14

Model Karmaşıklığı? Çapraz Geçerleme Çapraz Geçerleme (Cross Validation) Eğitim Veri Kümesi: Eğitim Kümesi Geçerleme Kümesi ottwiie (Training Set) (Validation Set) - model eniyi model kamaahhginin parametresimy tespitilo 'T tespili 15

' Çapraz Geçerleme - ti - + + - = Hata (E) eğitim hatası = : karmaşıklık nnsigeekndendaha obhusigerhnder Lahs basil - old kvhehhno del AZUYDURMA ) ATIRIUYDUKMA ( Unowfifthf ) ( Owfthy ) olhesigerekn hold karhatlhhjs 16

Çapraz Geçerleme Seçilen model geçerleme aşamasında iyi çalışabilir Bulunan modelin test aşamasında çalışma başarımı? Holdout yöntemi (2-fold cross validation) Eğitim Kümesi (Training Set) Geçerleme Kümesi (Validation Set) Test Kümesi (Test Set) Testte başarım düşük ise (genelleme hatası yüksek) eğitim kümesi yetersiz olabilir 17

Genelleme hatasını kestirmek için örneğin: Eğitim kümesi (%50) Geçerleme kümesi (%25) Test kümesi (%25) seçilebilir Çapraz Geçerleme Eğer veri kümesindeki örnek sayısı az ise, istenen başarım için rastgele yeniden örnekleme yapılabilir (repeated hold-out) 18

Çapraz Geçerleme K-Kat (K-Fold) Çapraz Geçerleme: Tüm veriler eğitim ve testte kullanılır K kez eğitim gerekir 19

Çapraz Geçerleme İç İçe (Nested) Çapraz Geçerleme: 20

Çapraz Geçerleme Birini Dışarıda Bırak (Leave-One Out) Çapraz Geçerleme: N örnekli veri için N ayrı eğitim yapılır Rastgelelik yoktur Hesapsal yük fazladır 21

Çapraz Geçerleme Önyükleme (Bootstrapping) Çapraz Geçerleme: K ayrı eğitim gerçekleştirilir Her eğitim verisinden test örnekleri alınır ve yerleri yeniden örnekleme ile geriye kalan veri kümesinden doldurulur (N örnekli) 22

Kayp Model Denetimli Öğrenme 1. Jllilenr ; f ( xlol 2. : lelirhnr fonksiyomim )= < Elope ( rt glxtlol ), 3. En iyikme pnseohini : f* = argmign EHIX ) Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning The MIT Press (V1.1) 23