MEH535 Örüntü Tanıma. 6. Boyut Azaltımı (Dimensionality Reduction)

Benzer belgeler
MEH535 Örüntü Tanıma

Hafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti

MEH535 Örüntü Tanıma. Karar Teorisi

MEH535 Örüntü Tanıma

Geliştirilmiş Fisher Ayraç Kriteri Kullanarak Hiperspektral Görüntülerde Sınıflandırma

Uzaktan Algılama Teknolojileri

MEH535 Örüntü Tanıma

Bilgisayarla Görüye Giriş

VERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN

Büyük boyutun laneti (Curse of Dimensionality)

Uzaktan Algılama Teknolojileri

MEH535 Örüntü Tanıma

Kredi Onayı İçin Bir Sınıflandırma Algoritması Önerisi A Classification Algorithm Advice for Credit Approval

YZM 3217 YAPAY ZEKA DERS#10: KÜMELEME

Günümüzde birçok yüz tanıma yöntemleri geliştirilmiş olup [2], bunlar şu şekilde sınıflandırılabilir:

Makine Öğrenmesi 11. hafta

Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)

Akış YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ

Bilgisayarla Görüye Giriş

Zeki Optimizasyon Teknikleri

VERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN

Algoritmalara Giriş. Prof. Erik Demaine. November 16, 2005 Copyright by Erik D. Demaine and Charles E. Leiserson L18.1

Yrd. Doç. Dr. Ümit ATİLA

Kanonik Korelasyon Analizi ile Cinsiyet Tabanlı İmge Sınıflandırması. Gender Based Image Classification via Canonical Correlation Analysis

BLM-112 PROGRAMLAMA DİLLERİ II. Ders-7 Sıralama Algoritmaları

Doküman Sınıflandırma Text Categorization - TC

Makine Öğrenmesine Giriş (Machine Learning ML)

2.1 Bir Sınıfı Örneklerinden Öğrenme Vapnik-Chervonenkis (VC) Boyutu Olası Yaklaşık Doğru Öğrenme... 21

LİNEER CEBİR ve MÜHENDİSLİK UYGULAMALARI (MEH111) Dersi Final Sınavı 1.Ö

Akış YILDIZ TEKNİK ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ

Yrd. Doç. Dr. A. Burak İNNER

2.1 Gri Düzey Eş Oluşum Matrisi ( GLCM) Gri düzey eş oluşum matrisi Haralick tarafından öne sürülmüştür [1]. Đstatistiksel doku analizi yöntemidir.

KAHKAHA TANIMA İÇİN RASSAL ORMANLAR

Büyük Veri ve Endüstri Mühendisliği

Yrd. Doç. Dr. A. Burak İNNER

Veride etiket bilgisi yok Denetimsiz öğrenme (unsupervised learning) Neden gereklidir?

MEH535 Örüntü Tanıma. Örneklerden Sınıf Öğrenme

Örüntü Tanıma (EE 448) Ders Detayları

Hafta 01 - Giriş. BGM Siber Güvenlik için Makine Öğrenme Yöntemleri. Yüksek Lisans Programı. Dr. Ferhat Özgür Çatak

BİL-341 ALGORİTMALAR BÜYÜK O NOTASYONU AHMET ATAKAN atakanahmet@hotmail.com KIRGIZİSTAN-TÜRKİYE MANAS ÜNİVERSİTESİ MÜHENDİSLİK FAKÜLTESİ

UBE Machine Learning. Kaya Oguz

Doğal Dil İşlemede Eğilimler. Önceden: Yapay Zeka Tabanlı, tam olarak anlama. Şimdiki: Külliyat(Corpus)-tabanlı, İstatistiki, makine öğrenmesi içeren

Hafta 05 - Karar Ağaçları/Kümeleme

Dr. Hidayet Takçı. Veri Madenciliği Dersi GYTE Dr. Hidayet Takçı 10/05/2008 1

ÖZDEĞERLER- ÖZVEKTÖRLER

DENİZ HARP OKULU BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜM BAŞKANLIĞI DERS TANITIM BİLGİLERİ

Kümeleme Algoritmaları. Tahir Emre KALAYCI

Kaynak: A. İŞLİER, TESİS PLANLAMASI, 1997

Aşağı Link MC-CDMA Sistemlerinde Kullanılan PIC Alıcının EM-MAP Tabanlı Olarak İlklendirilmesi

4. HAFTA BLM323 SAYISAL ANALİZ. Okt. Yasin ORTAKCI.

İkiden Çok Grup Karşılaştırmaları

T.C. YILDIZ TEKNİK ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ METİN SINIFLAMA İÇİN YENİ BİR ÖZELLİK ÇIKARIM YÖNTEMİ GÖKSEL BİRİCİK

Lineer Cebir (MATH 275) Ders Detayları

AYTUĞ ONAN CELAL BAYAR ÜNİVERSİTESİ, BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ SERDAR KORUKOĞLU EGE ÜNİVERSİTESİ, BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ

Hiperspektral Görüntüler ile Uzaktan Algılama Hafta 2



EMAT ÇALIŞMA SORULARI

Nesne Yönelimli Programlama

A İSTATİSTİK. 1. nc r, n tane nesneden her defasında r tanesinin alındığı (sıralama önemsiz) kombinasyonların sayısını göstermektedir.

Mühendislik Mekaniği Dinamik. Yrd.Doç.Dr. Akın Ataş

Çok Katlı Yapılarda Perdeler ve Perdeye Saplanan Kirişler

Web Madenciliği (Web Mining)

Web Madenciliği (Web Mining)

Bilgisayarla Görüye Giriş

Yüz Bulma ve Tanıma Sistemi

TEMEL BİLEŞENLER ANALİZİ VE KANONİK KORELASYON ANALİZİ İLE İMGE TANIMA VE SINIFLANDIRMA

Cebir 1. MIT Açık Ders Malzemeleri

KONU 4: DOĞRUSAL PROGRAMLAMA MODELİ İÇİN ÇÖZÜM YÖNTEMLERİ I

Kısıtsız Optimizasyon OPTİMİZASYON Kısıtsız Optimizasyon

I Java Veri Yapıları 1

Kümeler arası. Küme içi. uzaklıklar. maksimize edilir. minimize edilir

BSM-767 MAKİNE ÖĞRENMESİ. Doğrusal Ayırıcılar (Linear Discriminants)

DOKUZ EYLÜL ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ MÜDÜRLÜĞÜ DERS/MODÜL/BLOK TANITIM FORMU. Dersin Orjinal Adı: Pattern Recognition

Çekişmeli Üretici Ağlar Kullanarak Dış Mekan Görüntülerinin Geçici Niteliklerini Düzenleme

BÖLÜM13 3- EXCEL DE VERİ İŞLEMLERİ

ÜÇ BOYUTLU SINIR TABAKA AKIŞLARININ KARARLILIK ÖZELLİKLERİNİN DOĞRUSAL KARARLILIK TEORİSİ YAKLAŞIMI İLE BELİRLENMESİ

DOKUZ EYLÜL ÜNİVERSİTESİ MÜHENDİSLİK FAKÜLTESİ DEKANLIĞI DERS/MODÜL/BLOK TANITIM FORMU. Dersin Kodu: CME 4410

ANADOLU ÜNİVERSİTESİ. ENM 317 MÜHENDİSLİK İSTATİSTİĞİ PARAMETRİK OLMAYAN TESTLER Prof. Dr. Nihal ERGİNEL

Bulanık Mantık Bilgisayar Mühendisliği Bölümü Arasınav - 11 Nisan 2014 Süre: 1 Saat 30 Dakika

DOKUZ EYLÜL ÜNİVERSİTESİ MÜHENDİSLİK FAKÜLTESİ DEKANLIĞI DERS/MODÜL/BLOK TANITIM FORMU. Dersin Orjinal Adı: LINEAR ALGEBRA. Dersin Kodu: CME 1004

İMGE İŞLEME Ders-7. Morfolojik İmge İşleme. Dersin web sayfası: (Yrd. Doç. Dr. M.

F(A, N, K) // A dizi; N, K integer if N<0 then return K; if A[N]>K then K = A[N]; return F(A, N-1, K);

DOKUZ EYLÜL ÜNİVERSİTESİ MÜHENDİSLİK FAKÜLTESİ DEKANLIĞI DERS/MODÜL/BLOK TANITIM FORMU. Dersin Kodu: MAT 1009

ÜNİTE NESNE TABANLI PROGRAMLAMA I. Uzm. Orhan ÇELİKER VERİTABANI SORGULARI İÇİNDEKİLER HEDEFLER

İçindekiler. Ön Söz... xiii

Temelleri. Doç.Dr.Ali Argun Karacabey

Müzik Türlerinin Co-MRMR ile Sınıflandırılması Audio Genre Classification with Co-MRMR

T I M U R K A R A Ç AY - H AY D A R E Ş C A L C U L U S S E Ç K I N YAY I N C I L I K A N K A R A

Bu durumu, konum bazında bileşenlerini, yani dalga fonksiyonunu, vererek tanımlıyoruz : ) 1. (ikx x2. (d)

KOCAELİ ÜNİVERSİTESİ ELEKTRONİK VE HABERLEŞME MÜHENDİSLİĞİ BÖLÜMÜ 2018/2019 GYY BİTİRME ÇALIŞMASI ÖNERİ FORMU. (Doç.Dr. M.

DOKUZ EYLÜL ÜNİVERSİTESİ MÜHENDİSLİK FAKÜLTESİ DEKANLIĞI DERS/MODÜL/BLOK TANITIM FORMU MATEMATİK I. Dersin Kodu: MAT 1009

YZM 2116 Veri Yapıları

Örnek 4: Örnek Özyinelemeli fonksiyon örneği Bölüm 9. C++ programlama dilinde Nesne ve sınıf

Önsöz. İçindekiler Algoritma Algoritma Nasıl Hazırlanır? Yazılımda Algoritma Mantığı Nedir? 1.2. Algoritma Örnekleri ve Sorular

Birliktelik Kuralları Analizi. Yard. Doç. Dr. Derya BİRANT Prof. Dr. Alp KUT

Rasgele Vektörler Çok Değişkenli Olasılık Dağılımları

Transkript:

MEH535 Örüntü anıma 6. Boyut Azaltımı (Dimensionality Reduction) Doç.Dr. M. Kemal GÜLLÜ Elektronik ve Haberleşme Mühendisliği Bölümü web: http://akademikpersonel.kocaeli.edu.tr/kemalg/ E-posta: kemalg@kocaeli.edu.tr Neden Boyut Azaltımı? Daha düşük hesapsal yük Daha az parametre/uzay karmaşıklığı k<<d Sadece gerekli öznitelikleri alabilme olanağı Küçük veri kümelerinde dafha gürbüz çalışan daha basit model oluşturabilme Daha açıklanabilir yapılar Verileri B ve 3B olarak görselleştirebilme (yapıları, grupları, aykırı örnekleri görebilme)

Boyut Azaltımı Boyutluluk belası (curse of dimensionality) Boyut azaltımı Öznitelik seçimi/çıkartımı (feature selection/extraction) İşaret temsili/sınıflandırma için emel Bileşenler Analizi (Principal Component Analysis-PCA) Doğrusal Ayırtaç Analizi (Linear Discriminant Analysis-LDA) 3 Deyim 96 de Bellman tarafından bulunmuştur. Çok değişkenli veri analizinde boyutluluğun artması problem oluşturmaktadır. Örneğin; Boyutluluk Belası Bir kişinin araç alırken aradığı kriterlerin çok fazla olması piyasada seçebileceği araç bulamamasına neden olabilir. En önemli kriterleri belirlemek! 4

Boyutluluk Belası emel örnek: Boyut/3 sınıf: Başarımı arttırmak için boyuta geçildiğinde: Kutudaki yoğunluk (N-örnek/kutu) sabit Örnek sayısı sabit (Kutulara seyrek örnek düşüyor) 5 Boyutluluk Belası Sabit örnek sayısında 3 boyuta geçildiğinde: Yoğunluğu sabit tutmak için örnek sayısı = N D olmalı Kutu sayısı = 7 Yoğunluk N=3 sabit seçildiğinde örnek sayısı = 8 Örnek sayısı sabit 9 iken 3B saçılım grafiği neredeyse boş 6 3

Boyutluluk Belası Pratikte, verilen bir veri kümesinde, sınıflandırıcının başarımının tepe noktaya ulaştığı bir öznitelik sayısı mevcuttur Fazla öznitelik kullanımı başarım düşüşü Boyutluluk sorunu ile mücadele için: Önsel bilgi kullanılabilir (değerli öznitelikler hk) Boyut azaltımı gerçekleştirilebilir 7 Boyut Azaltımı Boyut azaltımında ayrı yaklaşım mevcuttur: Öznitelik çıkartımı (feature extraction) Yeni özniteliklere sahip k<<d boyutlu yeni bir alt küme oluşturma Alt uzay seçme algoritmaları Öznitelik seçimi (feature selection) Mevcut özniteliklerden k<<d adedi seçilerek yeni bir alt küme oluşturma PCA, LDA 8 4

Boyut Azaltımı 9 Öznitelik Seçimi D özniteliğin d altkümesi oluşmaktadır (örn; mantıksal AND operatörünü öğrenme) İleri Arama (forward search): Her bir adımda en iyi özniteliği ekle Set of features F initially Ø. At each iteration, find the best new feature j = argmin i E ( F x i ) Add x j to F if E ( F x j ) < E ( F ) epe tırmanma (Hill-climbing O(d )) algoritması Geri Arama (backward search): üm öznitelikler ile başla ve mümkünse her adımda bir öznitelik azalt Kayan Arama (Floating search (Add k, remove l)) 0 5

Öznitelik Çıkartımı İşaret temsili: Bir alt uzayda işareti verimli şekilde temsil edebilme Sınıflandırma: Bir alt uzayda sınıf ayrımsama gücünü arttırma emel Bileşenler Analizi (PCA) x izdüşürüldüğünde bilgi kaybının en küçüklendiği bir düşük boyutlu uzay bul x in w üzerindeki izdüşümü: z = w x Var(z) nin en büyükleneceği w yı bul Var(z) = Var(w x) = E[(w x w μ) ] = E[(w x w μ)(w x w μ)] = E[w (x μ)(x μ) w] = w E[(x μ)(x μ) ]w = w w where Var(x)= E[(x μ)(x μ) ] = 6

emel Bileşenler Analizi Var(z) yi w = kısıtıyla en büyükle: w = αw, w, nın bir öz vektörü Var(z) yi en büyüklemek için, en büyük özdeğere karşılık gelen vektörü seç. emel bileşen: En büyük Var(z ), kısıt: w = ve w e dik w w w = α w max w w w w max w w w w w w 0, w, nın diğer bir öz vektörü 3 z = W (x m) W nın sütunları nın özvektörleri, m: örnek ortalaması emel Bileşenler Analizi Verinin ortalamasını merkeze taşı ve eksenleri döndür! 4 7

emel Bileşenler Analizi k boyut kararı nasıl verilmeli? Değişintinin oranı (PoV): k Not: özdeğerler genliklerine göre büyükten küçüğe sıralı Genel kullanım: PoV>0.9 olduğunda dur k d 5 emel Bileşenler Analizi 6 8

PCA Örnek 7 PCA Örnek 8 9

Faktör Analizi x i doğrusal kombinasyon ile oluşturmak için az sayıda z faktörü bul: x i µ i = v i z + v i z +... + v ik z k + ε i z j, j =,...,k : gizli faktörler (latent factors) ve E[ z j ]=0, Var(z j )=, Cov(z i,, z j )=0, i j, ε i : gürültü kaynakları E[ ε i ]= ψ i, Cov(ε i, ε j ) =0, i j, Cov(ε i, z j ) =0 v ij ler faktör yüklemeleri (factor loadings) 9 PCA - FA Faktör Analizi PCA x z z = W (x µ) FA z x x µ = Vz + ε 0 0

Faktör Analizi z j ler, x i üretmek için gerilir, döndürülür ve ötelenir: Doğrusal Ayırtaç Analizi (LDA) x izdüşürüldüğünde sınıfların iyi şekilde ayrımsandığı bir boyut azaltımı gerçekleştir Aşağıdaki ifadeyi en büyükleyen bir w bul: J m w m t s s t m wxr t t r t t wx t s m r t

Doğrusal Ayırtaç Analizi Sınıflar arası saçılım (between scatter): m m w m w m w m m m m w w SBw where SB m m m m Sınıf içi saçılım (within scatter): s, t t wx t t t t x m x m r s m r t S t t t r S w x m x m w w w t s w S w where S S S W W 3 Fisher Doğrusal Ayırtacı Aşağıdaki ifadeyi en büyükleyen w yı bul: LDA çözümü: Parametrik çözüm: J w w SBw w m m w SWw w SWw w cs m m w W μ μ x N, p C i ~ μ, i 4

Doğrusal Ayırtaç Analizi K> sınıf için: Sınıflar arası saçılım: K t t t r x m x m t S S S W i i i i i i Sınıf içi saçılım: K K S N m m m m, m m B i i i i i K i Aşağıdaki ifadeyi en büyükleyen W yı bul: J B W S W W W S - W S B in en büyük özdeğerleri W S W En büyük rank: K- 5 LDA Örnek 6 3

PCA - LDA Karşılaştırma 7 4