MEH535 Örüntü Tanıma

Benzer belgeler
MEH535 Örüntü Tanıma. Örneklerden Sınıf Öğrenme

MEH535 Örüntü Tanıma. Karar Teorisi

Veride etiket bilgisi yok Denetimsiz öğrenme (unsupervised learning) Neden gereklidir?

The Nonlinear Models with Measurement Error and Least Squares Estimation

Hafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

altında ilerde ele alınacaktır.

13. Olasılık Dağılımlar

MEH535 Örüntü Tanıma

Makine Öğrenmesi 8. hafta

EME Sistem Simülasyonu. Giriş. Olasılık Dağılımı. Rassal Degiskenler

MEH535 Örüntü Tanıma. 6. Boyut Azaltımı (Dimensionality Reduction)

Uzaktan Algılama Uygulamaları

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

Normallik Varsayımı ve Ençok Olabilirlik Yöntemi

İstatistiksel Kavramların Gözden Geçirilmesi

IE 303T Sistem Benzetimi

EME 3117 SISTEM SIMÜLASYONU. Üçgensel Dağılım. Sürekli Düzgün Dağılım. Sürekli Rassal Değişkenlerin Modellemesinde Kullanılan Dağılımlar

2.1 Bir Sınıfı Örneklerinden Öğrenme Vapnik-Chervonenkis (VC) Boyutu Olası Yaklaşık Doğru Öğrenme... 21

Dolar Kurundaki Günlük Hareketler Üzerine Bazı Gözlemler

Hatalar Bilgisi ve İstatistik Ders Kodu: Kredi: 3 / ECTS: 5

Ders 6: Sürekli Olasılık Dağılımları

Bilgisayarla Görüye Giriş

Bilgisayarla Görüye Giriş

Stokastik Süreçler. Bir stokastik Süreç ya da rastgele süreç şöyle tanımlanabilir.

Herhangi bir rastgele değişken için kümülatif dağılım fonksiyonu/cumulative distribution function (KDF/CDF) şu şekilde tanımlanır.

Görüntü Sınıflandırma

MEH535 Örüntü Tanıma

4) Seyrek rastlanılan bir hastalık için belli bir zaman araalığında bu hastalığa yakalananların sayısının gözlenmesi,

BAYES ÖĞRENMESİ BİLECİK ÜNİVERSİTESİ. Araş. Gör. Nesibe YALÇIN. Yapay Zeka-Bayes Öğrenme

Durağan olmayan ve Gauss olmayan veya Seyrek Sinyallerin Bayesçi Ayrışımı

KUADRATİK FORM. Tanım: Kuadratik Form. Bir q(x 1,x 2,,x n ) fonksiyonu

EME 3117 SİSTEM SİMÜLASYONU. Üçgensel Dağılım. Sürekli Düzgün Dağılım. Sürekli Rassal Değişkenlerin Modellemesinde Kullanılan Dağılımlar

BSM-767 MAKİNE ÖĞRENMESİ. Doğrusal Ayırıcılar (Linear Discriminants)

Appendix C: İstatistiksel Çıkarsama

YTÜ İktisat Bölümü EKONOMETRİ I Ders Notları

White ın Heteroskedisite Tutarlı Kovaryans Matrisi Tahmini Yoluyla Heteroskedasite Altında Model Tahmini

ÖDEV SORULARI Güz Yarıyılı Öğretim Üyesi: Prof. Dr. Sedef Kent

ĐST 474 Bayesci Đstatistik

Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)

Hafta 03/04 - Uzaklık/Benzerlik - En Yakın Komşular - Karar Ağaçları

SPEKTRAL HESAP. Bir Serbestlik Dereceli Sistemler Bir serbestlik dereceli doğrusal elastik siteme ait diferansiyel hareket denklemi,

Aşağı Link MC-CDMA Sistemlerinde Kullanılan PIC Alıcının EM-MAP Tabanlı Olarak İlklendirilmesi

Önsel Bilgi ve Kestirim

Metin Sınıflandırma. Akış

Normallik Varsayımı ve Ençok Olabilirlik Yöntemi

Finansal Ekonometri. Ders 2 Olasılık Teorisi ve Rasgele Değişkenler

Web Madenciliği (Web Mining)

Ders 9: Kitle Ortalaması ve Varyansı için Tahmin

OLASILIK ve KURAMSAL DAĞILIMLAR

Hafta 3: SİNYALLER için uygulamalar

KONYA İLİ SICAKLIK VERİLERİNİN ÇİFTDOĞRUSAL ZAMAN SERİSİ MODELİ İLE MODELLENMESİ

ÖZET Yüksek Lisans Tezi EEG SİNYALLERİNİN ZAMAN SERİLERİ İLE MODELLENMESİ Ceren ŞENOL Ankara Üniversiesi Fen Bilimleri Ensiüsü İsaisik Anabilim Dalı D

Ayhan Topçu Accepted: January ISSN : ayhan_topcu@hotmail.com Ankara-Turkey

REGRESYON ANALİZİ BÖLÜM 3-4

Kredi Onayı İçin Bir Sınıflandırma Algoritması Önerisi A Classification Algorithm Advice for Credit Approval

Üç Boyutlu Uzayda Koordinat sistemi

İç-Çarpım Uzayları ÜNİTE. Amaçlar. İçindekiler. Yazar Öğr. Grv. Dr. Nevin ORHUN

İMKB NİN LATİN AMERİKA BORSALARIYLA İLİŞKİSİ ÜZERİNE ÇOK DEĞİŞKENLİ GARCH MODELLEMESİ

YÖNEYLEM ARAŞTIRMASI - III

1.58 arasındaki her bir değeri alabileceği için sürekli bir

SÜREKLİ OLASILIK DAĞILIŞLARI

EĞİTİM - ÖĞRETİM YILI 10. SINIF MATEMATİK DERSİ DESTEKLEME VE YETİŞTİRME KURSU KAZANIMLARI VE TESTLERİ

YZM 3217 YAPAY ZEKA DERS#10: KÜMELEME

1-2 - * Bu Ders Notları tam olarak emin olmamakla birlikte yıllarına aiitir.tekrardan Sn.Hakan Paçal'a çoook tsk ederiz...

Matematiksel Optimizasyon ve Yapay Öğrenme

Konu 5. Bölüm 2 : Proje Değerlendirme ve Gözden Geçirme Tekniği (PERT) Üç zamanlı tahmin yaklaşımı. a : Faaliyetin iyimser gerçekleşme süresi

KAHKAHA TANIMA İÇİN RASSAL ORMANLAR

ÇUKUROVA ÜNĠVERSĠTESĠ FEN BĠLĠMLERĠ ENSTĠTÜSÜ

Appendix B: Olasılık ve Dağılım Teorisi

YTÜ İktisat Bölümü EKONOMETRİ I Ders Notları

YTÜ İktisat Bölümü EKONOMETRİ I Ders Notları

ANADOLU ÜNİVERSİTESİ BEKLENEN DEĞER. X beklenen değeri B[X] ile gösterilir. B[X] = İST 213 OLASILIK DERSİ BEKLENEN DEĞER VE MOMENTLER

Bilgisayarla Görüye Giriş

MARKOV ZİNCİRİ MONTE CARLO YÖNTEMİNİN DİNAMİK DOĞRUSAL MODELLERE UYGULANMASI

C L A S S N O T E S SİNYALLER. Sinyaller & Sistemler Sinyaller Dr.Aşkın Demirkol

(m+2) +5<0. 7/m+3 + EŞİTSİZLİKLER A. TANIM

Kolektif Öğrenme Metotları

SÜREKLİ RASSAL DEĞİŞKENLER

RASGELE SÜREÇLER İ.Ü. ELEKTRİK ELEKTRONİK MÜHENDİSLİĞİ İLETİŞİM LABORATUVARI ARALIK, 2007

İÇİNDEKİLER. Bölüm 1 YÖNEYLEM ARAŞTIRMASINA GİRİŞ Temel Kavramlar Modeller Diğer Kavramlar 17 Değerlendirme Soruları 19

Matris Cebiriyle Çoklu Regresyon Modeli

2018 YILI BİRİNCİ SEVİYE AKTÜERLİK SINAVLARI İSTATİSTİK VE OLASILIK 29 NİSAN 2018

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

PERGEL YAYINLARI LYS 1 DENEME-6 KONU ANALİZİ SORU NO LYS 1 MATEMATİK TESTİ KAZANIM NO KAZANIMLAR

DERS BİLGİLERİ. Ders Kodu Yarıyıl T+U Saat Kredi AKTS İSTATİSTİKSEL KESTİRİM ESYE

Doğrusal Olmayan Devreler, Sistemler ve Kaos

Bu durumu, konum bazında bileşenlerini, yani dalga fonksiyonunu, vererek tanımlıyoruz : ) 1. (ikx x2. (d)

Ders 4: Rastgele Değişkenler ve Dağılımları

İstatistik I Ders Notları

İSTATİSTİKSEL DARALTICI (SHRINKAGE) MODEL VE UYGULAMALARI * A Statistical Shrinkage Model And Its Applications*

İSTATİSTİK I KAVRAMLARININ

ANADOLU ÜNİVERSİTESİ. ENM317 Mühendislik İstatistiği İSTATİSTİKSEL TAHMİN Prof. Dr. Nihal ERGİNEL

Makine Öğrenmesi 2. hafta

Transkript:

MEH535 Örünü Tanıma 4. Paramerik Sınıflandırma Doç.Dr. M. Kemal GÜLLÜ Elekronik ve Haberleşme Mühendisliği Bölümü web: hp://akademikpersonel.kocaeli.edu.r/kemalg/ E-posa: kemalg@kocaeli.edu.r Paramerik Yoğunluk Kesirimi Paramerik Kesirim: Verilen eğiim kümesinden bir olasılıksal model kesirerek belirsizliği modelleme ve en iyi kararı verme problemi: Paramerik, yarı-paramerik ve paramerik olmayan yoğunluk kesirimi Paramerik sınıflandırmada örneklerden paramere kesirme (örn; Gauss modeli için or, değişini) X = { x } =1 N örnekleri x ~p(x) yoğunluğundan gelsin p(x θ) için bir yapı kabul edip X üzerinden θ yı kesirmek örn; N ( μ, σ 2 ) θ = { μ, σ 2 } paramereleri 2 1

Paramerik Yoğunluk Kesirimi Eğiim verisinden P(ω i ) ve P(x ω i ) sınıf yoğunluklarını kesirme problemi Eğer kesirilebilir ise P(ω i x) sonsalı hesaplanarak sınıf kararı verilebilir! En Büyük Olabilirlik Kesirimi (Maximum Likelihood Esimaion-MLE) Örnek veri kümesinin üm elemanları için olabilirliği en büyükleyen θ parameresi? 3 En Büyük Olabilirlik Kesirimi (MLE) Bağımsız ve eş dağılımlı (iid) örnek kümesi X = { x } =1 N x bilindik bir θ paramereli p(x θ) olasılık yoğunluğundan gelsin (x ~p(x θ)) Amaç: x nin olabildiğince p(x θ) dan örneklendiği θ parameresini bulmak x iid olduğundan, X kümesinin θ parameresi için olabilirliği (likelihood): l(θ X) = p(x θ) = p(x θ) Lecure Noes for E Alpaydın 2004 Inroducion o Machine Learning The MIT Press (V1.1) 4 2

En Büyük Olabilirlik Kesirimi (MLE) Veri kümesi hangi dağılımdan gelmiş olabilir? 5 En Büyük Olabilirlik Kesirimi (MLE) Log olabilirlik: L(θ X) = log l(θ X) = log p(x θ) MLE kesirici: θ * = argmax θ L(θ X) Örnek (Bernoulli D): iki durum x={0,1} P(x) = p x o (1 p o ) (1 x) L (p o X) = log p x o (1 p o ) (1 x ) dl (p o X)/dp o =0 MLE: p o = x / N Lecure Noes for E Alpaydın 2004 Inroducion o Machine Learning The MIT Press (V1.1) 6 3

En Büyük Olabilirlik Kesirimi (MLE) Örnek (Çok Terimli D): K>2 çıkı durumu P (x 1,x 2,...,x K ) = i p i x i L(p 1,p 2,...,p K X) = log i p i x i MLE: p i = x i / N Lecure Noes for E Alpaydın 2004 Inroducion o Machine Learning The MIT Press (V1.1) 7 En Büyük Olabilirlik Kesirimi (MLE) Gauss Dağılımı: px 2 1 x exp- 2 2 2 p(x) = N ( μ, σ 2 ) 1 x 2 exp p x 2 2 2 Log Olabilirlik: L(μ,σ X) = -(N/2)log2π Nlogσ - (x -μ) 2 /2σ 2 μ ve σ 2 için MLE: m Lecure Noes for E Alpaydın 2004 Inroducion o Machine Learning The MIT Press (V1.1) N x s 2 x m 2 N 8 4

Kesirici Performansı Kesirici: d i = d(x i ) Yanlılık (Bias): b θ (d) = E[d] θ b θ (d) = 0 (yansız) Değişini (Variance): E[(d E[d]) 2 ] Or. Karesel Haa: r (d,θ) = E[(d-θ) 2 ] = (E[d]-θ) 2 + E[(d-E[d]) 2 ] = Bias 2 + Variance Lecure Noes for E Alpaydın 2004 Inroducion o Machine Learning The MIT Press (V1.1) 9 Kesirici Performansı Örnek: Oralama ve değişini kesiricilerinin yansızlığı m N x yansız s 2 x m 2 N yanlı 10 5

Bayes Kesirici θ parameresi ile ilgili önsel bilgi mevcu Bu bilgi kısılı sayıda örneke kesirim yaparken faydalı olabilir! θ, p(θ) önselli bir rassal değişken olsun Bayes kuralı: p(θ X) = p(x θ)p(θ)/p(x) Full: p(x X) = p(x θ) p(θ X) dθ Maximum a Poseriori (MAP): θ MAP = argmax θ p(θ X) Maximum Likelihood (ML): θ ML = argmax θ p(x θ) Bayes: θ Bayes = E[θ X] = θp(θ X)dθ Lecure Noes for E Alpaydın 2004 Inroducion o Machine Learning The MIT Press (V1.1) 11 Bayes Kesirici x ~N (θ,σ o2 ) ve θ~n (μ,σ 2 ) θ ML = m θ MAP = θ Bayes = E X N / 1/ N / 1/ / 1/ 2 2 0 m 2 2 2 2 0 N 0 Lecure Noes for E Alpaydın 2004 Inroducion o Machine Learning The MIT Press (V1.1) 12 6

Normal Dağılımlı Sınıflar için Bayes Sınıflandırıcıları: MAP karar kuralı: Çok Değişkenli Gauss Yoğunluğu (Mulivariae GD): MAP ayıraç fonksiyonu: 13 Sabi erimler aıldığında: Üsel ifadeden kurulmak için fonksiyonun logariması alındığında: Karesel ayıraç fonksiyonu (quadraic discriminan funcion) 14 7

DURUM-1: Öznielikler isaisiksel bağımsız ve değişiniler sabi (Σ i = σ 2 I) Göserim açıldığında: 15 Sabi x T x aıldığında: Ayıraç doğrusal olduğundan, karar sınırları (g i (x)=g j (x)) hiper düzlem (hyperplane) şeklindedir. Önseller eşi kabul edildiğinde En küçük uzaklık/en yakın oralama sınıflandırıcı (minimum disance/neares mean classifier) 16 8

En yakın oralama sınıflandırıcıda σ 2 = 1 alındığında uzaklık Euclidean uzaklığına dönüşmekedir. En yakın oralama sınıflandırıcı: 17 Örnek: 2-boyulu uzayda 3-sınıf problemi Sınıf bölgeleri 18 9

DURUM-2: Öznielikler isaisiksel bağımsız ve değişinileri farklı (Σ i = Σ, Σ: köşegen) x 2 [k] erimi sabi, aılabilir: 19 Ayıraç doğrusaldır Her eksenin mesafesi değişinisi ile normalize edilmişir Örnek: 20 10

DURUM-3: Değişiniler birbirinden, orak değişiniler sıfırdan farklı (Σ i = Σ, Σ: köşegen değil) log Σ erimi aıldığında: Karesel erim Mahalanobis Uzaklığı olarak adlandırılır. 21 Mahalanobis uzaklığı Σ -1 normunu kullanan bir vekör uzaklığıdır Σ -1 uzayda yayma fakörünü anımlar Σ = I durumunda Euclidean uzaklığına dönüşür 22 11

Ayıraçaki karesel erim açıldığında: x T Σ -1 x orak, aılabilir: Ayıraç doğrusal olduğundan karar sınırları hiper düzlemdir 23 Önsel olasılıklar eşi alındığında: Örnek: En küçük uzaklık (Mahalanobis) sınıflandırıcı 24 12

DURUM-4: Orak değişini marisleri farklı faka durum-1 deki yapıda (Σ i = σ i2 I) İfade karesel olduğundan karar sınırları da kareseldir (hyper-ellipses) 25 Örnek: 26 13

DURUM-5: Orak değişini marisleri farklı (Σ i farklı) Karar sınırları karesel: hiper-elips ya da hiper-parabol Ayıraçaki karesel göserim Mahalanobis uzaklığı ile oranılıdır 27 Örnek: 28 14

Sonuçlar: Normal dağılımlı sınıflar için Bayes sınıflandırıcı genel durumda karesel sınıflandırıcıdır Normal dağılımlı sınıflar için Bayes sınıflandırıcı eşi orak değişini marisi durumda doğrusal sınıflandırıcıdır En küçük Mahalanobis uzaklığı sınıflandırıcı en uygundur: Normal dağılımlı sınıflarda Eşi orak değişini marisinde Eşi önsellerde En küçük Euclidean uzaklığı sınıflandırıcı en uygundur: Normal dağılımlı sınıflarda Birim maris ile oranılı eşi orak değişini marisinde Eşi önsellerde 29 15