Destekçi Vektör Makineleri. Destekçi Vektör Makineleri(Support Vector Machines)

Benzer belgeler
TRAKYA ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ MAKİNA MÜHENDİSLİĞİ ANABİLİM DALI DOKTORA PROGRAMI ŞEKİL TANIMA ÖDEV 2 KONU : DESTEK VEKTÖR MAKİNELERİ

DEÜ MÜHENDİSLİK FAKÜLTESİ MÜHENDİSLİK BİLİMLERİ DERGİSİ Cilt: 16 Sayı: 48 sh Eylül 2014

Uzaktan Algılama Teknolojileri

Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)

Zaman Serileri Madenciliği Kullanılarak Nüfus Artışı Tahmin Uygulaması

K En Yakın Komşu Methodu (KNearest Neighborhood)

Zaman Serileri Madenciliği Kullanılarak Nüfus Artışı Tahmin Uygulaması

VERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN

Tek Değişkenli Optimizasyon OPTİMİZASYON. Gradient Tabanlı Yöntemler. Bisection (İkiye Bölme) Yöntemi

VERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN

KISITLI OPTİMİZASYON

İş Zekası. Hafta 6 Kestirimci Modelleme Teknikleri. Yrd. Doç. Dr. H. İbrahim CEBECİ

KONU 4: DOĞRUSAL PROGRAMLAMA MODELİ İÇİN ÇÖZÜM YÖNTEMLERİ I

Örüntü Tanıma (EE 448) Ders Detayları

İÇİNDEKİLER. BÖLÜM 1 Değişkenler ve Grafikler 1. BÖLÜM 2 Frekans Dağılımları 37

İÇİNDEKİLER ÖNSÖZ Bölüm 1 SAYILAR 11 Bölüm 2 KÜMELER 31 Bölüm 3 FONKSİYONLAR

MEH535 Örüntü Tanıma

Şimdi de [ ] vektörünün ile gösterilen boyu veya büyüklüğü Pisagor. teoreminini iki kere kullanarak

Tıbbi Tahminde Alternatif Bir Yaklaşım: Destek Vektör Makineleri

İÇİNDEKİLER 1. GİRİŞ...

YÖNEYLEM ARAŞTIRMASI - III

CBS ve Coğrafi Hesaplama

GENETİK ALGORİTMALARA GİRİŞ (II) BİNARİ KODLANMIŞ GA

İlk Yapay Sinir Ağları. Dr. Hidayet Takçı

BKİ farkı Standart Sapması (kg/m 2 ) A B BKİ farkı Ortalaması (kg/m 2 )

Destek Vektör Makineleriyle Sınıflandırma Problemlerinin Çözümü İçin Çekirdek Fonksiyonu Seçimi

2. BASİT DOĞRUSAL REGRESYON 12

Simpleks Yönteminde Kullanılan İlave Değişkenler (Eşitliğin yönüne göre):

YÖNEYLEM ARAŞTIRMASI - III

VERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN

Web Madenciliği (Web Mining)

Makine Öğrenmesi 2. hafta

DOKUZ EYLÜL ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ MÜDÜRLÜĞÜ DERS/MODÜL/BLOK TANITIM FORMU. Dersin Orjinal Adı: Pattern Recognition

MATEMATİK ÖĞRETMENLİK ALAN BİLGİSİ - DENEME SINAVI DENEME. Diğer sayfaya geçiniz.

ÇEV 2006 Mühendislik Matematiği (Sayısal Analiz) DEÜ Çevre Mühendisliği Bölümü Doç.Dr. Alper ELÇĐ

DOĞRUSAL PROGRAMLAMADA DUALİTE (DUALITY)

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Makine Öğrenmesi. Erhan AKDOĞAN, Ph.D.

3 KESİKLİ RASSAL DEĞİŞKENLER VE OLASILIK DAĞILIMLARI

YAPAY SİNİR AĞLARI. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ

Matris Cebiriyle Çoklu Regresyon Modeli

VERİ MADENCİLİĞİ. Karar Ağacı Algoritmaları: SPRINT algoritması Öğr.Gör.İnan ÜNAL

Genel Graf Üzerinde Mutlak 1-merkez

Zeki Optimizasyon Teknikleri

13. Olasılık Dağılımlar

Hafta 09 -Topluluk Yöntemleri - Boyut Azaltma - Anomali Tespiti

BSM-767 MAKİNE ÖĞRENMESİ. Doğrusal Ayırıcılar (Linear Discriminants)

Zeki Optimizasyon Teknikleri

Kümeler arası. Küme içi. uzaklıklar. maksimize edilir. minimize edilir

T.C. DOKUZ EYLÜL ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ EKONOMETRİ ANABİLİM DALI EKONOMETRİ DOKTORA PROGRAMI

Concept Learning. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ. Yapay Zeka - Kavram Öğrenme

İstatistik ve Olasılık

EM302 Yöneylem Araştırması 2 Çok değişkenli DOP ların çözümü. Dr. Özgür Kabak

YZM 3217 YAPAY ZEKA DERS#10: KÜMELEME

FABRİKA ORGANİZASYONU Üretim Planlama ve Yönetimi 2. Uygulama: Sipariş ve Parti Büyüklüğü Hesaplama

Web Madenciliği (Web Mining)

Genetik Algoritmalar. Bölüm 1. Optimizasyon. Yrd. Doç. Dr. Adem Tuncer E-posta:

ZAMAN SERİLERİNİN ÖNGÖRÜSÜ İÇİN GKA TABANLI DVR METODLARI YÜKSEK LİSANS TEZİ. Bahadır BİCAN. Bilgisayar Mühendisliği Anabilim Dalı

Lineer Programlama. Doğrusal terimi, hem amaç hem de kısıtları temsil eden matematiksel fonksiyonların doğrusal olduğunu gösterir.

Koşullu Öngörümleme. Bu nedenle koşullu öngörümleme gerçekleştirilmelidir.

İÇİNDEKİLER ÖNSÖZ Bölüm 1 KÜMELER Bölüm 2 SAYILAR

OLASILIK ve KURAMSAL DAĞILIMLAR

Tesadüfi Değişken. w ( )

İçindekiler. Ön Söz... xiii

2.1 Bir Sınıfı Örneklerinden Öğrenme Vapnik-Chervonenkis (VC) Boyutu Olası Yaklaşık Doğru Öğrenme... 21

BAYES ÖĞRENMESİ BİLECİK ÜNİVERSİTESİ. Araş. Gör. Nesibe YALÇIN. Yapay Zeka-Bayes Öğrenme

K-En Yakın Komşu Algoritması Parametrelerinin Sınıflandırma Performansı Üzerine Etkisinin İncelenmesi

Temelleri. Doç.Dr.Ali Argun Karacabey

İleri Örüntü Tanıma Teknikleri Ve Uygulamaları İçerik

T.C. TRAKYA ÜNİVERSİTESİ FEN BİLİMLERİ ENTSTİTÜSÜ

KAHKAHA TANIMA İÇİN RASSAL ORMANLAR

Esnek Hesaplamaya Giriş

Yöneylem Araştırması II

COĞRAFİ BİLGİ SİSTEMLERİ YARDIMIYLA TRAFİK KAZALARININ TESPİTİNDE YENİ BİR VERİ ÖLÇEKLEME YÖNTEMİ: KOMŞU TABANLI ÖZELLİK ÖLÇEKLEME (KTÖÖ)

PERGEL YAYINLARI LYS 1 DENEME-6 KONU ANALİZİ SORU NO LYS 1 MATEMATİK TESTİ KAZANIM NO KAZANIMLAR

Makine Öğrenmesi İle Duygu Analizinde Veri Seti Performansı

Oluşturulan evren listesinden örnekleme birimlerinin seçkisiz olarak çekilmesidir

Kümeleme Algoritmaları. Tahir Emre KALAYCI

Yrd. Doç. Dr. A. Burak İNNER

Doğrusal Programlamada Grafik Çözüm

Sıralama Öğrenme ile Sağkalım Tahminleme

Örnek. Aşağıdaki veri setlerindeki X ve Y veri çiftlerini kullanarak herbir durumda X=1,5 için Y nin hangi değerleri alacağını hesaplayınız.

Bu bölümde Coulomb yasasının bir sonucu olarak ortaya çıkan Gauss yasasının kullanılmasıyla simetrili yük dağılımlarının elektrik alanlarının çok

VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN

Üç Boyutlu Uzayda Koordinat sistemi

Şehir ve Bölge Planlamada Tasarım Değişkeni Boğuculuk Fonksiyonu için Değişkeleme Önerisi. R. Haluk KUL TC Beykent Üniversitesi,

Naive Bayes Yöntemi ile Spam Mail Teşhisi Kübra KURNAZ

Hatalar Bilgisi ve İstatistik Ders Kodu: Kredi: 3 / ECTS: 5

Kısıtsız Optimizasyon OPTİMİZASYON Kısıtsız Optimizasyon

Duyarlılık Analizi, modelde veri olarak kabul edilmiş parametrelerde meydana gelen değişimlerin optimum çözüme etkisinin incelenmesidir.

YÖNEYLEM ARAŞTIRMASI - I

SÜREKLİ RASSAL DEĞİŞKENLER

ERCİYES ÜNİVERSİTESİ KİMYA ANABİLİM DALI

Mühendislik Mekaniği Statik. Yrd.Doç.Dr. Akın Ataş

BÖLÜM 6 MERKEZDEN DAĞILMA ÖLÇÜLERİ

Büyük Veri ve Endüstri Mühendisliği

Bekleme Hattı Teorisi

Mühendislik Mekaniği Statik. Yrd.Doç.Dr. Akın Ataş

EM302 Yöneylem Araştırması 2. Dr. Özgür Kabak

6. HAFTA DERS NOTLARI İKTİSADİ MATEMATİK MİKRO EKONOMİK YAKLAŞIM. Yazan SAYIN SAN

Transkript:

Destekçi Vektör Makineleri Destekçi Vektör Makineleri(Support Vector Machines) Değişkenler arasındaki örüntülerin bilinmediği veri setlerindeki sınıflama problemleri için önerilmiş bir makine öğrenmesi yöntemidir. Sınıflama, regresyon ve aykırı değer belirleme için kullanılabilen eğiticili (supervised) öğrenme yöntemidir. Eğitim verisinde öğrenme yaparak yeni veri üzerinde doğru tahmin yapmaya ve genelleştirmeye çalışan makine öğrenmesidir. İstatistiksel öğrenme teorisine ve yapısal risk minimizasyonuna dayanmaktadır. Sınıflama Sınıflama, benzer özellikteki nesnelerin önceden belirlenmiş alt gruplara atanması işlemidir. İki esas amaç vardır: 1.Veriyi sadeleştirmek 2.Kestirim yapmak Veri Madenciliğinde Kullanılan Sınıflandırma Yöntemleri 1. 2. 3. 4. Karar Ağaçları Navie Bayes K-en yakın komşuluğu Yapay Sinir Ağları 5. Genetik Algoritmalar

6. Random Forest 7. Destek Vektör Makineleri Tarihçe 1. 2. 3. 4. 5. 6. 7. 8. Doğrusal Diskriminant Yöntemi Fisher,1936 Perceptron-F.Rosenblatt,1957 Genelleştirilmiş Düşey Algoritmaları(Generalized Portrait Algorthm)- Vapnik ve Lerner,1963 İstatiksel Öğrenme-Vapnik ve Chervonenkis,1974 Estimation of Depences Based of Emprical Data- Vapnik,1982 VC Teorisi- Vapnik,1982 Kernel Trick-Busor,Guyon ve Vapnik,1992 Soft marjin yaklaşımı Cortes, 1995 Destekçi Vektör Makineleri DVM ler nonparametrik sınıflayıcılardır.dağılım hakkında herhangi bir ön bilgi varsayımı yoktur.eğitim setlerinde girdi ve çıktılar eşlenir.eşler aracılığıyla, test setinde ve yeni veri setlerinde girdi değişkenini sınıflayacak karar fonksiyonları elde edilir.girdi verisi (input data)doğrusal olarak ayrılabildiğinde; verileri ayırabilecek sonsuz sayıdaki doğru içerisinden marjini en yüksek yapacak olan doğruyu seçmeyi hedeflemektedir.doğrusal olarak ayrılamadığında; iorijinal çalışma verisini yüksek boyuta dönüştürmek için doğrusal olmayan haritalama (mapping) kullanmaktadır. Verinin taşındığı yeni boyutta marjini en büyük (optimal) ayırıcı düzlemi araştırmaktadır. Avantajları 1. Yüksek doğruluk

2. Karmaşık karar sınırları modelleyebilme 3. Çok sayıda bağımsız değişkenle çalışabilme 4. Hem doğrusal olarak ayrılan hem doğrusal olarak ayrılamayan verilere uygulanabilme 5. Diğer birçok yönteme kıyasla overfitting sorunun az olması Dezavantajları 1. 2. Olasılıksal tahminler üretememe / Nokta tahmini (Var- Yok, A sınıfı-b Sınıfı vb.) Çekirdek fonksiyonlar için Mercer Koşulu zorunluluğu / Çekirdek fonksiyonları pozitif tanımlı sürekli simetrik fonksiyonlar olmalı) Kullanım Alanları Nesne tanıma.. (Yüz tanıma, parmak izi tanıma.. vb) El yazısı tanıma. Zaman serisi tahmin testleri. Biyoinformatik (Microarray verilerin analizi) İstatistiksel Öğrenme Teorisi Vapnik-Chervonenkis Teorisi Amaç: Dağılımdan bağımsız yöntemler ile tahminler üzerinde test hatası için sınırlar üretmektir.klasik istatistik, doğru modelin formunun bilindiğini varsayıp, amacı modelin parametrelerini belirlemek olarak görürken; istatistiksel öğrenme teorisi modelin formunun bilinmediğini kabul etmekte ve doğru olabilecek modeller arasından en iyi modelin bulunmasını hedeflemektedir

VC Teorisi (Vapnik-Chervonenkis) VC teorisi ile öğrenebilirliğin yeterli şartlarının yanında gerekli şartlarını da ortaya koymuşlardır. Gerekli şartlar kapasite kavramına dayanmaktadır. VC teorisinin bilinen en iyi kapasite ölçüsü VC boyutudur.öğrenme makinesinin kapasitesi, makinenin genelleme kabiliyeti üzerinde etkilidir. Vapnik- Chervonenkis (VC) BoyutuVC boyutu fonksiyonlar sınıfının {f(α)} (ya da kümesinin) sahip olduğu bir özelliktir.bu kümenin kapasitesi hakkında somut bir fikir vermektedir. VC boyutunu hesaplamak için parçalama (shattering) kullanılmaktadır VC Boyut Örneği Şekil 1. Hyperplane yüzey şekilleri Yapısal Risk Minimizasyonu (YRM) Genelleme hatası için bir açıklamadır Genelleme hatası; deneysel hata, denemedeki örnek sayısı ve kapasiteden etkilenmektedir

YRM, gerçek risk için üst sınırı minimize edecek fonksiyonu araştırmaktadır Gerçek risk için üretilen üst sınır (VC boyutu) monoton artan bir fonksiyonu olduğu için çözümü yapı adı verilen alt kümeler aracılığıyla bulunmaya çalışılır. Her alt küme için deneysel risk minimize edilerek deneysel risk ve güvenirliğin toplamı minimize edilmiş olur. Doğrusal olarak Doğrusal ayrılması Olmayan DVM imkansız veriler Amaç doğruyu nereye çizeceğimiz ve marjinin en yüksek değerine nerede ulaşabileceğimizdir. Şekil 2. Doğrusal Ayırma Verilerin Doğrusal Olarak Ayrılabildiği Durum ( Hard Margin) Maksimum Marjin(Mesafe) Formülü w: çoklu düzlemin normali (ağırlık vektörü) xi: i veri noktası yi: i veri noktasının sınıfı (+1 veya -1)

b : bias Sınıflandırıcı: f(xi) = sign(wt xi + b) xi nin fonksiyonel marjini yi(wt xi + b) Fakat biz w, b değerlerini ölçekleyerek marjini artırabiliriz. Veri kümesinin Fonksiyonel marjini, herhangi bir noktadaki minimum fonksiyonel marjinin iki katıdır. Buradaki 2, marjinin tam genişliğinin ölçüsünden gelmektedir. Hard Margin Eğitim seti; {xi,yi} i=1,2,,l Sınıf etiketleri ; yi Є {-1, +1} Ayırıcı düzlem: <w.x> +b= 0 w ; çoklu düzlemin normali (ağırlık vektörü ) b : bias x; <w.x>+b= 0 çoklu düzlemi üzerinde herhangi bir nokta Kesikli çizgilerle gösterilen ve ayırıcı çoklu düzleme paralel olarak çizilmiş eşit uzaklıkta iki çoklu düzlem (doğru) arasındaki uzaklığa marjin adı verilmektedir. <w,x1>+b=+1, yi= +1 için <w,x2>+b=-1, yi= -1 için Destek vektörlerinin, ayırıcı çoklu düzleme olan uzaklığı 1/ w Dolayısıyla marjin: 2/ w w :w nin öklid formu

Verilerin doğrusal olarak ayrılamadığı durum ( Soft Margin) Genel olarak, pratikte veriler tamamen doğrusal olarak ayrılamamaktadır. Şekilde tek bir noktadan dolayı B 1 düzlemi tüm noktaları ayıramamaktayken, B 2 tamamını ayırmaktadır, ancak daha küçük marjine sahiptir. Soft marjn yaklaşımı bu tip problemler için, deneme hatalarını tolere edebilecek bir yaklaşımdır. Verilerin doğrusal olarak ayrılamadığı durum ( Soft Margin) Negatif olmayan slack değişken adı ile bir değişken tanımlanmıştır. Sert marjinde elde edilen kısıtlara slack değişken eklenir. Miniizasyona aynen devam edilir. Kullanıcı tarafından belirlenen hata maliyeti (C) eklenir. Hata maliyeti (marjin maksimizasyonu ile deneme hatası minimizasyonu arasındaki ödünleşimi belirler) Yüksek C değeri=yüksek hata beklentisi Doğrusal olmayan Destek Vektör Makineleri Doğrusal DVM den farkı x yerine Φ(x) kullanılmasıdır. Buradaki sorunlar: 1- Dönüştürülmüş uzayda oluşturulacak doğrusal karar sınırı ile ilgili nasıl bir haritalama fonksiyonu kullanılacağı açık değildir. 2-Uygulanan haritalama fonksiyonu biliniyorsa, kurulan optimizasyon probleminin yüksek boyutlu olay uzayında çözümü

karmaşık ve zor hesaplamalar gerektirir. Doğrusal Olmayan DVM Denklemler dönüştürülmüş uzayda iki vektörün iç çarpımı biçimindedir. Boyut sorunundan dolayı hesaplanması zordur. Bu sorunu önlemek amacıyla çekirdek düzenlemesi önerilmiştir. Çekirdek Düzenlemesi : Çekirdek düzenlemesi yapılarak dönüştürülmüş uzaydaki Φ(x) vektörü yerine girdi uzayındaki verilerden oluşturulan bir çekirdek fonksiyonu ile işlemler yapılır. orijinal veriyi kullanarak dönüştürülmüş uzayda bir benzerlik hesaplaması yapar. Lineer Olarak Ayrılmayan Durumlar İçin Veri kümeleri lineer olarak ayrılabilir. Fakat veri kümeleri çok keskin(hard) ise ne yapacağız? Daha yüksek boyutlu uzayda veriyi haritalayabiliriz (ifade edebiliriz). Lineer Olarak Ayrılamayan Durum İçin Veriler doğrusal olarak ayrılamadığında, veriyi doğrusal olmayan haritalama (Φ) yaparak orijinal girdi uzayından, daha yüksek boyuttaki bir uzaya aktarır. Bu yeni boyutta veriyi en iyi ayıracak çoklu düzlemi araştırır. Çekirdek Fonksiyonları (Kernels) Niçin çekirdek fonksiyonu kullanalım? Ayrılamaz problemleri ayrılabilir yapabilme. Veriyi daha iyi gösterim uzayında haritalama için

Genel Çekirdek Fonksiyonları Lineer Polinomsal Gaussian Radyal tabanlı Sigmoid Çekirdek Fonksiyon Çalışmada sıklıkla kullanılan üç çekirdek fonksiyon karşılaştırılmıştır: 1- Doğrusal fonksiyon: 2- Polinomiyal fonksiyon: 3- Sigmoid fonksiyon: 4- Radyal tabanlı fonksiyon: Doğrusal olmayan Destek Vektör Makineleri Avantajları Direk girdi uzayındaki veriler kullanılacağı için Φ haritalama fonksiyonun kesin olarak ne olduğunun bilmeye gerek duyulmaması. Çekirdek fonksiyon kullanarak iç çarpım hesaplamanın, dönüştürülmüş nitelik seti Φ(x) kullanarak hesaplamaya kıyasla daha kolay ve maliyetinin düşük olması Dönüştürülmüş uzayda iki vektörün iç çarpımı: Orijinal veriden hesaplanan bu benzerlik fonksiyonu ile gösterilen çekirdek fonksiyonudur. Kaynakça Açık Kaynak WEKA Data Mining Yazılımı http://www.cs.waikato.ac.nz/ml/weka/ https://www.youtube.com/watch?v=3licbrzprza

http://www.csie.ntu.edu.tw/~cjlin/libsvm/ https://www.ce.yildiz.edu.tr/personal/banud/file/2634/ma kine+ogrenmesi-ml-10.pdf http://ninova.itu.edu.tr/tr/dersler/bilisim-enstitusu/19 5/bbl-606/ekkaynaklar?g9769 http://aves.cu.edu.tr/imageofbyte.aspx?resim=8&ssno=13&u SER=1950