İSTANBUL TEKNİK ÜNİVERSİTESİ ELEKTRİK-ELEKTRONİK FAKÜLTESİ ELEKTRONİK MÜHENDİSLİĞİ BÖLÜMÜ



Benzer belgeler
Bilgisayarla Görüye Giriş

Uzaktan Algılama Teknolojileri

VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN

VERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN

Web Madenciliği (Web Mining)

VERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN

K En Yakın Komşu Methodu (KNearest Neighborhood)

GÖRÜNTÜ İŞLEME - (7.Hafta) KENAR BELİRLEME ALGORİTMALARI

Yrd. Doç. Dr. Fatih TOSUNOĞLU Erzurum Teknik Üniversitesi Mühendislik Fakültesi İnşaat Mühendisliği Bölümü

MOD419 Görüntü İşleme

Görüntü İşleme. Dijital Görüntü Tanımları. Dijital görüntü ise sayısal değerlerden oluşur.

MAK 210 SAYISAL ANALİZ

İÇİNDEKİLER. BÖLÜM 1 Değişkenler ve Grafikler 1. BÖLÜM 2 Frekans Dağılımları 37

Makine Öğrenmesi 2. hafta

VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN

Kirişlerde Kesme (Transverse Shear)

Hızlı Düzey Küme Yöntemine Bağlı Retinal Damar Bölütlemesi. Bekir DİZDAROĞLU. KTÜ Bilgisayar Mühendisliği Bölümü

Bilgisayarla Görüye Giriş

Görüntü İşleme. K.Sinan YILDIRIM Cenk İNCE Tahir Emre KALAYCI. Ege Üniversitesi Bilgisayar Mühendisliği Bölümü 2003

Bilgisayarla Görüye Giriş

KADASTRO HARİTALARININ SAYISALLAŞTIRILMASINDA KALİTE KONTROL ANALİZİ

Örnek 4.1: Tablo 2 de verilen ham verilerin aritmetik ortalamasını hesaplayınız.

Bölüm 3. Tanımlayıcı İstatistikler

Kümeler arası. Küme içi. uzaklıklar. maksimize edilir. minimize edilir

Mühendislik Mekaniği Statik. Yrd.Doç.Dr. Akın Ataş

CBS ve Coğrafi Hesaplama

Uzaktan Algılama Uygulamaları

BÖLÜM III: Şebeke Modelleri. Şebeke Kavramları. Şebeke Kavramları. Şebeke Kavramları. Yönlü Şebeke (Directed Network) Dal / ok

Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)

Görüntü Sınıflandırma

2.1 Gri Düzey Eş Oluşum Matrisi ( GLCM) Gri düzey eş oluşum matrisi Haralick tarafından öne sürülmüştür [1]. Đstatistiksel doku analizi yöntemidir.

Web Madenciliği (Web Mining)

PARÇACIK SÜRÜ OPTİMİZASYONU BMÜ-579 METASEZGİSEL YÖNTEMLER YRD. DOÇ. DR. İLHAN AYDIN

VERİ MADENCİLİĞİ (Veri Ön İşleme-2) Yrd.Doç.Dr. Kadriye ERGÜN

Yıldız Teknik Üniversitesi Fen Bilimleri Enstitüsü Bilgisayar Mühendisliği Bölümü. Bilgisayarla Görme. Final

YZM 3217 YAPAY ZEKA DERS#10: KÜMELEME

BÖLÜM 4: MADDESEL NOKTANIN KİNETİĞİ: İMPULS ve MOMENTUM

Nicel / Nitel Verilerde Konum ve Değişim Ölçüleri. BBY606 Araştırma Yöntemleri Bahar Dönemi 13 Mart 2014

Web Madenciliği (Web Mining)

Görüntü İşleme Dersi Ders-8 Notları

İşaret ve Sistemler. Ders 3: Periyodik İşaretlerin Frekans Spektrumu

KISITLI OPTİMİZASYON

Görüntü Segmentasyonu (Bölütleme)

Eğitim seti (training set) sınıflandırma modelinin elde edileceği kayıtları içerir

DENEY 3: DTMF İŞARETLERİN ÜRETİLMESİ VE ALGILANMASI

Özörgütlemeli Öğrenme (SOM) A. Cumhur KINACI

TOPSIS yönteminin adımları 5 Adım 1. Normalize karar matrisinin oluşturulması 6 Karar matrisinin normalizasyonu aşağıdaki formül kullanılarak yapılır:

Mühendislikte İstatistik Yöntemler

KAYMA GERİLMESİ (ENİNE KESME)

VERİ KÜMELERİNİ BETİMLEME

YAPAY SİNİR AĞLARI. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ

Temel İstatistik. Y.Doç.Dr. İbrahim Turan Mart Tanımlayıcı İstatistik. Dağılımları Tanımlayıcı Ölçüler Dağılış Ölçüleri

Bilgisayarla Görüye Giriş

Bir işaretli büyüklük sayısında en soldaki basamak bir işaret içerir. Diğer basamaklarda ise sayısal değerin büyüklüğü (mutlak değeri) gösterilir.

Fonksiyon Optimizasyonunda Genetik Algoritmalar

Karabük Üniversitesi, Mühendislik Fakültesi... STATİK (4. Hafta)

İSTATİSTİK EXCEL UYGULAMA

Kitle: Belirli bir özelliğe sahip bireylerin veya birimlerin tümünün oluşturduğu topluluğa kitle denir.

JEODEZİK AĞLARIN OPTİMİZASYONU

OPTİMİZASYON TEKNİKLERİ-2. Hafta

ÖZDEĞERLER- ÖZVEKTÖRLER

127 - Twoing Algoritması ile Sınıflandırma Kalp Hastalığı Uygulaması MEHMET AKİF ERSOY ÜNİVERSİTESİ İLHAN UYSAL MEHMET BİLEN SAMİ ULUKUŞ

Mukavemet-I. Yrd.Doç.Dr. Akın Ataş

13. Olasılık Dağılımlar

ENM 5210 İSTATİSTİK VE YAZILIMLA UYGULAMALARI. Ders 2 Merkezi Eğilim Ölçüleri

İÇİNDEKİLER ÖN SÖZ...

Bu bölümde; Çok ölçütlü karar verme yöntemlerinden biri olan TOPSİS yöntemi anlatılacaktır.

Tanımlayıcı İstatistikler. Yrd. Doç. Dr. Emre ATILGAN

m=n şeklindeki matrislere kare matris adı verilir. şeklindeki matrislere ise sütun matrisi denir. şeklindeki A matrisi bir kare matristir.

İSTATİSTİKSEL PROSES KONTROLÜ

3.2. Raster Veriler. Satırlar. Sütunlar. Piksel/hücre büyüklüğü

SÜREKLİ ŞANS DEĞİŞKENLERİ. Üstel Dağılım Normal Dağılım

VEKTÖR UZAYLARI 1.GİRİŞ

İSTANBUL TİCARET ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ BİLGİSAYAR SİSTEMLERİ LABORATUARI

2.1 Bir Sınıfı Örneklerinden Öğrenme Vapnik-Chervonenkis (VC) Boyutu Olası Yaklaşık Doğru Öğrenme... 21

KAHKAHA TANIMA İÇİN RASSAL ORMANLAR

ORTALAMA ÖLÇÜLERİ. Ünite 6. Öğr. Gör. Ali Onur CERRAH

5. Elektriksel Büyüklüklerin Ölçülebilen Değerleri

KARINCA KOLONİ ALGORİTMASI BMÜ-579 Meta Sezgisel Yöntemler. Yrd. Doç. Dr. İlhan AYDIN Fırat Üniversitesi, Bilgisayar Mühendisliği Bölümü

Makine Öğrenmesi 3. hafta

Makine Öğrenmesi İle Duygu Analizinde Veri Seti Performansı

TANIMLAYICI İSTATİSTİKLER

BÖLÜM 9 NORMAL DAĞILIM

GENETİK ALGORİTMALARA GİRİŞ (II) BİNARİ KODLANMIŞ GA

(AYIRIM) DENLİ. Emre KUZUGÜDENL. Doç.Dr.Serdar CARUS

YAPI STATİĞİ II (Hiperstatik Sistemler) Yrd. Doç. Dr. Selçuk KAÇIN

KARŞILAŞTIRMA İSTATİSTİĞİ, ANALİTİK YÖNTEMLERİN KARŞILAŞTIRILMASI, BİYOLOJİK DEĞİŞKENLİK. Doç.Dr. Mustafa ALTINIŞIK ADÜTF Biyokimya AD 2005

Okut. Yüksel YURTAY. İletişim : (264) Sayısal Analiz. Giriş.

Algoritma Geliştirme ve Veri Yapıları 9 Ağaç Veri Modeli ve Uygulaması. Mustafa Kemal Üniversitesi

TEMEL MEKANİK 4. Yrd. Doç. Dr. Mehmet Ali Dayıoğlu Ankara Üniversitesi Ziraat Fakültesi Tarım Makinaları ve Teknolojileri Mühendisliği Bölümü

BLG325.1 SINYAL ISLEME DERSİ BİLGİ PAKETİ. Haftalık Ders Planı

RASGELE SÜREÇLER İ.Ü. ELEKTRİK ELEKTRONİK MÜHENDİSLİĞİ İLETİŞİM LABORATUVARI ARALIK, 2007

HATA VE HATA KAYNAKLARI...

SAYISAL ÇÖZÜMLEME. Sayısal Çözümleme

Tek Değişkenli Optimizasyon OPTİMİZASYON. Gradient Tabanlı Yöntemler. Bisection (İkiye Bölme) Yöntemi

MAK1010 MAKİNE MÜHENDİSLİĞİ BİLGİSAYAR UYGULAMALARI

MAK 210 SAYISAL ANALİZ

Yapı Sistemlerinin Hesabı İçin. Matris Metotları. Prof.Dr. Engin ORAKDÖĞEN Doç.Dr. Ercan YÜKSEL Bahar Yarıyılı

SAYISAL KARARLILIK. Zaman Uzayı Sonlu Farklar Yöntemi

8.333 İstatistiksel Mekanik I: Parçacıkların İstatistiksel Mekaniği

Transkript:

İSTANBUL TEKNİK ÜNİVERSİTESİ ELEKTRİK-ELEKTRONİK FAKÜLTESİ ELEKTRONİK MÜHENDİSLİĞİ BÖLÜMÜ BİTİRME PROJESİ Karar Ağacı ve SOM Ağı ile Doku Bölütleme Hazırlayan Cem Mutlu, 040090365 Danışman Prof. Dr. Zümray DOKUR MAYIS 2015

ÖNSÖZ Bu çalışmayı hazırlamamda bana yol gösteren ve benden bilgisini, desteğini ve yardımını hiçbir zaman esirgemeyen Sayın Prof. Dr. Zümray Dokur a en içten teşekkürlerimi sunarım. Mayıs, 2015 Cem Mutlu ii

İÇİNDEKİLER 2.1 İstatistiksel Öznitelikler... 2 2.1.1 Ortalama... 3 2.1.2 Medyan... 3 2.1.3 Geometrik Ortalama... 4 2.1.4 Harmonik Ortalama... 4 2.1.5 Standart Sapma... 5 2.1.6 Basıklık (Kurtosis)... 6 2.1.7 Çarpıklık (Skewness)... 6 2.2 Dönüşümler İle Elde Edilen Öznitelikler... 8 2.2.1 Fourier Dönüşümü... 8 2.2.2 Canny Kenar Belirleme... 10 2.3 Gri-Ton Dağılımından Elde Edilen Öznitelikler... 12 2.3.1 Moment... 12 iii

2.3.2 Merkezi Moment... 13 2.3.3 Mutlak Merkezi Moment... 13 2.3.4 Entropi... 13 2.3.5 Enerji... 14 2.4 Komşuluk Gri-Ton Fark Matrisi... 14 2.4.1 İrilik... 14 2.4.2 Kontrast... 15 2.4.3 Ani Değişkenlik ( Busyness )... 15 2.4.4 Karmaşıklık... 15 2.4.5 Doku Kuvveti... 16 3.1 Karar Ağacı... 17 3.1.1 Karar Ağacı Öğrenmesi... 18 3.1.2 Karar ağacının Avantaj ve Dezavantajları... 20 3.1.3 Karar Ağacının Sınırlandırılması... 21 3.2 Öz-Düzenleyen Harita Ağı (SOM)... 21 3.2.1 Öz-Düzenleyen Harita Ağının Avantajları ve Dezavantajları... 23 3.3 K-En Yakın Komşu (KNN) Sınıflayıcısı... 24 4.1 Bölütlemede Kullanılan Doku Görüntüleri ve Öznitelikler... 26 4.2 Karar Ağacının Benzetim Sonuçları... 30 4.3 SOM Ağının Benzetim Sonuçları... 37 4.4 KNN Sınıflayıcısının Benzetim Sonuçları... 41 4.5 Sınıflayıcıların Başarımlarının Karşılaştırılması... 44 iv

v

ŞEKİL LİSTESİ Şekil 1.1 Doku Bölütleme Adımları... 1 Şekil 2.1 Brodatz albümünden örnek dokular [3]... 2 Şekil 2.2 Gürültülü medikal doku görüntüsünde harmonik ortalama işlemi [8]... 5 Şekil 2.3 Harmonik filtrenin kenar özniteliklerini koruduğu medikal doku görüntüsü [8]5 Şekil 2.4 Negatif Çarpıklık... 7 Şekil 2.5 Pozitif çarpıklık... 7 Şekil 2.6 Örnek bir görüntü ve 2 boyutlu Fourier dönüşümü [12]... 9 Şekil 2.7 Sol üst: Örnek görüntü, Sağ üst: Filtrelenmiş görüntü, Sol alt: Orijinal resmin frekans gösterimi, Orta alt: Filtre, Sağ alt: Filtrelenmiş resmin frekans gösterimi [13].. 10 Şekil 2.8 Canny Kenar Belirleme yönteminin aşamaları [15]... 11 Şekil 2.9 NxN boyutundaki alt pencereler [17]... 12 Şekil 3.1 Müşterilerin telefon kullanımını gösteren örnek bir karar ağacı... 18 Şekil 3.2 SOM ağında giriş vektörü ile düğümler arasındaki bağlantılar [30]... 22 Şekil 3.3 KNN sınıflayıcısının k=3 ve k=6 değerleri için gösterimi [33]... 24 Şekil 4.1 İlk benzetimde kullanılan beş farklı Brodatz dokusu... 26 Şekil 4.2 İkinci benzetimde kullanılan dört farklı Brodatz dokusu... 27 Şekil 4.3 Üçüncü benzetimde kullanılan Ultrasonik fantom dokular... 27 Şekil 4.4 İlk benzetim için kullanılan test görüntüsü... 27 Şekil 4.5 İkinci benzetim için kullanılan test görüntüsü... 28 Şekil 4.6 Üçüncü benzetim için kullanılan medikal test görüntüsü... 28 Şekil 4.7 İlk benzetimdeki test görüntüsünün bölütlenmiş hali (ideal durum)... 29 Şekil 4.8 Karar ağacı ile bölütlenmiş beş sınıflı doku görüntüsü, derinlik 12, en az veri 8, en az kazanç 2... 31 vi

Şekil 4.9 Beş sınıflı doku görüntüsü için en başarılı Karar Ağacının yapısı... 32 Şekil 4.10 Karar ağacı ile bölütlenmiş dört sınıflı doku görüntüsü, derinlik 12, en az veri 2, en az kazanç 8... 35 Şekil 4.11 Karar ağacı ile bölütlenmiş ultrasonik fantom doku görüntüsü, derinlik 12, en az veri 2, en az kazanç 2... 37 Şekil 4.12 SOM ile bölütlenmiş beş sınıflı doku görüntüsü, düğüm sayısı 900, iterasyon sayısı 8000, komşuluk 2... 38 Şekil 4.13 SOM ile bölütlenmiş dört sınıflı doku görüntüsü, düğüm sayısı 900, iterasyon sayısı 16000, komşuluk 2... 40 Şekil 4.14 SOM ile bölütlenmiş ultrasonik fantom doku görüntüsü, düğüm sayısı 400, iterasyon sayısı 24000, komşuluk 2... 41 Şekil 4.15 KNN ile bölütlenmiş beş sınıflı doku görüntüsü, K=4... 42 Şekil 4.16 KNN ile bölütlenmiş dört sınıflı doku görüntüsü, K=1... 43 Şekil 4.17 KNN ile bölütlenmiş ultrasonik fantom doku görüntüsü, K=1... 44 Şekil 4.18 Bölütlenmiş beş sınıflı doku görüntüleri... 45 Şekil 4.19 Bölütlenmiş dört sınıflı doku görüntüleri... 46 Şekil 4.20 Bölütlenmiş ultrasonik fantom doku görüntüleri... 47 Şekil 5.1 Bölütlenmiş doku görüntüleri... 49 vii

TABLO LİSTESİ Tablo 4.1 Çalışmada kullanılan öznitelikler... 29 Tablo 4.2 Beş sınıflı doku görüntüsü için karar ağacının başarımları... 30 Tablo 4.3 Karar Ağacının 3 derinliğe kadar olan düğümlerinin doku dağılımları... 33 Tablo 4.4 Dört sınıflı doku görüntüsü için karar ağacının başarımları... 34 Tablo 4.5 Medikal doku görüntüsü için karar ağacının başarımları... 35 Tablo 4.6 Beş sınıflı doku görüntüsü için SOM ağının başarımları... 37 Tablo 4.7 Dört sınıflı doku görüntüsü için SOM ağının başarımları... 39 Tablo 4.8 Ultrasonik fantom doku görüntüsü için SOM ağının başarımları... 40 Tablo 4.9 Beş sınıflı doku görüntüsü için KNN ağı başarımları... 41 Tablo 4.10 Dört sınıflı doku görüntüsü için KNN ağı başarımları... 42 Tablo 4.11 Ultrasonik fantom doku görüntüsü için KNN başarımları... 43 Tablo 4.12 Sınıflayıcıların beş sınıflı doku görüntüsü için başarımları... 44 Tablo 4.13 Sınıflayıcıların beş sınıflı doku görüntüsü için doku bazında başarımları... 45 Tablo 4.14 Sınıflayıcıların dört sınıflı doku görüntüsü için doku bazında başarımları... 46 Tablo 4.15 Sınıflayıcıların Ultrasonik fantom doku görüntüsü için doku bazında başarımları... 46 Tablo 5.1 Sınıflayıcıların farklı doku görüntüleriyle olan başarımları... 48 Tablo 5.2 Sınıflayıcıların farklı doku görüntülerindeki eğitim süreleri... 50 Tablo 5.3 Sınıflayıcıların farklı doku görüntülerindeki test süreleri... 50 viii

ÖZET Bu bitirme çalışmasında bir görüntü üzerindeki çeşitli dokuların makine öğrenmesi yöntemleriyle ayırt edilebilmesi amaçlanmıştır. Önceki çalışmalarımda farklı problemlerin çözümü için kullandığım Karar Ağacı ve Öz-Düzenleyen Harita Ağı sınıflayıcılarının doku bölütleme probleminin çözümündeki başarımları, avantajları ve dezavantajları karşılaştırmalı olarak incelenmiştir. Ayrıca bu iki yöntemin daha basit algoritmalara karşı avantajlarının görülebilmesi için K en yakın komşu algoritması kullanılmıştır. Doku bölütleme problemi, tıpta hastalığın tanısı için doku ile ilgili farklılıkların belirlenmesi, uydu görüntülerinin işlenmesi, görüntüde yüz bulma, görüntüde yazı bulma ve parmak izi tanıma gibi birçok farklı alanda karşılaşılan bir problemdir. Bölütlenecek doku karşılaşan alana göre değişiklik göstermektedir ve bölütleme yöntemlerinin başarısı bölütlenecek dokuya göre değişmektedir. Bu noktada seçilen yöntem önemli olduğu kadar dokuyu iyi temsil eden özniteliklerin seçilmesi de önemlidir. Bu amaçla literatürde bulunan öznitelikler araştırılmış ve çeşitli öznitelikler benzetimlerde kullanılmıştır. Ayrıca görüntü hızlı Fourier dönüşümü ile frekans uzayında da incelenmiş, Canny Kenar Belirleme algoritması ile çizgisel öznitelikler çıkarılmıştır. Çalışmada kullanılmak üzere literatürde çok sık kullanılan Brodatz veri tabanından farklı doku görüntüleri seçilmiştir. Bu doku görüntüleri kullanılan yöntemlere giriş olarak verilmiştir. Sonra bu dokuların bir arada bulunduğu ek bir görüntü de diğer girişlere birlikte verilip, görüntünün hangi bölümünde hangi doku olduğunu gösteren bölütlenmiş nihai görüntü elde edilmiştir. Alınan çıktı gerçek sınırlar ile karşılaştırılıp, çalışma süresi, kaynak tüketimi gibi etkenler de dikkate alınarak yöntemlerin başarımları incelenmiştir. ix

GİRİŞ VE LİTERATÜR ÖZETİ Doku bölütlemenin temel amacı görüntüyü dokusal özelliklerine göre farklı kısımlara ayırmaktır. Bu problemin çözümü için literatürde kullanılmış olan tekniklerin bir kısmı aşağıda listelenmiştir [1]. K-en yakın komşu kuralı Diskriminant analizi Destek vektör makineleri ( support vector machines ) Yapay sinir ağları ( artificial neural networks ) Genetik algoritmalar Karar ağacı öğrenmesi Kullanılan teknikler incelendiğinde doku bölütleme probleminin Şekil 1.1 de gösterilen temel adımlardan oluştuğu görülür [2]. İlk aşamada gürültü giderme, renk dengesi gibi ön işlemler uygulanır. Daha sonra görüntüden doku ile ilgili özellikleri temsil eden öznitelikler çıkarılır. Son olarak bu öznitelikler kullanılarak sınıflama yapılır. Ön İşlemler Özniteliklerin çıkarılması Sınıflama Şekil 1.1 Doku Bölütleme Adımları Doku bölütleme probleminde kullanılacak özniteliklerin seçimi çok önemlidir. Öznitelik seçerken dokusal özellikleri en iyi temsil eden öznitelikler seçilmelidir. Bazı çalışmalarda seçilen özniteliklerin zayıf olanlarının elenmesi veya özniteliklere ağırlık vermek gerekir. Yapılan çalışmalarda doğru özniteliklerin seçilmesinin sınıflama işlem süresini azalttığı ve başarımı yükselttiği görülmüştür [3]. 1

DOKUYA ÖZGÜ ÖZNİTELİKLERİN ÇIKARILMASI Doku, bir görüntü üzerindeki bir insanın gözüyle fark edilebilen düzenliliktir. Doğada karşılaşılan dokular genelde yansıyarak ve dönerek oluşan spiral, kıvrımlar, dalgalar ve kabarcıklar içerir. Doğada karşılaşılan bu dokuların ve bazı yapay dokuların arka planında matematiksel yapılar vardır. Matematiksel yapıların parametreleri bir dokuyu diğer dokulardan ayıran temel karakteristik özelliklerdir. Doku bölütleme tekniklerinin sınanabilmesi için bazı örnek dokular üzerinde çalışılır. Bunlardan akademik çalışmalarda en çok kullanılanlardan biri Brodatz albümüdür. Şekil 2.1 de Brodatz albümünden örnek dokular görülmektedir [4]. Şekil 2.1 Brodatz albümünden örnek dokular [3] Bu bölümün devamında çalışmada kullanılan öznitelikler ve öznitelik çıkartma yöntemleri anlatılacaktır. Öncelikle istatistiksel öznitelikler hakkında bilgi verilecektir. Daha sonra kullanılan dönüşümlerden çıkarılan öznitelikler, gri-ton dağılımından elde edilen öznitelikler ve gri-ton fark matrisi yöntemiyle elde edilen öznitelikler anlatılacaktır. 2.1 İstatistiksel Öznitelikler Doku bölütlemede ortalama, standart sapma, çarpıklık ve basıklık gibi istatistiksel özniteliklerin sınıflayıcı performansını arttırdığı gözlemlenmiştir [5]. İstatistiksel 2

öznitelikler çıkarılırken bir pencere içerisindeki piksellerin genlik değerlerinden temel istatistiksel ifadeler çıkarılır. Çalışmada istatistiksel öznitelikler 5, 7, 9, 11, 13 ve 15 olmak üzere 6 farklı pencere genişliği için hesaplanarak 42 farklı öznitelik elde edilmiştir. 2.1.1 Ortalama Ortalama, bir pencere içerisindeki piksellerin tümünü temsil eden ortalama gri-ton değerini belirten özniteliktir. Piksellerin ortalama gri-ton değerinin matematiksel ifadesi Denklem 2.1 de verilmiştir. N N i=1 j=1 P(i, j) P ort = N N (2.1) Port N : Piksellerin ortalama gri-ton değeri : Pencere boyutu P(i,j) : i-inci satır j-inci sütundaki pikselin gri-ton değeri 2.1.2 Medyan Piksel değer dağılımının altında kalan alanın, tüm alanın yarısı olduğu piksel değerini gösteren özniteliktir. Bir penceredeki medyan değeri penceredeki sinyal-gürültü oranıyla ilişkilidir [6]. Medyan değerinin matematiksel ifadesi Denklem 2.2 de verilmiştir. Pmed 255 255 Q(p) = Q(p) = 1 2 Q(p) 0 Pmed 0 (2.2) Pmed Q(p) : Medyan piksel değeri : p piksel değerinin pencere içerisindeki sayısı 3

2.1.3 Geometrik Ortalama Geometrik ortalama filtresi görüntü işlemede özellikle gürültü yok etme amacıyla kullanılan lineer olmayan bir filtredir [7]. Bir pencere içerisindeki tüm pikselleri temsil eden oransal orta piksel değerini belirten özniteliktir. Piksel geometrik ortalama değerinin matematiksel ifadesi Denklem 2.3 te verilmiştir. P gort = N N N N P(i, j) i=1 j=1 (2.3) Pgort : Piksel geometrik ortalama değeri 2.1.4 Harmonik Ortalama Harmonik ortalama filtresi Şekil 2.2 de gösterilen soldaki medikal doku görüntüsünde uygulandığında gaussian gürültülerinin gidererek sağdaki görüntünün elde edilmesini sağlar [8]. Ayrıca bir pencere içerisinde harmonik ortalama alma işleminin gürültüleri giderirken kenar özelliklerini koruduğu Şekil 2.3 te görülmektedir. Harmonik ortalama özniteliğinin matematiksel ifadesi Denklem 2.4 te verilmiştir. P hort = N i=1 N N 1 N j=1 P(i, j) (2.4) Phort : Piksel harmonik ortalama değeri 4

Şekil 2.2 Gürültülü medikal doku görüntüsünde harmonik ortalama işlemi [8] Şekil 2.3 Harmonik filtrenin kenar özniteliklerini koruduğu medikal doku görüntüsü [8] 2.1.5 Standart Sapma Bir pencere içerisindeki piksel dağılımının ortalama etrafındaki yayılımını belirten özniteliktir. Bu öznitelik düz bir dokuda sıfıra yakın değerler alırken, piksel değeri değişen dokularda yüksek değerler alır. Standart sapma değerinin matematiksel ifadesi Denklem 2.5 te verilmiştir. 5

N N j=1 S = i=1 (P(i, j) P ort) 2 N N (2.5) S : Standart sapma değeri 2.1.6 Basıklık (Kurtosis) Bir pencere içerisindeki piksel değeri dağılımının basıklığını veya sivriliğini belirten özniteliktir. Basıklık değerinin matematiksel ifadesi Denklem 2.6 da belirtilmiştir. N N j=1 K = i=1 (P(i, j) P mean) 4 N N (2.6) K N : Basıklık değeri : Pencere Genişliği Pmean : Pencerenin ortalama değeri P(i,j) : i. satır j. sütundaki piksel değeri 2.1.7 Çarpıklık (Skewness) Pencere içerisindeki piksellerin değer dağılımı bir doku için belirleyici olabilmektedir. Bu dağılımın Şekil 2.4 ve Şekil 2.5 te gösterildiği bir tarafa doğru asimetrik olması negatif çarpıklık (Negative Skew) veya pozitif çarpıklık (Positive Skew) olarak adlandırılır. 6

Şekil 2.4 Negatif Çarpıklık Şekil 2.5 Pozitif çarpıklık Çarpıklık özniteliği dağılımın simetrik olmayışını belirten özniteliktir. Basıklık değerinin matematiksel ifadesi Denklem 2.7 de verilmiştir. N N j=1 K = i=1 (P(i, j) P mean) 3 N N (2.7) K N : Basıklık değeri : Pencere Genişliği Pmean : Pencerenin ortalama değeri P(i,j) : i. satır j. sütundaki piksel değeri 7

2.2 Dönüşümler İle Elde Edilen Öznitelikler Bir dokuya ait öznitelikler çıkarılırken görüntünün piksel değerleri doğrudan kullanılabileceği gibi bazı matematiksel dönüşümler uygulanmış görüntü üzerinden de öznitelikler elde edilebilir. Bu amaçla çalışmada farklı pencere boyutları için 2 boyutlu Fourier dönüşümü uygulanmış ve frekans değerleri öznitelik olarak kullanılmıştır. Ayrıca Canny Kenar Belirleme algoritması ile görüntünün kenar haritası elde edilmiştir. Daha sonra bu kenar haritası üzerinden farklı pencere boyutları için istatistiksel öznitelikler çıkarılmıştır. 2.2.1 Fourier Dönüşümü Fourier dönüşümü ile zaman uzayındaki bir sinyal frekans uzayında ifade edilebilir. Bir sinyalin Fourier dönüşümü karmaşık değerlidir. Her karmaşık değerin büyüklüğü o frekans için genlik bilgisini, argümanı ise faz bilgisini verir. Fourier dönüşümü ayrık ve sürekli verilerde kullanılabilir [9]. Fourier dönüşümünün ayrık uzayda tek boyutlu işaretler ve iki boyutlu görüntü işaretleri için matematiksel ifadeleri Denklem 2.8 de gösterilmiştir [10]. X ( k N 1 1 ) x( n1 ) n 0 1 1 1 N1 1 1 e j2πk n x( n 1 N 1 1 ) X ( k1) N1 0 1 k1 e j2πk n N 1 1 X ( k N1 1 N2 1 1,k2) x( n 1,n2 ) n 0 n 0 1 2 e j2πk n N 1 1 1 e j2πk n N 2 2 2 1 N1 1 N2 1 1 2) X ( k1,k2) N1 N2 k 0 k 0 x( n,n 1 2 e j2πk n N 1 1 1 e j2πk n N 2 2 2 (2.8) Denklemde işaret küçük x ile dönüşüm sonucu elde edilen Fourier katsayıları ise büyük X ile gösterilmiştir. Denklemin içindeki N1 ve N2 parametreleri işaretin incelendiği pencere boyutunu belirler. Fourier dönüşümü görüntü işlemede ve doku bölütleme probleminde sıklıkla kullanılır [11]. Bu çalışmada iki boyutlu ayrık hızlı Fourier dönüşümü ile iki farklı yoldan öznitelik çıkarılmıştır. İlk olarak görüntüden öznitelik çıkarılacak noktanın merkezde 8

olduğu bir alt pencere alınmıştır. Bu alt pencerenin Fourier dönüşümü ile frekans bileşenleri elde edilip, her bir frekans değeri bir öznitelik olarak kullanılmıştır. Frekans bileşenleri yatay veya dikey olarak simetrik olduğu için NxN boyutlu bir altpencereden NxN/2 öznitelik elde edilmiştir. Çalışmada bu yöntemle 8X8 pencere ile 32, 16x16 pencere ile 128 olmak üzere 160 öznitelik elde edilmiştir. Şekil 2.6 Örnek bir görüntü ve 2 boyutlu Fourier dönüşümü [12] Fourier dönüşümü ile öznitelik çıkarılan ikinci yöntemde görüntünün tamamına Fourier dönüşümü uygulanmıştır. Şekil 2.6 da örnek bir görüntü ve 2 boyutlu Fourier dönüşümü gösterilmiştir. Daha sonra elde edilen frekanslara filtre uygulanarak alçak frekanslar korunup, yüksek frekanslar bastırılmıştır. Son olarak ters Fourier dönüşümü uygulanarak yeni bir görüntü elde edilmiştir. Bu işlemler Şekil 2.7 de örnek bir resme uygulanmıştır [13]. Filtrelenmiş görüntüden ortalama, medyan ve geometrik ortalama gibi istatistiksel öznitelikler çıkarılmıştır. Bu yöntem kullanılarak 7 farklı öznitelik çıkarılmıştır. 9

Şekil 2.7 Sol üst: Örnek görüntü, Sağ üst: Filtrelenmiş görüntü, Sol alt: Orijinal resmin frekans gösterimi, Orta alt: Filtre, Sağ alt: Filtrelenmiş resmin frekans gösterimi [13] 2.2.2 Canny Kenar Belirleme Canny Kenar Belirleme çok aşamalı bir algoritmayı kullanarak görüntülerde kenarları tespit eden bir kenar tespit yöntemidir. 1986 yılında John F. Canny tarafından geliştirilmiştir. Mümkün olduğunda çok sayıda doğru kenar bulunması, görüntüdeki gürültünün kenar olarak yanlış işaretlenmemesi, bulunan kenarın işaretlenirken sadece merkezde işaretlenmesi kenar tespitinde genel ölçütlerdendir. Canny algoritması bu ölçütleri sağlamak için Şekil 2.8 de gösterilen aşağıdaki adımlardan oluşur [14]. Yumuşatma ( Smoothing ) Kenar belirlerken yapılacak tüm işlemler kolaylıkla görüntüdeki gürültüden etkilenebilir. Bu nedenle gürültüden oluşan hatayı yok etmek için filtre kullanmak çok önemlidir. Bu işlem Gauss filtresi kullanılarak yapılır. 10

Gradyanları bulma Görüntüdeki kenarlar herhangi bir yönde olabileceği için Canny algoritmasında yatay, dikey ve iki tane diyagonal olmak üzere 4 filtre kullanılır. Maksimum olmayanları bastırma( Non-maximum suppression ) Bu aşamanın amacı gradyan büyüklüklerini barındıran görüntüdeki bulanık kenarları keskin kenarlara çevirmektir. Bu işlem basit olarak yerel maksimumlar hariç her şey silinerek yapılır. Çift eşik uygulama ( Double thresholding) Lokal maksimum pikseller hala büyüklüklerini barındırır. Bu büyüklüklere eşik değer uygulanarak gürültüden veya renk geçişlerinden kaynaklanan hatalı kenarlar temizlenir. İkinci eşik ile kalan kenarlar güçlü kenar ve zayıf kenar olarak ikiye ayrılır. Kenar takibi Güçlü kenarlar kenar olarak işaretlenir. Zayıf kenarlar ise sadece güçlü kenarlara bağlı ise kenar olarak işaretlenir. Şekil 2.8 Canny Kenar Belirleme yönteminin aşamaları [15] Araştırmalara göre Canny ile elde edilen kenar haritasının istatistiksel analizleri dokunun kenar özelliklerini temsil edebilir [16]. Bu nedenle çalışmada bölütlenecek görüntünün Canny ile kenar haritası çıkarılmıştır. Daha sonra bu haritada öznitelik çıkarılcak nokta çevresinde 5, 7, 9, 11, 13 ve 15 genişliklerinde pencereler oluşturulmuştur. Altı farklı genişlikteki pencerelerin her biri için ortalama, medyan ve geometrik ortalama gibi 7 farklı istatistiksel özniteliği çıkarılarak 42 tane öznitelik elde edilmiştir. 11

2.3 Gri-Ton Dağılımından Elde Edilen Öznitelikler Bu yöntemde NxN boyutundaki alt pencere içindeki piksellerin değer dağılımları kullanılır. Şekil 2.9 da görüntü içerisinde oluşturulan NxN boyutundaki alt pencereler gösterilmektedir. i gri-tonu için piksel dağılımı Denklem 2.10 daki ifade yardımıyla hesaplanır [17]. Şekil 2.9 NxN boyutundaki alt pencereler [17] (2.10) p(i) Qi N : i gri-tonunun pencere içindeki dağılımı : i gri-tona sahip piksel sayısı : Pencere genişliği Değer dağılımı fonksiyonu kullanılarak aşağıdaki öznitelikler hesaplanır. Denklemler farklı k değerleri kullanılarak daha çeşitli öznitelikler elde edilir. 2.3.1 Moment Moment özniteliği dokunun ağırlıklı ortalama piksel değeri hakkında bilgi verir. Denklem 2.11 de moment özniteliğinin matematiksel ifadesi verilmiştir. Bu ifadeye göre k parametresinin 1 değeri için, bir istatistiksel öznitelik olarak bahsedilen ortalama değeri elde edilir. 12

255 m k = i k p(i) i=0 (2.11) 2.3.2 Merkezi Moment Merkezi moment özniteliği dokunun ortalama piksel değerine olan momenti hakkında bilgi verir. Denklem 2.12 de merkezi moment özniteliğinin matematiksel ifadesi verilmiştir. Bu ifade k parametresinin 2 değeri için standart sapma, 3 değeri için çarpıklık ve 4 değeri için basıklık özniteliğiyle benzerlik gösterir. 255 µ k = E {[i E[i]] k } = (i m 1 ) k p(i) i=0 (2.12) 2.3.3 Mutlak Merkezi Moment Mutlak merkezi moment özniteliği dokunun ortalama piksel değerine olan mutlak momentidir. Denklem 2.13 te mutlak merkezi moment özniteliğinin matematiksel ifadesi verilmiştir. 255 µ k = E{ i E[i] k } = i m 1 k p(i) i=0 (2.13) 2.3.4 Entropi Entropi özniteliği dokudaki iri taneli bölümlerin çevresinde yüksek değer veren bir özniteliktir. Denklem 2.14 te entropi özniteliğinin matematiksel ifadesi verilmiştir. 255 H = E{ log 2 p(i)} = p(i) log 2 (p(i) + ε ) i=0 (2.14) 13

2.3.5 Enerji Enerji özniteliği aynı tondaki piksellerin miktarı hakkında bilgi veren bir özniteliktir. Denklem 2.15 te enerji özniteliğinin matematiksel ifadesi verilmiştir. 255 E = [p(i)] 2 i=1 (2.15) 2.4 Komşuluk Gri-Ton Fark Matrisi Komşuluk gri-ton fark matrisi ton sayısı kadar eleman barındıran doku ile ilgili özellikleri çıkarmamızı sağlayan bir sütun vektördür [18]. Bu vektörden 5 farklı öznitelik çıkarılabilir. Komşuluk gri-ton fark matrisinin i. elemanını ( s (i ) ) hesaplamak için K penceresi içerisinde kenarlardan d uzaklıkta bir Kd alt penceresi tanımlanır. Vektörün hesaplanması için Denklem 2.16 ve Denklem 2.17 kullanılır. x+d y+d x d y d f(x, y) A(x, y) = 4d 2 (2.16) x,y K d s(i) = f(x, y) A(x, y) x,y (2.17) A(x,y) : {x,y} noktasını merkez alan 2d genişliğindeki pencerenin ortalama gri-ton değeri f(x,y) : {x,y} noktasının gri-ton değeri 2.4.1 İrilik İrilik bir dokuda piksel değer değişiminin sıklığının küçük olduğunu gösterir. İrilik özniteliği Denklem 2.18 deki matematiksel ifade ile hesaplanır. 255 1 f iri = [ε + p i. s(i) ] i=0 (2.18) 14

2.4.2 Kontrast Kontrast görüntü içerisindeki gözle fark edilebilen farklı gri-ton değerlerine sahip bölgeler olduğunu gösteren bir özniteliktir. Bu özellik için Denklem 2.19 daki formül tanımlanmıştır. 255 255 1 f kon = [ G(G 1) p ip j (i j) 2 ]. [ 1 n s(i) ] i=0 j=0 255 i=0 (2.19) 2.4.3 Ani Değişkenlik ( Busyness ) Gri-ton değerlerinin pikseller arasında sıklıkla değiştiğini gösteren özniteliktir. Denklem 2.20 deki matematiksel ifadesi ile hesaplanabilir. 255 255 255 f bus = [ p i. s(i) ] / [ i. p i j. p j ] p i,, p j 0 i=0 i=0 j=0 (2.20) 2.4.4 Karmaşıklık Ani değişkenlik ve kontrastla kısmı olarak ilişkili olan karmaşıklık görüntünün keskin kenar ve çizgiler içerdiğini gösterir. Karmaşıklık özniteliği Denklem 2.21 de gösterildiği gibi hesaplanabilir. 255 255 f kar = [ i j /n(p i + p j )]. [p i. s(i) + p j. s(j)] i=0 j=0 (2.21) 15

2.4.5 Doku Kuvveti Dokuyu oluşturan öğelerin kolay tanımlanabildiğini gösteren özniteliktir. Doku kuvveti özniteliği Denklem 2.22 de gösterilen matematiksel ifade ile hesaplanabilir. 255 255 255 f dk = [ (p i + p j )(i j) 2 ] [ε + s(i) ] p i, p j 0 i=0 j=0 i=0 (2.22) 16

SINIFLAYICILAR Sınıflayıcılar bir önceki bölümde elde edilen özniteliklerden yola çıkarak dokuyu sınıflayan yapılardır. Bu çalışmada sınıflama işlemi Karar Ağacı, Öz-Düzenleyen Harita Ağı ve K-En yakın komşu sınıflayıcı kullanılarak yapılacaktır. 3.1 Karar Ağacı Karar Ağacı, her düğümün bir kararı ve olası çıktılarını temsil ettiği, ağaç şeklinde bir akış diyagramıdır [19]. Karar ağaçları operasyonel araştırmalarda, karar analizlerinde, algoritma gösteriminde ve başka çeşitli alanlarda sıklıkla kullanılır. Karar ağacının en başında bir tane ana düğüm vardır. Her düğüm veri tablosunu bir özelliğe göre parçalar. Tablonun farklı parçaları için farklı alt düğümler oluşur. Düğümler alt düğümlere ayrıldıkça temsil ettikleri veri miktarı azalır ve olası çıktı değerleri uç değerlere doğru farklılaşır. Karar ağacında bir giriş vektörünün olası çıktı değerini bulmak için ana düğümden başlanarak uygun özelliğe sahip düğümler üzerinden yapraklara doğru ilerlenir. Ulaşılan yaprak bir olasılığı, sınıfı ya da olasılık dağılımını temsil eder. Şekil 3.1 de müşterilerin telefon kullanımını gösteren örnek bir karar ağacı verilmiştir. 17

Karar: Yaş Müşteri Sayısı :12000 Telefon Kullanımı: %40 YAŞ >= 30 Karar: Çocuk Sayısı Müşteri Sayısı: 4000 Telefon Kullanımı: %20 YAŞ < 30 Karar: Medeni Durum Müşteri Sayısı: 8000 Telefon Kullanımı: %50 Çocuk Sayısı>=2 Müşteri Sayısı: 2000 Telefon Kullanımı: %30 Çocuk Sayısı < 2 Müşteri Sayısı: 2000 Telefon Kullanımı: %10 EVLİ Müşteri Sayısı: 4000 Telefon Kullanımı: %10 BEKAR Müşteri Sayısı: 4000 Telefon Kullanımı: %90 Şekil 3.1 Müşterilerin telefon kullanımını gösteren örnek bir karar ağacı 3.1.1 Karar Ağacı Öğrenmesi Karar ağacı öğrenmesi karar ağaçlarını öğrenme modeli olarak kullanır. Veri madenciliğinde, istatistikte ve makine öğrenmesinde kullanılan yaklaşımlardan biridir. Bu yöntemde temel amaç veriyi iyi temsil eden bir karar ağacı oluşturulmasıdır. Karar ağacının oluşturulması için çeşitli algoritmalar mevcuttur (ID3, C4.5, CART, CHAID) [20-23]. Karar ağacı oluşturmak için ana düğümden başlanarak tüm düğümler için en uygun öznitelik seçilir. Seçilen özniteliğin aldığı değerler düğümün altına yeni düğümler olarak eklenir. Bu işlem karar ağacını sınırlayan parametreler izin verdiği sürece devam ettirilir. Her öznitelik veri tablosunu birden fazla tabloya ayırır. Bir özniteliğin ne kadar başarılı olduğu hesaplanırken bu tabloların safsız ( impurity ) olmasına bakılır. Örneğin bir tablo sadece bir sınıf verilerinden oluşuyor ise o tablo saf ve homojendir. Tabloların veri sayılarına göre ağırlıklı safsız olma ortalaması bulunur. Bu safsız olma değeri tablonun parçalanmadan önceki safsız olma değeri ile karşılaştırılarak özniteliğin bilgi 18

kazancı (Information gain) hesaplanır. Bilgi kazancının matematiksel ifadesi Denklem 3.1 de verilmiştir. ΔI = n i=0 N i I i I n (3.1) ΔI Ni Ii I : Öznitelik bilgi kazancı : i. Tablodaki veri sayısı : i. Tablonun safsız olma değeri : Ana tablonun safsız olma değeri Bir tablonun safsızlığı Entropi, Gini katsayısı, sınıflama hatası veya bilgi kazancı gibi metodlar ile hesaplanır [24]. Entropi ID3 ve C4.5 algoritmasında kullanılılr. Veri tablosunun safsız olma değerini ölçmenin bir yoludur. Matematiksel ifadesi Denklem 3.2 de verilmiştir. Çalışmada ID3 ve C4.5 algoritması temel alındığı için safsızlığı ölçmek için entropi kullanılmıştır. n Entropi = p j log 2 p j j=1 (3.2) Pj n : j. Sınıfa ait verilerin tablodaki oranı : sınıf sayısı Gini Index CART algoritmasında kullanılır. Rastgele seçilen bir verinin ne sıklıkta yanlış etiketlendiğini ölçer. Matematiksel ifadesi Denklem 3.3 te verilmiştir. 19

Gini Index = 1 p j 2 n j=1 (3.3) Pj n : j. Sınıfa ait verilerin tablodaki oranı : sınıf sayısı Sınıflama hatası ( Classification Error ) Veri tablosunun ne kadar saf olduğunu ölçmenin bir diğer yoludur. Matematiksel Denklem 3.4 te verilmiştir. Gini Index = 1 max{ p j } (3.4) Pj n : j. Sınıfa ait verilerin tablodaki oranı : sınıf sayısı 3.1.2 Karar ağacının Avantaj ve Dezavantajları Model olarak akış diyagramı şekilde bir karar ağacı kullanıldığı için yapay sinir ağları, destek vektör makinaları gibi alternatiflere göre daha anlaşılırdır. Karar ağacı diyagramına bakılarak öğrenmenin nasıl gerçekleştiği doğrudan görülebilir. Karar ağaçları düğümlere öznitelikleri atarken en uygun öznitelikleri seçtiği için eğitimden önce özniteliklerin başarısına bakılmasına ve seçilmesine gerek yoktur. Ayrıca veri normalizasyonuna ihtiyaç duymadığı için alternatiflerine göre daha az ön hazırlık gerektirir. Olası çıktı değeri olarak sınıf verisi, olasılık değerleri veya sayısal değerler kullanılabilir. Bu özellik çıkışın N farklı değeri olduğu durumlarda N farklı karar ağacı oluşturulması yerine tek bir karar ağacı kullanılmasını sağlayarak vakit ve kaynaktan kazanç sağladığı gibi N farklı karar ağacının kullanılmasından daha yüksek başarım gösterir. Karar ağacını diğer sınıflandırma araçlarından öne çıkaran bir özelliği de sadece sınıflama yapmayıp sınıflama güvenilirliğini de istatistiksel olarak vermesidir [25]. 20

Karar ağacının bir diğer avantajı kullanılan modelin istatistiksel testlerle sınanabilir olmasıdır. Örnek bir giriş vektörü için elde edilen olasılık değeri istatistiksel olarak da sınanabilir. Algoritmanın kolayca iş parçacıklarına bölünebilmesi nedeniyle karar ağacı öğrenmesi büyük veri kümelerinde kullanılabilir [26]. Yöntemin en çok karşılaşan sorunu modelin veriyi temsil etmesi yerine ezberlemesidir (aşırı öğrenme, overfitting). Bu sorun karmaşıklık düşürülerek veya rastgele orman (Random Forest) yöntemi ile çözülebilir. Karar ağacı öğrenmesi bazı durumlarda XOR, çoğullayıcı gibi yapıları modellemekte yetersiz kalır. Çok büyük ağaçların oluşabildiği böyle problemlerde problem uzayını değiştirmek sorunu çözebilir. 3.1.3 Karar Ağacının Sınırlandırılması Karar ağaçları oluşturulduktan sonra veya oluşturulma aşamasında aşırı öğrenmeyi önlemek ve gereksiz yapıları yok etmek için budanma (Pruning) işleminden geçirilir. Budama algoritmalarında literatürdeki yöntemler iki farklı sınıfta toplanabilir. İlk sınıf eğitim ve budama işlemleri için ayrı veriler kullanırken, ikinci sınıfta tüm veriler iki işlem içinde kullanılır [27]. Budama işlemi sırasında bazı sınırlayıcı parametreler kullanılır. Derinlik, olasılık, öznitelik başarısı, veri sayısı, aynı derinlikteki düğüm sayısı kullanılan sınırlayıcı parametrelerdendir [28]. Çalışmada kullanılacak karar ağacı öğrenmesi algoritmasında tüm veriler budama ve eğitim işlemlerinin ikisi için de kullanılır. 3.2 Öz-Düzenleyen Harita Ağı (SOM) Öz-Düzenleyen Harita Ağı (SOM, Self-Organizing Map ) eğiticisiz bir yapay sinir ağıdır. Çok boyutlu veriyi daha düşük boyutlarda temsil etmeyi sağlayarak vektör kuantalama olarak bilinen boyut düşürmeyi sağlar [29]. Öz-Düzenleyen ağlar öğrenme ve haritalama olmak üzere iki aşamada çalışır. Öğrenme sürecinde haritanın çıkış düğümleri eğitim verisini daha iyi temsil edecek şekilde konum değiştirirler. Her iterasyonda konum değiştirme işlemi en uygun birim ve komşularınca gerçekleştirilir. Böylece çıkış düğümleri veriyi daha iyi temsil edecek şekilde hareket eder. Yeterli 21

iterasyon sonunda çıkış düğümleri son konumlarına ulaşır. Daha sonra çıkış düğümlerine öğrenme verisi kullanılarak sınıf atanır. Haritalama aşamasında giriş vektörünün sınıfı, bu vektöre en yakın çıkış düğümünün sınıfı olarak belirlenir. Öz-Düzenleyen Harita Ağları düğüm ya da nöron olarak adlandırılan birimlerden oluşur. Bu düğümlerden her birini giriş vektörüne bağlayan bir ağırlık vektörü (wij) vardır. Şekil 3.2 de düğümler ile giriş vektörü arasındaki bağlantılar gösterilmiştir. Şekil 3.2 SOM ağında giriş vektörü ile düğümler arasındaki bağlantılar [30] Düğümlerin dizilimi düğümlerin komşuluk ilişkisini tanımlamasından dolayı yöntemin başarımı açısından çok önemlidir. Düğümler bir boyut, iki boyut veya üç boyutta altıgen veya dikdörtgen olarak dizilebilir [31]. Düğümlerin ağırlık vektörlerine rastgele küçük sayılar ile başlangıç değerleri verilebilir. Fakat bu yöntem bazı durumlarda öğrenmenin yavaş olmasına neden olabilir. Bu nedenle ikinci bir yol olarak başlangıç ağırlıkları giriş vektörleri arasından örneklenebilir veya giriş vektörlerine yakın değerlerden seçilebilir. Böylece başlangıçta düğümlerin bir kısmı zaten giriş uzayında yerleşmiş olduklarından, öğrenme süreci büyük ölçüde hızlanır [31]. Öğrenme kipi rekabetçi öğrenme yöntemini kullanır. Öğrenme kipinde giriş vektörünün tüm düğümlerin ağırlık vektörüne uzaklığı hesaplanır. Uzaklık hesaplanırken 22

genel olarak Euclidian mesafesi kullanılır. Giriş vektörüne en yakın ağırlığa sahip düğüm belirlendikten sonra Denklem 3.5 de gösterilen ifadeye göre bu düğüm ve komşularının ağırlıkları güncellenir. W v (s + 1) = W v (s) + N(u, v, s) a(s) (D(t) W v (s)) (3.5) Wv(s+1) Wv(s) N(u,v,s) a(s) D(t) : v düğümünün güncellenmiş ağırlık vektörü : v düğümünün ağırlık vektörü : u ve v düğümünün arasındaki komşuluk derecesi : Zamanla düzenli azalan öğrenme katsayısı fonksiyonu : t. giriş vektörü Öğrenme işleminin başlarında hızlı bir öğrenme için hızlı değişimler amaçlanırken, sonlara doğru ağırlıkları ideal değere ulaştıracak küçük değişimler hedeflenir. Bu nedenle güncellenen düğümün ağırlık vektöründeki değişimin büyüklüğü zamanla azalır. Öğrenmenin hızlı ve ideal olması için öz örgütlemeli harita öğrenmesinde komşuluk derecesi fonksiyonu kullanılır. Komşuluk derecesi fonksiyonu iki düğüm arasındaki çapraz mesafeye bağlıdır. Bazı problemlerde komşuluk fonksiyonu basit olarak yakın düğümler 1 diğer tüm düğümler 0 değer alırken bazı problemlerde de gauss fonksiyonu kullanılır. Fonksiyonun yapısından bağımsız olarak komşuluk fonksiyonunun aldığı değer zamanla azalır. Başlangıçta komşuluk fonksiyonu daha fazla düğüme etki ederek haritanın giriş uzayına daha hızlı uyum göstermesi sağlanır. Son adımlarda ise düğümler teker teker ideal değerlerine ulaştırılmak istenir. 3.2.1 Öz-Düzenleyen Harita Ağının Avantajları ve Dezavantajları Hızlı ve kolay hesaplanabilir olması, ayarlanması gereken parametre olmaması SOM öğrenmesinin avantajları arasında sayılabilir. Bunun yanında görselleştirilmesinin zor olması, başlangıç değerlerinin yöntemin başarısı üzerindeki etkisinin çok yüksek olması, sınıflar arası dengenin bazı durumlarda kurulamaması yöntemin zayıf yanlarıdır. 23

3.3 K-En Yakın Komşu (KNN) Sınıflayıcısı K-En Yakın Komşu (KNN, K-Nearest Neighbor ) algoritması sınıflamada çok sık kullanılan basit bir algoritmadır [32]. Algoritma test vektörünün sınıf üyeliklerini bildiğimiz vektörlerle karşılaştırılmasına dayanır. Karşılaştırma için genel olarak Öklid mesafesi (Euclidian distance) kullanılır. Karşılaştırma sonucu belirlenen en yakın K komşu vektörün sınıflarına bakılarak giriş vektörünün sınıf değeri atanır. Şekil 3.3 te gösterilmiştir. Şekil 3.3 KNN sınıflayıcısının k=3 ve k=6 değerleri için gösterimi [33] K değerinin 1 e eşit olduğu durumlarda giriş vektörü doğrudan en yakın vektörün sınıfındadır. K değerinin 1 den farklı değerleri için ise genel olarak K en yakın komşu giriş vektörüne olan yakınlıklarına göre ağırlık verilir. Böylece daha yakın olan komşuların etkisi daha fazla olur. Ağırlık verme işlemi için mesafenin çarpma işlemine göre tersi çok yaygın olarak kullanılır. Özellikle sınıflar arasındaki dağılımın çarpık olduğu durumlarda ağırlık verme önemli bir rol oynar. Bir diğer yöntemde ağırlık verme olmadan K en yakın komşunun en çok sahip olduğu sınıf değeri test vektörünün sınıf değeri olarak atanır. Bu algoritmanın artıları basit bir yapıya sahip olmasından dolayı kolay uygulanabilmesini, hesap basitliği ve az sayıda öznitelik vektörü olduğu durumlarda iyi 24

sonuçlar vermesidir [34]. Buna rağmen KNN, her özniteliğe eşit önem vermesi nedeniyle bazı problemlerin çözümünde etkili olamaz. Bu sorun normalizasyon ve ağırlık verme gibi yöntemlerle bir ölçüde çözülebilir. 25

SINIFLAYICILARIN BÖLÜTLEME SONUÇLARI 4.1 Bölütlemede Kullanılan Doku Görüntüleri ve Öznitelikler Çalışmada önerilen sınıflayıcılar kullanılarak üç farklı doku görüntüsü bölütlenmeye çalışılmıştır. İlk olarak Brodatz veri tabanından seçilmiş olan beş farklı dokuyla, daha sonra yine Brodatz veri tabanından seçilmiş olan dört farklı dokuyla ve son olarak medikal doku görüntüsüyle benzetimler gerçekleştirilmiştir. Medikal doku ile yapılan benzetimde dokusal özelliklerinden dolayı medikal doku olarak ultrasonik fantom doku görüntüsü seçilmiştir. İlk iki benzetim için gerekli olan örnek doku görüntüleri için literatürde sıklıkla kullanılan Brodatz veri tabanı kullanılmıştır. İlk benzetim için brodatz veri tabanından Şekil 4.1 deki 5 doku, ikinci benzetim için Şekil 4.2 deki 4 doku seçilmiştir. 3. Benzetim için Şekil 4.3 teki doku örnekleri giriş olarak kullanılmıştır. Bütün dokular benzetim kolaylığı nedeniyle 64x64 boyutunda alınmıştır. Şekil 4.1 İlk benzetimde kullanılan beş farklı Brodatz dokusu 26

Şekil 4.2 İkinci benzetimde kullanılan dört farklı Brodatz dokusu Şekil 4.3 Üçüncü benzetimde kullanılan Ultrasonik fantom dokular Her benzetimde doku görüntüleri sınıflayıcılara eğitim verisi olarak verilecektir. Daha sonra bu görüntülerin bir arada bulunduğu test görüntüsü verilecektir. Dokular test görüntülerini elde etmek için Şekil 4.4, Şekil 4.5 ve Şekil 4.6 da gösterildiği gibi birleştirilmiştir. Benzetim kolaylığı nedeniyle test görüntüleri 256x256 boyutunda oluşturulmuştur. Şekil 4.4 İlk benzetim için kullanılan test görüntüsü 27

Şekil 4.5 İkinci benzetim için kullanılan test görüntüsü Şekil 4.6 Üçüncü benzetim için kullanılan medikal test görüntüsü Benzetimler eğitim için verilen her dokulardan 144 örnek almaktadır. Böylece ilk benzetim için toplam 720, ikinci benzetim için 576 ve üçüncü benzetim için 432 eğitim vektörü elde edilir. Bölütleme işleminin başarıyla gerçekleşmesi durumunda, Şekil 4.7 deki gibi her farklı doku bölgesinin tek bir renk ile boyanmış olduğu (doku/sınıf adedi kadar farklı renk içeren) bir görüntü elde edilecektir. 28

Şekil 4.7 İlk benzetimdeki test görüntüsünün bölütlenmiş hali (ideal durum) Benzetimlerde bir piksel Tablo 4.1 de belirtilen 418 özniteliği içeren bir vektör ile ifade edilmiştir. Tüm sınıflayıcı benzetimleri.net 4.5.1 platformunda C# diliyle yazılmıştır. Karşılaştırma yapılabilmesi amacıyla tüm benzetimler tek thread üzerinde eşit koşullarda çalıştırılıp, öğrenme çalışma süreleri, test çalışma süreleri ve kaynak kullanımları izlenmiştir. Tablo 4.1 Çalışmada kullanılan öznitelikler Öznitelik Çıkarma Yöntemi Öznitelik Sayısı İstatistiksel 42 Gri-ton dağılımı 84 Komşuluk gri-ton fark dağılımı 90 Fourier dönüşümü 167 Kenar haritası istatistiksel analizi 42 Toplam: 425 29

4.2 Karar Ağacının Benzetim Sonuçları Karar ağacı öğrenmesi yönteminin başarımı bazı parametrelere bağlı olarak değişmektedir. Bu nedenden dolayı parametrelere farklı değerler verilerek alınan sonuçlar izlenmiş, parametrenin başarım üzerindeki etkisi izlenmiştir. Karar ağacının maksimum derinliği 8,12 ve 16 değerleri ile test edilmiştir. Alt düğüm oluşumu için gereken minimum veri miktarı için 2,4 ve 8 değerleri, minimum bilgi kazancı için 2,4 ve 8 değerleri kullanılmıştır. Beş sınıflı doku test görüntü için bu parametreler ile çalıştırılan 27 testin eğitim süreleri, test süreleri ve başarım yüzdeleri Tablo 4.2 de verilmiştir. Tablo 4.2 Beş sınıflı doku görüntüsü için karar ağacının başarımları Test Derinlik En Az En Az Eğitim Test Başarım Veri Kazanç (ms) (ms) (%) 1 8 2 2 5607,006 15985,73 80,10 2 8 4 2 5419,095 15200,58 80,10 3 8 8 2 5390,893 15017,52 80,20 4 8 2 4 5406,519 15282,02 80,10 5 8 4 4 5406,517 15016,38 80,10 6 8 8 4 5396,08 15129,99 80,20 7 8 2 8 5447,087 15054,15 80,10 8 8 4 8 5422,148 15063,25 80,10 9 8 8 8 5390,895 15196,34 80,20 10 12 2 2 7687,88 15109,2 82,14 11 12 4 2 7094,106 15133,35 81,03 12 12 8 2 6609,707 15110,13 82,17 13 12 2 4 7679,764 15057,83 82,14 14 12 4 4 7062,853 15254,34 81,03 15 12 8 4 6656,58 15313,27 82,17 16 12 2 8 7172,232 15063,26 81,89 30

17 12 4 8 6939,021 15030,01 81,70 18 12 8 8 6531,578 15076,98 82,17 19 16 2 2 8125,407 15154,93 81,86 20 16 4 2 7209,66 15065,45 80,96 21 16 8 2 6534,639 15063,25 82,17 22 16 2 4 8156,655 15247,43 81,86 23 16 4 4 7172,236 15095,15 80,96 24 16 8 4 6519,107 15016,38 82,17 25 16 2 8 7400,75 15032 81,89 26 16 4 8 6937,843 15028,98 81,70 27 16 8 8 6555,31 14973,59 82,17 Test sonuçları incelendiğinde tabloda aynı değerlerin tekrar ettiği görülmektedir. Örnek olarak derinliğin 12 değerinden büyük olduğu 15, 24 ve 27 numaralı testlerde Karar ağacını en az veri parametresinin 8 değerini alması sınırlamıştır. Benzetim sonuçlarına göre Karar Ağacı ile elde edilen en yüksek başarım %82.17 dır. Bu başarımı gösteren ilk karar ağacının derinliği 12, minimum veri sayısı 2 ve minimum bilgi kazancı 8 dir. Başarımı en yüksek Karar Ağacının beş sınıflı doku test görüntüsü için oluşturduğu bölge haritası Şekil 4.8 de verilmiştir. Şekil 4.8 Karar ağacı ile bölütlenmiş beş sınıflı doku görüntüsü, derinlik 12, en az veri 8, en az kazanç 2 31

13x13 Pecnere İrilik (256 ton,d:2) 5x5 Pencere Kurtosis Değeri >52 5x5 Pencere Kurtosis Değeri >62 5x5 Pencere Kurtosis Değer i<62 > 0,004 13x13 Pencere İrilik (256 ton,d:2) < 0,004 7x7 Pencere Entropi 256 ton > -26 7x7 Pencere Entropi 256 ton < -26 Ana Düğüm 5x5 Pencere Kurtosis Değeri <52 11x11 Pencere Doku Kuvveti (256 ton, d:1) > 465 11x11 Pencere Doku Kuvveti (256 ton, d:1) < 465 16x16 Pencere FFF [4,0] frekansı >1.42 16x16 Pencere FFF [4,0] frekansı <1.42 11x11 Pencere Ortalaması >123 11x11 Pencere Ortalaması <123 Şekil 4.9 Beş sınıflı doku görüntüsü için en başarılı Karar Ağacının yapısı 32

En yüksek başarımlı karar ağacının yapısı incelendiğinde ana düğümün verileri 5x5 pencere içerisindeki basıklık değerine göre sıraladığı görülür. Karar ağacının 3 derinliğe kadar yapısı Şekil 4.9 da verilmiştir. Karar ağacının 3 derinliğe kadar olan düğümlerindeki doku dağılımları Tablo 4.3 te gösterilmiştir. Tablo incelendiğinde derinliği 3 olan düğümlerin bile olasılık dağılımlarının bilgi kazancının yüksek olduğu görülmektedir. En yüksek başarımlı karar ağacının tüm düğümleri incelendiğinde özniteliklerin sadece %24 ünün düğümlere yerleştiği görülür. Tablo 4.3 Karar Ağacının 3 derinliğe kadar olan düğümlerinin doku dağılımları Düğüm Derinlik 1.Doku 2.Doku 3.Doku 4.Doku 5.Doku Sonuç Ana Düğüm 0 20 20 20 20 20-5x5 Kurtosis Değeri>52 1 18 23 19 20 20 5x5 Kurtosis Değeri<52 1 24 14 23 19 20 5x5 Kurtosis Değeri>62 2 15 17 18 25 25 5x5 Kurtosis Değeri<62 2 20 27 18 18 17 11x11 Doku Kuvveti >465 2 19 33 3 0 45 11x11 Doku Kuvveti <465 2 27 0 38 35 0 13x13 İrilik >0,004 3 19 27 8 3 43 5 13x13 İrilik <0,004 3 10 5 33 52 0 4 7x7 Entropi > -26 3 40 5 5 34 16 1 7x7 Entropi < -26 3 12 36 23 12 17 2 16x16 FFT [4,0] >1.42 3 27 33 1 0 39 5 16x16 FFT [4,0] <1.42 3 12 32 5 0 51 2 11x11 Ortalaması>123 3 20 0 5 75 0 4 11x11 Ortalaması<123 3 34 0 65 0 1 3 edilmiştir. Dört sınıflı doku görüntüsü ile yapılan testlerde Tablo 4.4 teki başarımlar elde 33

Tablo 4.4 Dört sınıflı doku görüntüsü için karar ağacının başarımları Test Derinlik En Az Veri En Az Kazanç Eğitim (ms) Test (ms) Başarım 1 8 2 2 2284 5920.9595 69.74 2 8 4 2 2288 5845.8901 69.74 3 8 8 2 2291 5924.9741 69.67 4 8 2 4 2285 5794.9014 69.74 5 8 4 4 2293 5879.9127 69.74 6 8 8 4 2245 5872 69.67 7 8 2 8 2299 5834 69.74 8 8 4 8 2269 5903 69.74 9 8 8 8 2247 5815 69.67 10 12 2 2 3335 5869 77.87 11 12 4 2 3031 5921 79.08 12 12 8 2 2745 6110 77.01 13 12 2 4 3422 5904 77.87 14 12 4 4 3061 5840 79.08 15 12 8 4 2779 5910 77.01 16 12 2 8 3048 5839 79.24 17 12 4 8 2922 5863 79.18 18 12 8 8 2709 5838 77.01 19 16 2 2 3544 5949 77.55 20 16 4 2 3072 5808 79.11 21 16 8 2 2741 5877 77.01 22 16 2 4 3523 5841 77.55 23 16 4 4 3055 5994 79.11 24 16 8 4 2763 5928 77.01 25 16 2 8 3185 6136 79.24 26 16 4 8 3086 5919 79.17 27 16 8 8 2717 5966 77.01 34

Dört sınıflı doku görüntüsü ile yapılan benzetim sonuçlarında Karar Ağacı ile elde edilen en yüksek başarım %79.24 tür. Bu karar ağacının derinliği 12, minimum veri sayısı 2 ve minimum bilgi kazancı 8 dir. Başarımı en yüksek Karar Ağacının dört sınıflı doku test görüntüsü için oluşturduğu bölge haritası Şekil 4.10 da verilmiştir. Şekil 4.10 Karar ağacı ile bölütlenmiş dört sınıflı doku görüntüsü, derinlik 12, en az veri 2, en az kazanç 8 Ultrasonik fantom doku görüntüsü ile yapılan testlerde Tablo 4.5 daki başarımlar elde edilmiştir. Tablo 4.5 Medikal doku görüntüsü için karar ağacının başarımları Test Derinlik En Az Veri En Az Kazanç Eğitim (ms) Test (ms) Başarım 1 8 2 2 322 38326 87.56 2 8 4 2 310 28648 87.56 3 8 8 2 327 27460 87.56 4 8 2 4 302 28025 87.56 5 8 4 4 278 27787 87.56 6 8 8 4 297 28119 87.56 7 8 2 8 282 27911 87.56 8 8 4 8 303 27961 87.56 9 8 8 8 287 28044 87.56 10 12 2 2 355 27929 96.65 11 12 4 2 335 28591 95.09 35

12 12 8 2 309 28411 92.44 13 12 2 4 351 28324 96.65 14 12 4 4 336 28094 95.09 15 12 8 4 312 28131 92.44 16 12 2 8 334 28134 92.89 17 12 4 8 329 31528 91.93 18 12 8 8 312 30160 92.44 19 16 2 2 380 36203 96.65 20 16 4 2 451 33811 95.09 21 16 8 2 354 32701 92.44 22 16 2 4 399 30809 96.65 23 16 4 4 397 33187 95.09 24 16 8 4 372 31493 92.44 25 16 2 8 357 31020 92.89 26 16 4 8 356 31984 91.93 27 16 8 8 596 30552 92.44 Medikal doku görüntüsü ile yapılan benzetim sonuçlarında Karar Ağacı ile elde edilen en yüksek başarım %96.65 tir. Bu karar ağacının derinliği 12, minimum veri sayısı 2 ve minimum bilgi kazancı 2 dir. Başarımı en yüksek Karar Ağacının dört sınıflı doku test görüntüsü için oluşturduğu bölge haritası te verilmiştir. Medikal doku görüntüsü ile yapılan benzetimde Şekil 4.11 deki doku haritası elde edilmiştir. 36

Şekil 4.11 Karar ağacı ile bölütlenmiş ultrasonik fantom doku görüntüsü, derinlik 12, en az veri 2, en az kazanç 2 4.3 SOM Ağının Benzetim Sonuçları SOM Ağı için geliştirilen benzetimde çıkış birimleri iki boyutlu düzlem üzerinde dikdörtgen olarak yerleştirilmiştir. Öğrenme katsayı iterasyondan iterasyona lineer olarak azalan bir fonksiyon ile ayarlanmıştır. Komşuluk fonksiyonu uzaklık ile lineer olarak azalacak şekilde seçilip, komşuluk ilişkisi 1,2 komşuluk değerleri için ayrı ayrı test edilerek başarım üzerindeki etkisi izlenmiştir. Çıkış birimi sayısı 20x20, 30x30 ve 40x40 değerleri için test edilmiştir. İterasyon sayısı 8000, 16000 ve 24000 değerleri için test edilmiştir. Bu parametreler ile çalıştırılan 27 test için özniteliklerin hazırlandığı hazırlık süreleri, eğitim süreleri, test süreleri ve başarım yüzdeleri Tablo 4.6 de verilmiştir. Tablo 4.6 Beş sınıflı doku görüntüsü için SOM ağının başarımları Test Düğüm Sayısı İterasyon Komşuluk Eğitim Test Başarım 1 400 8000 1 143135,4 52451,44 69,99 2 400 16000 1 273900,2 52102,7 73,50 3 400 24000 1 428206,1 53954,13 72,42 4 400 8000 2 145877,3 50378,39 65,88 5 400 16000 2 287487,3 52302,82 65,24 6 400 24000 2 426598,6 52873,39 69,10 37

7 900 8000 1 370822,8 148321,8 72,54 8 900 16000 1 709918,8 124707,3 71,56 9 900 24000 1 1001079 115931,6 72,32 10 900 8000 2 325320,7 113872,2 74,11 11 900 16000 2 610642,6 111357,9 72,39 12 900 24000 2 973243,4 124855 72,77 13 1600 8000 1 684933,1 191419,7 67,25 14 1600 16000 1 990196,9 178568,5 69,23 15 1600 24000 1 1685938 219182 67,28 16 1600 8000 2 640987,1 272663,3 66,55 17 1600 16000 2 1301757 180314,7 67,51 18 1600 24000 2 1430369 179258,2 68,18 Benzetim sonuçlarına göre elde edilen en yüksek başarım %74.11 dır. En yüksek başarıma sahip SOM Ağının beş sınıflı doku görüntüsü için başarımları Şekil 4.12 de verilmiştir. Şekil 4.12 SOM ile bölütlenmiş beş sınıflı doku görüntüsü, düğüm sayısı 900, iterasyon sayısı 8000, komşuluk 2 38

Dört sınıflı doku görüntüsü ile yapılan testlerde Tablo 4.7 daki başarımlar elde edilmiştir. Tablo 4.7 Dört sınıflı doku görüntüsü için SOM ağının başarımları Test Düğüm Sayısı İterasyon Komşuluk Eğitim Test Başarım 1 400 8000 1 46060,65 17425,59 63,06 2 400 16000 1 89208,35 17429,6 65,47 3 400 24000 1 132640,3 17455,61 64,99 4 400 8000 2 49122,69 17461,62 61,83 5 400 16000 2 94881,21 17824,95 63,78 6 400 24000 2 141287 19385,9 63,68 7 900 8000 1 106025,7 38694,75 62,82 8 900 16000 1 207030,1 41565,66 64,67 9 900 24000 1 309780 43284,8 65,15 10 900 8000 2 114916,5 38623,7 63,14 11 900 16000 2 209511,4 42142,09 65,18 12 900 24000 2 323003,9 39875,53 63,81 13 1600 8000 1 188984,8 75422,52 60,33 14 1600 16000 1 376338,5 69714,39 58,93 15 1600 24000 1 553095,4 81732,11 59,98 16 1600 8000 2 230903,5 82377,98 57,14 17 1600 16000 2 453001,1 83600,46 57,37 18 1600 24000 2 609174,5 64847,77 57,62 Benzetim sonuçlarına göre elde edilen en yüksek başarım %65.18 dır. En yüksek başarıma sahip SOM Ağının dört sınıflı doku görüntüsü için başarımları Şekil 4.13 te verilmiştir. 39

Şekil 4.13 SOM ile bölütlenmiş dört sınıflı doku görüntüsü, düğüm sayısı 900, iterasyon sayısı 16000, komşuluk 2 Ultrasonik fantom doku görüntüsü ile yapılan testlerde Tablo 4.8 daki başarımlar elde edilmiştir. Tablo 4.8 Ultrasonik fantom doku görüntüsü için SOM ağının başarımları Test Düğüm Sayısı İterasyon Komşuluk Eğitim Test Başarım 1 400 8000 1 14075,36 6269,711 82,43 2 400 16000 1 27314,08 6208,983 78,79 3 400 24000 1 40783,14 6156,557 85,81 4 400 8000 2 14855,48 6250,314 83,13 5 400 16000 2 29249,98 6328,441 82,43 6 400 24000 2 43773,74 6338,774 87,18 7 900 8000 1 32023,87 13165,3 73,21 8 900 16000 1 62314,72 13026,22 72,99 9 900 24000 1 91711,17 12720,9 71,56 10 900 8000 2 32292,7 12852,18 70,03 11 900 16000 2 64025,75 12804,06 74,20 12 900 24000 2 94577,88 12972,88 74,27 13 1600 8000 1 56219,53 22250,07 65,18 14 1600 16000 1 109201,2 22605,96 68,27 40

15 1600 24000 1 173025,2 22242,86 71,21 16 1600 8000 2 57070,93 22416,57 60,46 17 1600 16000 2 111011,6 22366,15 62,31 18 1600 24000 2 164930,6 22307,77 55,33 Tablodaki sonuçlara göre elde edilen en yüksek başarım %87.18 dır. En yüksek başarıma sahip SOM ağının ultrasonik fantom doku görüntüsü için başarımları Şekil 4.14 te verilmiştir. Şekil 4.14 SOM ile bölütlenmiş ultrasonik fantom doku görüntüsü, düğüm sayısı 400, iterasyon sayısı 24000, komşuluk 2 4.4 KNN Sınıflayıcısının Benzetim Sonuçları K-En yakın komşu algoritması için geliştirilen benzetimde K değeri 1 ile 8 arasındaki değerlerden seçilmiştir. Bu sınıflayıcıda eğitim aşaması olmadığı için eğitim süresi değerlendirilmemiştir. Yapılan benzetim sonuçları Tablo 4.9 da verilmiştir. Tablo 4.9 Beş sınıflı doku görüntüsü için KNN ağı başarımları Test K Test Başarım 1 1 225726 69,61 2 2 231000 69,61 3 3 280943 69,7 41

4 4 239359 70,12 5 5 314000 69,64 6 6 318000 69,83 7 7 293000 69,96 8 8 226250 69,64 K parametresinin 4 değeri için %70,12 başarım elde edilmiştir. Bu sınıflayıcıdan çıktı olarak elde edilen görüntü Şekil 4.15 te verilmiştir. Şekil 4.15 KNN ile bölütlenmiş beş sınıflı doku görüntüsü, K=4 Dört sınıflı doku görüntüsü için yapılan benzetimlerde Tablo 4.10 daki başarımlar elde edilmiştir. K=1 parametresi ile elde edilen en başarılı bölütleme görüntüsü Şekil 4.16 da gösterilmiştir. Tablo 4.10 Dört sınıflı doku görüntüsü için KNN ağı başarımları K Test Süresi (s) Başarım 1 81850,58 74,30 2 80687,46 74,30 3 73105,98 71,88 4 67556,33 72,26 5 67399,12 71,97 6 67287,26 73,02 42

7 67331,25 72,39 8 67329,81 72,51 9 67393,19 71,52 Şekil 4.16 KNN ile bölütlenmiş dört sınıflı doku görüntüsü, K=1 Ultrasonik fantom doku görüntüsü için yapılan benzetimlerde Tablo 4.11 daki başarımlar elde edilmiştir. K=1 parametresi ile elde edilen en başarılı bölütleme görüntüsü Şekil 4.17 de gösterilmiştir. Tablo 4.11 Ultrasonik fantom doku görüntüsü için KNN başarımları K Test Süresi (s) Başarım 1 16017,07 96,84 2 16332,92 96,84 3 16562,92 95,73 4 16582,53 95,73 5 16614,94 95,47 6 16697,75 95,50 7 16504,66 94,99 8 16487,52 95,34 9 16547,17 95,09 43

Şekil 4.17 KNN ile bölütlenmiş ultrasonik fantom doku görüntüsü, K=1 4.5 Sınıflayıcıların Başarımlarının Karşılaştırılması Bu bölümde farklı sınıflayıcılarla yapılan benzetimlerin sonuçları karşılaştırılarak incelenmiştir. Benzetimi yapılan 3 sınıflayıcının beş sınıflı doku görüntüsü için en başarılı testlerinin sonuçları Tablo 4.12 de gösterilmiştir. Tablo 4.12 Sınıflayıcıların beş sınıflı doku görüntüsü için başarımları Sınıflayıcı Eğitim (s) Test (s) Toplam Süre(s) Başarım (%) Karar ağacı 6,6 15 22,24 82,17 SOM 325 113 438,61 74,11 KNN 0 239 239,64 70,12 Tüm sınıflayıcıların hazırlık süresi, hazırlık aşamasında aynı işlemler yapıldığı için hepsinde yaklaşık olarak 0,6 saniye sürmüştür. Karar ağacı sınıflayıcısı süre bakımından diğer sınıflayıcılara göre daha başarılıdır. Bunun nedeni diğer sınıflayıcılar test aşamasında 338 öznitelik incelerken karar ağacı her düğümde bir özniteliğe bakarak karar ağacı derinliği kadar öznitelik inceler. Benzetimi yapılan karar ağacında 338 yerine sadece 12 öznitelik incelenmiş ve diğer algoritmalardan çok daha hızlı test yapılmıştır. Toplam süreye bakıldığında som sınıflayıcısı K-en yakın komşu sınıflayıcısına göre yavaş gözükse de, test süresi daha kısa olduğu için aynı sınıflayıcının tekrar tekrar kullanıldığı durumlarda som sınıflayıcısı daha performanslı olacaktır. 44

Sınıflayıcıların beş sınıflı doku görüntüsündeki doku bazında başarımları Tablo 4.13 te gösterilmiştir. Tabloya göre 3 sınıflayıcının en düşük başarım gösterdiği doku 1 numaralı dokudur. Bu dokuda en yüksek başarımı Öz-Düzenleyen Harita Ağı elde etmiştir. 2 numaralı dokuda ise 3 sınıflayıcı da yüksek başarım göstermiştir. Sınıflayıcıların doku haritaları Şekil 4.18 de birlikte gösterilmiştir. Şekildeki görüntülerde Doku 1 üstte, Doku 2 solda, Doku 3 aşağıda, Doku 4 merkezde ve Doku 5 sağda yer almaktadır. Tablo 4.13 Sınıflayıcıların beş sınıflı doku görüntüsü için doku bazında başarımları Sınıflayıcı Doku 1 (%) Doku 2 (%) Doku 3 (%) Doku 4 (%) Doku 5 (%) Ortalama (%) Karar Ağacı 62 93 85 85 81 82,17 SOM 75 87 72 58 69 74,11 KNN 57 86 75 69 60 70,12 Şekil 4.18 Bölütlenmiş beş sınıflı doku görüntüleri Sınıflayıcıların dört sınıflı doku görüntüsündeki doku bazında başarımları Tablo 4.14 te gösterilmiştir. Tabloya göre 3 sınıflayıcının en düşük başarım gösterdiği doku 2 numaralı dokudur. Bu dokuda en yüksek başarımı KNN sınıflayıcısı elde etmiştir. 1 numaralı dokuda ise 3 sınıflayıcı da yüksek başarım göstermiştir. Sınıflayıcıların doku haritaları Şekil 4.19 da birlikte gösterilmiştir. Şekildeki görüntülerde Doku 1 sağ aşağıda, Doku 2 sol aşağıda, Doku 3 sol üstte ve Doku 4 sağ üstte yer almaktadır. 45

Tablo 4.14 Sınıflayıcıların dört sınıflı doku görüntüsü için doku bazında başarımları Sınıflayıcı Doku 1 (%) Doku 2 (%) Doku 3 (%) Doku 4 (%) Ortalama (%) Karar ağacı 94 56 98 58 79,24 SOM 94 46 61 49 65,18 KNN 94 60 89 52 74,30 Şekil 4.19 Bölütlenmiş dört sınıflı doku görüntüleri Sınıflayıcıların dört sınıflı doku görüntüsündeki doku bazında başarımları Tablo 4.15 te gösterilmiştir. Tabloya göre 3 sınıflayıcının en düşük başarım gösterdiği doku 1 numaralı dokudur. Bu dokuda en yüksek başarımı Karar Ağacı elde etmiştir. 2 numaralı dokuda ise 3 sınıflayıcı da yüksek başarım göstermiştir. Sınıflayıcıların doku haritaları Şekil 4.20 de birlikte gösterilmiştir. Şekildeki görüntülerde Doku 1 siyah, Doku 2 gri, Doku 3 beyaz renkle gösterilmiştir. Tablo 4.15 Sınıflayıcıların Ultrasonik fantom doku görüntüsü için doku bazında başarımları Sınıflayıcı Doku 1 (%) Doku 2 (%) Doku 3 (%) Ortalama (%) Karar ağacı 65 96 80 96,65 SOM 60 86 83 78,18 KNN 52 97 96 96,84 46