Hiperspektral Görüntüler ile Uzaktan Algılama Hafta 2 Lisans 2017-18 Egitim Yili Dr.Esra Tunc Gormus
Ders Icerigi 1 Uzaktan algilamaya giris Hiperspektral goruntu (HSG) islemeye giris Standart islem adimlari Mevcut zorluklar 2 HSG`den ozellik cikartma Fiziksel ozelliklerin cikartimi Konumsal ozelliklerin cikartimi Ileri Konumsal /spectral ozelliklerin cikartimi 3 HSG`de egitimli siniflandirma Egitimli siniflandirmaya giris On bilgi Icerik bilgisi Cok kaynakli goruntu birlestirme: SAR, LiDAR ve yardimci veriler 4 HSG`de son uye ve saf pixellerin kestirilmesi Tanimlar: Karisim modelleri Son uyenin belirlenmesi, cikartimi Ileri teknikler: sparse, contextual ve nonlinear models 5 Biofiziksel parametrrelerin cikartilmasi Tanimlar ve yaklasimlar Fiziksel, istatistiksel ve hibrit metodlar 6 Referanslar
Hiperspektral Görüntülerin Analizi Multispektral verileri 3 farklı sekilde temsil edilip gösterilmektedir. Bunlar Görüntü formunda: piksellerin birbirine göre geometrik ilişkileri ile görüntülenmesi Spektra olarak: dalga boyunun bir fonksiyonu olarak piksellerin kendi içinde değişimi Özellik uzayı (Feature Space): Piksellerin N boyutlu bir uzay içerisinde noktalar şeklinde gösterilmesi Bunlar Görüntü uzayı, Spektral Uzayı ve özellik uzayı olarak adlandırılır.
Uygulamalar ve analizler icin en onemlisi Ozellik uzayıdir. Ozellik uzayinda, bilgi, dalga boyunun surekli fonksiyonunu vector uzayindaki ayrik bir noktaya transfer eder.
Hiperspektral goruntulerde bant sayisinin fazla olmasi yuzey alanlarinin etkin bir sekilde siniflandirilmasinda su nedenlerden dolayi problem olmaktadir. 1. Egitim icin ornek sayisinin bant sayisi ile dogru orantili olmasi, 2. Bant sayisi arttikca egitim icin ornek sayisi da artmali, yoksa yetersiz ornek istatistiksel parametrelerin yanlis hesalanmasina neden olacaktir. 3. Guvenilir kestirimlerin yapilabilmesi her bir egitim sinifi icin minimum 10N pixel, ve daha iyi olabilmesi icin ise istenen 100N olabilmesidir. Burada N spectral band sayisidir.
Boyut Indirgeme Neden? Bir siniflandiriciyi egitmek icin gerekli olan ornek kumesi normal verilere gore Hiper bantli goruntulerde cok daha fazla olmasi gerekiyor. Az sayili egitim kumeleri Hughes Etkisine (Hughes Phenomenon) ve tekillik problemine neden olur. Bu problemlerin ustesinden gelebilmek cin cesitli yontemler gelistirilmistir. Bunlar 3 grupta toplanabilir: Ozellik cikartarak veya secerek boyut indirgeme Sinif ornek kovaryans matrisinin duzenlenmesi Az sayida parametrelerle tanimlanan gercek kovaryans matrisin yapilandirilmasi
For example, 100 samples may be enough to obtain a reasonably accurate estimate of the elements of a 5 dimensional mean vector and covariance matrix, but it would not be enough for 500 dimensional one.
Ozellik cikartarak veya secerek boyut indirgeme Boyut indirgeme: Hem siniflandirma sirasinda karsilasilan problemleri cozmek hem de verinin buyuklugunden kaynaklanan yer ve zaman problemelerini asabilmek icin Hiperspektral goruntulerin bant sayisinin azaltilmasidi. Amaci: Orijinal verinin tum ana ozelliklerini saklayacak sekilde, ana veriyi ozetleyen az boyutlu veri kumesi olusturmaktir. Soyleki, boyut indirgedikten sonra, yeni verimizle yaptigimiz siniflandirma hassasiyeti, tam boyut kullanarak yapilan siniflandirma hassasiyetinden dusuk olmamalidir.
Ozellik cikartarak veya secerek boyut indirgeme Boyut problemini ya en iyi bantlari cikartarak (extraction) yada en iyi bantlari secerek (selection) cozebiliriz. Bu yontemler de birbiri ile cok iliskili (highly correlated) bantlari iki farkli yaklasimla kucuk gruplarda toplamaktadirlar. Birincisi: Orijinal dalgaboyu sirasina dikkat etmeden Ikincisi: Komsu bantlar ayni bilgiyi tasidiklarindan dolayi orijinal goruntudeki dalga boyu sirasinin cok onemli oldugu dusunulmektedir??
Ozellik cikartarak veya secerek boyut indirgeme Figur: Boyut indirgeme yontemleri
Ozellik secerek boyut indirgeme yontemleri Alt kume degerlendirme Fonksiyonu Kriter, Siniflandirici olarak kullanilan egitimli yada egitimsiz ogrenme algoritmasina gore degismektedir. Buna gore ozellik degerlendirme kriterleri 4 e ayrilmistir. Uzaklik Olcumu: Daha cok egitimli siniflanidrma yontemleri sirasinda kullanilmaktadir. Uzaklik olcucu yontemler kriter olarak kullanilmaktadir. Kolay uygulanabilir olduklarindan ozellik secici kural olarak kullanilmaktadir. Oklid, bahattacharya, Divergence ve Jeffries-Matusita uzakliklari iki sinifin olasilik dagilim fonksiyonlari arasindaki ayirimi degerlendirmek icin kullanilmaktadir. Bilgi kazanci (Information gain): Tek bir ozelligin tum ozellik uzayina kazandirdigi bilgi bu olcumler ile olculur. Eger f1 in kumeye kazandirdigi bilgi, f2 nin kazandirdigi bilgiden daha fazla ise f1 secilir.
Ozellik secerek boyut indirgeme yontemleri Bagimlilik olcumu (Dependency Measure): Korelasyon, Kohen s kappa ve entropy gibi benzerlik olcen metrikler, iki ozellik kumesi arasindaki bagimlilik miktarini olcmektedir. Tutarlilik Olcumu (Consistency measure): Bu olcumun amaci ise tum ozellik kumesini temsil eden en kucuk ozellik kumesini bulmaktir. Egitimli siniflandirma yontemleri icin kullanilmaktadir. Alt-Kume Olusturmak: Bu yontem original ozellik uzayindan ozellik secmek icin arama algoritmalari kullanmaktadir. Asagida bazi arama algoritmalari verilmistir.
Ozellik secerek boyut indirgeme yontemleri Tam Arama (Complete Search): Tum ozelliklerin kombinasyonu icin kriter fonksiyonunu degerlendirmek ve karsilastirmak icin yorucu (exhaustive) arama algoritmasini kullanir. Bu yontem hesapsal olarak cok zor control edilebilen bir yontemdir. Bu yontemde geri takip soz konusu degildir. Eger bir ozellik (bant) secildiyse, bir daha birakilmaz (Sequential forward selection), eger bir kere birakildiysa bir daha secilemez (Sequential Backward Selection ). Bu yuzden bu yontemlerin gelistirilmis halleri olan Sequential forward floating selection ile Sequential backward floating selection yontemleri gelistirilmistir. Bu yontemler ozellik sayisini dinamik olarak control etmektedirler. Boylelikle cikartilan veya eklenen ozelliklerin yeniden degerlendirilmesi saglanmaktadir. Bunlara alternative olarak da the steepest ascent ve the fast constraint arama algoritmalari kullanilabilmektedir.
Ozellik cikartarak boyut indirgeme yontemleri Ozellik ckartma yontemleri ozelliklerin daha iyi analiz edilebilmesi icin hiperspektral veriyi daha dusuk boyutlu bir uzaya izdusurmektedir. Dogrusal yontemler daha kolay oldugu icin daha cok tercih edilir. Bazi yontemler asagida verilmistir.
Temel Bilesen Analizi (Principal component analysis) PCA PCA ortalama karesel hata acisindan en iyi lineer boyut azaltma metodudur. Verileri varyanslarin en buyuk oldugu degerlere gore birbiri ile iliskisiz uzaylara izdusum yapan egiticisiz yontemdir. Donusumden sonar birinci bilesen en yuksek varyansi ikinci bilesen ikinci en yuksek varyansi iceriyor. Ilk m degeri secince zaten degisimin maksimum oldugu verileri alacagin icin boyut azaltilmis oluyor. Bazi kaynaklarda the singular value decomposition (SVD), the Karhunen-Loµeve transform, the Hotelling transform, ve the empirical orthogonal function (EOF) method Olarak da gecmektedir.
Factor Analysis (FA) PCA gibi lineer bir yontemdir. FA`da olculen degiskenler bazi bilinmeyen, genelde olculemeyen ortak faktorlerden parametrelere bagli oldugu dusunulur. [Fador,2002] Ornegin: bir kisiye ait test sonuclari olsun.bu sonuclarinda zeka gibi ortak bir factor ile ilgili oldugu dusunulsun. FA nin amaci, boyle bir iliskinin oldugunu factor modeli kurararak bulmak ve o zman da ilgili bantlari sececegi icin boyut azaltilmsi olur.
Ozellik cikartarak boyut indirgeme yontemleri. Discriminate Analysis Feature Extraction (DAFE) Siniflandirma sirasinda, siniflar arasi ve sinif ici varyans oranini maksimm yapmak icin original ozelliklerin lineer kombinasyonunu yapmaktadir. Hizli ve dogrudan bir yontemdir, ancak sinif ortalama vektorleri arasinda cok kucuk degisikliklerin oldugu durumlarda iyi calisamamaktadir ve verilen problem icin sinif sayisindan 1 az a kadar guvenilir ozellik uretebilir.
Ozellik cikartarak boyut indirgeme yontemleri. DAFE`nin yeterli olmadigi durumlarda kullanilmak uzere Decision Boundary Feature Extraction (DBFE) yontemi kullanilmaktadir. Decision Boundary Feature Extraction (DBFE) Bu yontem de yeni ozellik uzayi icin optimum lineer donusumu kullanir. Ayirt edici bilgili ve bilgisiz (redundant) ozellikleri egitici ornekleri dogrudan kullanarak bulur ve gerekli donusumu tanimlayan eigen fonksiyolara ulasir. Eigen fonksiyonlar siniflarin ayirt edilmesinde, ilgili ozelliklerin yararliligi ile dogrudan iliskilidir. Dolayisi ile bu metod bize kac tane ozelligin kullanilmasi gerektigini gostermektedir. Ancak her iki yontemde de hesaplamalar tam boyutta (full dimensional space) basladigindan egitim kumesinin az oldugu
Ozellik cikartarak boyut indirgeme yontemleri. Dolayisi ile, once projection persuit isimli yontem ile boyut azaltilip (100 to 20) ondan sonra bu iki yontemi (DAFE ve DBFE )uygulanirsa daha iyi sonuc alinabilmektedir.
Ozellik cikartarak boyut indirgeme yontemleri Fourier Transformu (FT) ile ozellik cikartma FT Sinyalin sekli ile ilgili yer bilgisi verdigi icin onemlidir. Discrete FT uygulandiktan sonra, ilk birkac bileseni en onemli bilgiyi icerdigi varsayilarak yeni very kumesini olusturur. FT frekans ortamindaki bilgileri cikartmak icin uygulandiginda, konumsal bilgi artik cikti urun ile ilgili olmayacaktir. Mesela karanlik bir arka plan ve aydinlik catilar olsun bir resimde. WT dan sonra da, frekans ortamindaki yuksek degerli pikseller, konumsal ortamdaki aydinlik yerlere denk gelecektir. Ancak FT de donsumden sonra ile donusumden once bir baglanti yoktur.
Ozellik cikartarak boyut indirgeme yontemleri Dalgacik Donusumu (Wavelet Transform) Yuksek gecis filtrelerinin bir uzantisidir. Diger yontemelre gore en etkili yontemdir. Goruntu detaylari yuksek kontrastli ozelliklerdir. Fig. Example of celery spectral signature and different levels of wavelet decomposition for the lowpass component.
Ozellik cikartarak boyut indirgeme yontemleri Renk kodlama kavrami kullanilarak birinci ve ikinci derece istatistic degerlerin gosterilisi Lee & Landgrebe tarafindan bulunmustur. Bu gosterim sayesinde, spectral imzalar kolaylikla karsilastirilir ve siniflari istatistikleri ile ilgili bilgi kolaylikla alinabilir. Lee & Landgrebe: Analyzing High Dimensional Data