Görme Engelliler için Akıllı Telefon ile Nesne Arama

Benzer belgeler
Akıllı Sistemler ve Uygulamaları Dergisi, Cilt: 1, Sayı: 1, Sayfa ,

Doç. Dr. Cüneyt BAYILMIŞ

GÜZ DÖNEMİ BİLGİSAYAR PROJESİ KONU ÖNERME FORMU

Adres sorgu ekranında harita üzerindeki katmanların listelendiği Katman Listesi ve bu katmanlara yakınlaşmak için Git düğmesi bulunmaktadır.

Mobil Cihazlardan Web Servis Sunumu

ÖZET...V ABSTRACT...VII TEŞEKKÜR... IX ŞEKİLLER DİZİNİ... XIV SÖZLÜK... XIX

GÖRÜNTÜ TABANLI ALGILAMA İLE QUADROTORUN HAREKETLİ BİR CİSMİ TAKİBİ

Yüz Tanımaya Dayalı Uygulamalar. (Özet)

Öğr. Gör. Hakan YÜKSEL SÜLEYMAN DEMİREL ÜNİVERSİTESİ. Akademik Bilişim

Derin Öğrenme. M. Ali Akcayol Gazi Üniversitesi

Ekin RED EAGLE (OS) GÜVENLİ ŞEHİR TEKNOLOJİLERİ YÖNETİM SİSTEMİ

Ekin RED EAGLE (OS) GÜVENLİ ŞEHİR TEKNOLOJİLERİ YÖNETİM SİSTEMİ

Derin Yapay Sinir Ağları ve Derin Öğrenme ye Kısa Bir Giriş

Android Uygulamaları için Kötü Huylu Test Yaratımı

Ekin SAFE TRAFFIC Güvenli Trafik Yönetim Sistemleri

Güç Parmaklarınızın Ucunda

YILDIZ TEKNİK ÜNİVERSİTESİ İNŞAAT FAKÜLTESİ HARİTA MÜHENDİSLİĞİ BÖLÜMÜ FOTOGRAMETRİ ANABİLİM DALI

GÖRÜNTÜSÜ ALINAN BİR NESNENİN REFERANS BİR NESNE YARDIMIYLA BOYUTLARININ, ALANININ VE AÇISININ HESAPLANMASI ÖZET ABSTRACT

Sahne Geçişlerinin Geometrik Tabanlı olarak Saptanması

Akıllı Şehir. Mustafa UÇAK Akıllı Şehir Koordinatörü

BİLECİK ŞEYH EDEBALİ ÜNİVERSİTESİ AKADEMİK ÖZGEÇMİŞ FORMU

ANDROID İŞLETİM SİSTEMLERİ İÇİN KURULUM. Kurulum Ön Hazırlık (Tamamını Okumadan Lütfen KURULUMA BAŞLAMAYIN )

Bir Tek Nöron Kullanılarak Resimler Đçerisinde Göz Kısmının Bulunması

Artırılmış Gerçeklik Uygulamalarının Şehircilikte Kullanılması : İnceleme ve Ön Ürün

Bilgisayarla Görme (EE 430) Ders Detayları

MÜŞTERİLER ŞUBEYE GELMEDEN ÖNCE SIRAMATİK'TEN NUMARA ALABİLİR...

Çözümleri KONTROL MERKEZİ. İSBAK A.Ş., İstanbul Büyükşehir Belediyesi iştirakidir.

Trafik Yoğunluk Harita Görüntülerinin Görüntü İşleme Yöntemleriyle İşlenmesi

DERİN ÖĞRENME SONGÜL TORANOĞLU

SDD Dökümantasyonu Versࠀyon 1.0. Movࠀe Predࠀctࠀon Orhan Özgün Ergen Ahmet Saday Berkay Erken

TS EN ISO EŞLEŞTİRME LİSTESİ

İŞLERİNİZE AKILCI ÇÖZÜMLER HEAR N WALK. Görme Engelliler İçin Akıllı Yönlendirme Sistemi

New Project. User guide

BAŞKENT ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ BENZER SÜREÇLERDE ÜRETİLEN ÜRÜNLER İÇİN YAPAY ZEKA İLE ZAMAN TAHMİNİ SONER ŞÜKRÜ ALTIN

Ayarlar (Bold=Varsayılan) Fotoğraf (camera), video, karışık (hybrid) 3 megapiksel, 8 megapiksel, 14 megapiksel

AKILLI KAVŞAK YÖNETİM SİSTEMİ

VISISYS. Akıllı Görüntüleme Sistemleri

Android e Giriş. Öğr.Gör. Utku SOBUTAY

Bilgisayarla Görüye Giriş

Gerçek Zamanlı Olarak, Anfis İle Renk Tabanlı Nesne Tespit Ve Motorlu Sistem İle Takip Edilmesi

DERİN ÖĞRENME YRD.DOÇ.DR. KADRİYE ERGÜN İREM TÜRKMEN

SİSTEM ÖZELLİKLERİ IPPBX ALTYAPISI

BiTaksi Nedir? BiTaksi Resepsiyon

GEZGİN "RASAT Uydusu Görüntüleri Portalı" Hüsne Seda DEVECİ Proje Yöneticisi Tübitak UZAY

BİLGİSAYAR MÜHENDİSLİĞİ DOKTORA DERS PROGRAMI (Lisanstan gelenler için)

Network IP Çözümleri Digital Signage

İRİSTEN KİMLİK TANIMA SİSTEMİ

Mobil Cihazlarda Görüntü İşleme İçin Bir Çözüm Önerisi

OpenZeka MARC. Mini Otonom Araç Yarışması

Network IP Çözümleri Digital Signage

Sponsorlar için detaylı bilgi, ekte sunulan Sponsor Başvuru Dosyası nda yer almaktadır.

BİLGİSAYAR VE ENFORMASYON BİLİMLERİ YÜKSEK LİSANS DERS PROGRAMI (Tezli Program)

MM 409 MatLAB-Simulink e GİRİŞ

Akıllı Satranç Uygulaması HAZIRLAYAN: BERKAY ATAMAN DANIŞMAN: DOÇ. DR. FEZA BUZLUCA

Çok İşlemcili Yapılarda Sinyal İşleme Yazılımlarının Geliştirilmesi Uygulaması. Sinan Doğan, Esra Beyoğlu

Çok Markalı Servis İstasyonları için Yapay Sinir Ağları ile Görüntü Tabanlı Araç Marka ve Modeli Tanıma Yazılımı

. ROBOTİK VE KODLAMA EĞİTİMİ ÇERÇEVESİNDE ÖĞRETİM YILI BİLİŞİM TEKNOLOJİLERİ DERSİ ÜNİTELENDİRİLMİŞ YILLIK DERS PLANI

IOS (Apple) İŞLETİM SİSTEMLERİ İÇİN KURULUM. Ön Hazırlık ve Kurulum (Tamamını Okumadan Lütfen KURULUMA BAŞLAMAYIN )

Pencereler Pencere Özellikleri

Akademisyen Kullanıcı Kılavuz Dokümanı

SATIŞ DESTEK DOKÜMANI

Ekin SAFE TRAFFIC Plaka Tanıma Sistemi

Girdi ve Giriş Aygıtları

Firma Kullanıcı Kılavuz Dokümanı

AMAÇ Araçlardaki Kamera Sistemleri

SATIŞ DESTEK DOKÜMANI

BIṘIṀ ARAS TIRMA FAALIẎETLERIṄI DEG ERLENDIṘME RAPORU. Mühendislik Fakültesi. Bilgisayar Mühendisliği Bölümü

Sanbot. Qihan Technology

SOME-Bus Mimarisi Üzerinde Mesaj Geçişi Protokolünün Başarımını Artırmaya Yönelik Bir Algoritma

OPC Data Access (DA) Temelleri

SİNYAL TEMELLERİ İÇİN BİR YAZILIMSAL EĞİTİM ARACI TASARIMI A SOFTWARE EDUCATIONAL MATERIAL ON SIGNAL FUNDAMENTALS

BOĞAZİÇİ ÜNİVERSİTESİ, KANDİLLİ RASATHANESİ DEPREM ARAŞTIRMA ENSTİTÜSÜ İVME VERİ TABANI OLUŞTURULMASI

Vodafone Mobil Form Tanıtım Sunumu

Mustafa SÖZBİLİR Şeyda GÜL Fatih YAZICI Aydın KIZILASLAN Betül OKCU S. Levent ZORLUOĞLU. efe.atauni.edu.tr

Dokunmatik Panel Ürün Ailesi. Eğitim Sunumu: Proje Uyarlama Kılavuzu

ROBOTİK VE KODLAMA EĞİTİMİ ÇERÇEVESİNDE ÖĞRETİM YILI BİLİŞİM TEKNOLOJİLERİ DERSİ ÜNİTELENDİRİLMİŞ YILLIK DERS PLANI

MAPINFO PROFESSIONAL TEMEL VE İLERİ SEVİYE KURS İÇERİĞİ

İlk Kez GIGABYTE Notebook kullanma

LED IŞIK KAYNAKLARININ RENK SICAKLIĞININ GÖRÜNTÜ İŞLEME TEKNİKLERİ KULLANILARAK BELİRLENMESİ. İsmail Serkan Üncü, İsmail Taşcı

DSİ kapsamında oluşturulan dağınık durumdaki verilerinin düzenlenmesi, yeniden tasarlanarak tek bir coğrafi veri tabanı ortamında toplanması,

PROFESYONEL GÜVENLİK SİSTEMLERİ

Görüntü İşlemeye Giriş Introduction to Image Processing. Doç. Dr. Aybars UĞUR

ARTIK EKİPLERİNİZLE. SINIRLARIN ÖTESİNDE... DAHA KOLAY ve DAHA

Karabük Üniversitesi Bilgi Sistemi Android Uygulaması. Android Application of Karabük University Information System

Android Platformunda Uygulama Geliştirme.

Otomatik Diyet Gözetimi için Gıda İmgelerinin Anlamsal Bölütlemesi

YILDIZ TEKNIK ÜNİVERSİTESİ ELEKTRİK - ELEKTRONİK FAKULTESİ ELEKLTRONİK VE HABERLEŞME MÜHENDİSLİĞİ BÖLÜMÜ

KENDĐ KENDĐNE YOL BULAN ARAÇ

Doç. Dr. Cüneyt BAYILMIŞ

Çalışmamız (Ne Yaptık?) Materyal Metot (Nasıl Yaptık?) Uygulama (Demo) Deneysel Sonuçlar Teşekkür ve Sorular

Research On Using a Mobile Terrestrial Photogrammetric Mapping System For The Determination Of Object Volumes

Prof. Dr. Oğuzhan Urhan GYY Müh.Tas 3 ve Tez Konusu Önerileri

IBM Güvenlik Sistemleri Yeni Nesil Güvenlik Bilgisi Toplama ve Olay Yönetimi

YILDIZ TEKNİK ÜNİVERSİTESİ İNŞAAT FAKÜLTESİ HARİTA MÜHENDİSLİĞİ BÖLÜMÜ

AKILLI TATIL PLANLAMA SISTEMI

Yüksek Öğretimde Mobil Eğitime Geçiş İçin Yol Haritası: Atılım Üniversitesi Örneği

Transkript:

Görme Engelliler için Akıllı Telefon ile Nesne Arama Hüsnü Mert Polat, Muhammed Ensar Özer, Kevser Sertel, Sıdıka Tuğçe Yılmaz, Süleyman Eken, Ahmet Sayar Bilgisayar Mühendisliği, Kocaeli Üniversitesi, 41380 İzmit, Türkiye {husnumertpolatt, ensr.6060, kewser.3806, sdk.tugce.yilmaz}@gmail.com {suleyman.eken, ahmet.sayar}@kocaeli.edu.tr Özet. Görme engelliler hayatta birçok zorlukla karşılaşmaktadır. Kamuoyunda birçok kurum ve kuruluş bu engelleri aşmak için çalışmalar yapsa da maalesef bazı sorunlar hala çözüme kavuşturulmamıştır. Bunlardan birisi de görme engellilerin kaybettikleri veya o an yerini tam kestiremedikleri eşyaları bulamamasıdır. Geliştirilen uygulama mobil cihazlar üzerinde çalışarak görme engelli olan kişinin bulmak istediği bir nesneyi, cihazın kamerası aracılığı ile bulmasını sağlamaktadır. Uygulama açıldığında kamera devreye girmekte ve kullanıcı akıllı telefonu arama yapacağı mekan veya zemin üzerinde gezdirmektedir. İlk olarak kameradan alınan görüntüdeki nesneler, Tensorflow nesne saptama API'si ile bulunmaktadır. Daha sonra saptanan nesnelerin görüntü içindeki yeri alan ayrıştırma yoluyla konumlandırıldıktan sonra Google metin seslendirme ile kullanıcıya nesnenin ismi ve görüntü içindeki yeri bildirilmektedir. Anahtar kelimeler: Nesne arama, akıllı telefon, Tensorflow, nesne konumlandırma, metin seslendirme Object Search with Smart Phone for Visually Impaired People Abstract. Visually impaired people face many difficulties in life. Although many institutions and organizations are working to overcome these diffuculties, unfortunately some problems have not yet been solved. One of them is that they can not find items that the blind people have lost or that they do not know where they are at the moment. The developed application works on mobile devices to find an object that the visually impaired wants to find through the camera. When the application is turned on, the camera is switched on and the user runs the smartphone on the floor or space to search. Firstly, objects in the image taken from the camera are detected with Tensorflow object detection API. Later, after the detected objects are positioned by the parsing taking place in the image, their names and positions are notified with Google text-to-speech. Keywords: Object search, smart phone, Tensorflow, object positioning, text to speech

1 Giriş Günlük hayatta hemen hemen hepimiz eşyalarımızı kaybederiz. Bu kaybettiğimiz eşyalar beraberinde çok yüksek maliyetleri de getirebilir. Pixie nin kayıp eşyalar ile ilgili ABD de yaptığı ankete göre Amerikalılar kaybettikleri eşyaların yerine yenilerini almak için bir yılda yaklaşık 2.7 milyar dolar gibi inanılmaz bir meblağ harcamak durumunda kalıyor. Kayıp eşyalar beraberinde getirdiği maddi maliyetin yanı sıra belki de hayattaki en değerli şey olan zamandan da ciddi ölçüde çalıyor. Pixie nin araştırması kaybedilen eşyaların zaman maliyeti ile ilgili bir takım korkutucu verileri açığa çıkarıyor. Araştırmaya göre insanlar kaybettikleri eşyaları bulabilmek için yılda ortalama 2.5 günlerini harcıyor. Aynı zamanda araştırma, eşyalarını kaybeden insanların zaman ile bağlantılı başka maliyetlere de katlandığını ortaya koyuyor. Araştırma sonuçları, eşyalarını kaybedenlerin %60 ının işe veya okula geç kaldığını, %49 unun önemli toplantı veya iş görüşmelerini kaçırdığını, %22 sinin ise binmesi gereken otobüs veya trene yetişemediğini gösteriyor. Kaybedilen bir eşya genellikle 20 saniye ve 5 dakika arasında bulunabiliyor; fakat bazı eşyaları bulabilmek daha çok zaman alabiliyot. Ortalamaya göre bulunması 15 dakikadan fazla süren eşyalar şöyle: ev, araba anahtarları (%21.3), cüzdanlar (%20.2), şemsiyeler (%19), pasaportlar (%18.9), sürücü ehliyetleri (%18.8) ve banka kartları (%18.7) [1]. Veriler, günlük yaşamda sıklıkla kullandığımız eşyaları sürekli kaybettiğimizi ve onları bulabilmek için ciddi zaman ve enerji harcadığımızı gösteriyor. Sağlıklı insanlar bile kaybettikleri veya çoğu zaman gözleri önünde olan dikkatsizlik yüzünden göremediği eşyaları ararken bu kadar zaman kaybediyor ve o gün yapması gereken işleri yapamıyorlar. Bu çalışmada yukarıdaki sonuçları verilen ankette de geçen, gündelik hayatta daha fazla kullanılan nesnelerin bulunması sağlanmıştır. Görme engelli kişinin telefon içerisinde uygulamayı kısa yolu kullanarak açması çok zor hatta imkansızdır. Bundan dolayı uygulama ses açma tuşuna beş saniye boyunca basılı tutunca açılmaktadır. Açıldığının anlaşılması için bir bildirim sesi verilmektedir. Uygulama açıldığında kamera devreye girmekte ve kullanıcı akıllı telefonu arama yapacağı mekan veya zemin üzerinde gezdirmektedir Bu sırada akıllı telefon kamerasında görüntülenen nesneler Tensorflow nesne saptama API'si ile bulunmakta ve nesnenin ismi ve konumu kullanıcıya Google metin seslendirme uygulaması yoluyla sesli olarak bildirilmektedir. Çalışmanın geri kalan kısmı şu şekilde organize edilmiştir. 2. bölümde literatürdeki çalışmalar verilmiş, 3. bölümde geliştirilen uygulamanın detayları sunulmuştur. 4. bölümde uygulamanın arayüzleri verilmiştir. Son bölümde ise sonuçlar sunulmuş, ne gibi geliştirmeler yapılabilir tartışılmıştır. 2 Literatürdeki Çalışmalar Bu bölümde literatürde nesne tanıma üzerine yapılmış çalışmalar verilmiştir. Görme tabanlı mobil robot ile farklı renklerde nesnelerin gerçek zamanlı takibiyle ilgili bir çalışma gerçekleştirilmiştir. Gerçekleştirilen robot farklı alanlarda kullanılmak üzere tasarlanmıştır. Bu robotun otonom bir şekilde hareket etmesi

sağlanarak farklı renklerdeki nesneleri takip edebilmesi gerçeklenmiş olup tepki verme süresi 96 106 ms aralığında ölçülmüştür [2]. Gerçek zamanlı endüstriyel nesne tanımada kameraların kullanılması konusunda Sedat ve Bayram, kameralı bir sistemin renk algılayıcı bulunduran bir sisteme göre gerçek zamanlı nesne tanıma işlemini daha hızlı gerçekleştirebildiği gözlemlemişlerdir. Renk algılayan sistemin yerine yerleştirilen bir kamera ile sistemin yaklaşık üç kat daha başarılı sonuç verdiği sonucuna ulaşılmıştır [3]. Gerçek zamanlı olarak, Anfis ile renk tabanlı nesne tespit ve motorlu sistem ile takip edilmesi projesinde kamera tarafından alınan görüntü MATLAB programı ile adaptif bir biçimde işlenerek hedef nesnenin merkezi tespit edilmektedir. Tespit edilen merkezin görüntünün merkezine olan uzaklığı bulunarak, seri porta bağlı bulunan mikrodenetleyicili devre aracılığı ile üzerinde kamera bulunan adım motora hareket vermesi sağlanmıştır. Böylece hedef nesnenin kamera tarafından alınan görüntünün merkezine çekilmesi sağlanarak, gerçek zamanlı nesne takip uygulaması gerçekleştirilmiştir [4]. Üç boyutlu sahneler ve nesne tanıma için gürbüz anahtar nokta eşleştirilmesi çalışmasında yakın zamanda düzlemsel nesneler için ikilik betimleyiciler ile anahtar nokta eşleme amacıyla önerilen bir yöntem üç boyutlu nesneler için uyarlanmıştır. Bu yöntemin başarısı yüzden fazla resim içeren bir müze nesne tanıma uygulamasında test edilmiştir. Ayrıca sadece eşlenme başarısı yüksek betimleyicilerin kullanılmasının nesne tanıma uygulamasının başarısına etkisi de ölçülmüştür [5]. Günümüzde Konvolüsyonel Sinir Ağları (KSA), sınıflandırma ve algılama uygulamalarının ayrılmaz parçası haline gelmişlerdir. Konvolüsyonel Sinir Ağlarının pratikte kullanılmamasının temel nedenlerinden biri, onların güçlü hesaplamaları yapabilen işlemcilere ihtiyaç duymalarıydı. Ekran kartlarının gelişmesi ile Krizhevsky ve arkadaşları 2012 yılında gerçekleştirilmiş ILSVRC 2012 yarışmasını KSA yardımı ile sınıflandırıcı bir model geliştirerek kazanmışlardır. İlerleyen zamanlarda R CNN, Fast R CNN, Faster R CNN, Mask R CNN ve YOLO olmak üzere kendinden önceki modelin performansını iyileştiren, çeşitli algılama ve sınıflandırma modelleri geliştirilmiştir [6 10]. Bu modeller kullanılarak çeşitli nesne tanıma uygulamaları geliştirilmiştir. Ayrıca farklı alanlarda çeşitli mobil uygulamalar görme engelliler için geliştirilmişti. Full otonom market uygulamalarında görme engelli kimseler için yeni bir ürün tanıtma ve bilgilendirme yapılabilmektedir [11]. TapTapSee, CloudSight Görüntü Tanıma API'sı tarafından desteklenen kör ve görme engelli kullanıcılar için özel olarak tasarlanmış bir mobil kamera uygulamasıdır. Uygulama, nesneleri fotoğraflamak ve kullanıcı için yüksek sesle tanımlamak için cihazın kamera ve VoiceOver işlevlerini kullanmaktadır [12]. 3 Nesne Rehberim: Nesne Arama ve Konumlandırma Şekil 1'de geliştirilen sisteme ait akış diyagramı genel hatlarıyla verilmiştir. Alt başlıklarda sistemin detaylandırılması yapılacaktır.

3.1 Görüntü Yakalama ve Ön İşlemler Şekil 1 Geliştirilen sistem akış diyagramı Akıllı telefonun kamerasından nesne çıkarımı yapılacak olan yerin görüntüsü alınır. Bu görüntü derin öğrenme modeline girdi olacağından boyutları modelin girdi boyutuna ([224, 224, 3]) göre düzenlenir, piksel değerleri [ 1, 1] aralığına map edilir. 3.2 Nesne Saptama KSA çeşitli katmanlardan oluşur. Her katmanın kendine ait bir sorumluluğu vardır. Genel olarak KSA mimarisinde aşağıdaki üç ana katman kullanılır. Bunlar (i) konvolüsyon, (ii) havuzlama (pooling) ve (iii) tam bağlı (fully connected) katmanları olarak adlandırılmışlardır. Herhangi bir KSA mimarisi oluşturulurken bu üç katman belli bir düzende toplanır. Bahsedilen katmanları kullanarak basit bir KSA mimarisi geliştirilebilir. Konvolüsyon katmanındaki çıkışın nöron sayısı üç tane hiper parametre ile kontrol edilir. Bunlar derinlik (depth), kaydırma adım uzunluğu (stride) ve sıfır tamponlama (zero padding). Derinlik; kullanmak istenilen filtrelerin sayısına karşılık gelir ve her bir filtre giriş görüntüsünde farklı birşeyleri aramayı öğrenir. Filtrelerin kaydırılacağı adım uzunluğu belirtilmelidir. Kaydırma adım uzunluğu büyüdükçe çıkışta elde edilecek çıktının boyutu küçülür. Kaydırma adım uzunluğu ne kadar küçük ise, görüntüden daha fazla bilgi elde edilir. Bazı durumlarda girişin kenarlarını sıfırlar ile doldurmak uygun görülür. Böylece çıkışın boyutunu kontrol edebilecek bir tane daha hiper parametre sıfır tamponlama yardıma gelir. Pratikte ardışık konvolüsyonel katmanların arasına periyodik olarak bir pooling katmanı eklemek yaygın bir yöntemdir. Pooling katmanı; ağ mimarisindeki parametrelerin ve hesaplamaların sayısını azaltan ve aşırı öğrenmeye engel olan bir mekanizmadır. KSA'da en yaygın kullanılan pooling çeşidi ise max pooling dir. Tam bağlı katman, çıktı katmanında bir softmax aktivasyon fonksiyonu kullanan geleneksel çok katmanlı perceptrondur. Tam bağlı terimi, önceki katmandaki her nöronun sonraki katmandaki her nörona bağlı olduğunu ima eder.

Görüntülerden nesne saptaması yapmak için Tensorflow nesne saptama API'sinden yararlanılmıştır [13]. İlgili API içinde birçok KSA modeli barındırmaktadır. Bu modellerden ssd_mobilenet_v1_android_export kullanıldı. 3.3 Nesne Konum Bulma Bir önceki adımda saptanan nesnelerin görüntü içinde konumlandırılması bu aşamada yapılmaktadır. Bu işlem çerçeve içine alınmış nesnelerin sınırları kullanılarak yapılmaktadır. Konum tespiti yapılması için ekran belirli aralıklara bölünerek atamalar yapılır. Başlangıç, sol bitiş, sağ başlangıç, sağ bitiş ve ön izleme alanıdır. Ekranı bölümlendirdikten sonra ekranda, bulunan nesnelerin koordinatlarına göre nesnenin ekranda kapladığı alan tespit edilir. Daha sonra tespit edilen bu alan bölümlendirilmiş blokların hangisinin içerisinde yer aldığı kontrol edilir ve bu kontrol sonucu nesne ile ilgili lokasyon tespit edilir. 3.4 Seslendirme İsimleri ve konumları belirlenmiş nesnelerin kullanıcılara sesli olarak okunması Google metin seslendirme API'si yardımyla yapılmaktadır. Google metin seslendirme, Android işletim sistemi için Google tarafından geliştirilen bir ekran okuyucu uygulamasıdır. Birçok dil desteğiyle ekrandaki metni seslendirmeyi sağlar [14]. 4 Kullanıcı Arayüzleri Görme engelli olan kullanıcı telefon ekranında uygulamayı bulup açma imkanı bulamayabileceği için ses açma tuşuna basılı tuttuğunda uygulama açılır ve açıldığına dair kişiye bildirim sesi gelir Kullanıcı daha sonra arama yapmak istediği bölgeye doğru telefon kamerasını tutarak bulmak istediği nesneyi arar. İsmi tespit edilen nesne veya nesneler için konum bilgilerinin belirlenmesi sağlanır. İsimleri ve konum bilgileri tespit edilen nesneler görme engelli kişilere sözlü olarak aktarılır. Bu işlemler ekranda algılanan nesne sayısı kadar tekrar eder ve ekranda algılanan tüm nesnelerin isimleri ve konumları söylenmiş olur. Örnek bir arayüz Şekil 2'de verilmiştir.

Şekil 2 Örnek bir uygulama arayüzü 5 Sonuç ve Gelecekteki Çalışmalar Gerçekleştirdiğimiz uygulama ile görme engelli kişilerin yaşamlarını kolaylaştırmayı hedefledik ve uygulamamız ile görme engelli vatandaşlarımıza yardımcı olacak, onlara rehberlik yapabilecek bir uygulama geliştirmiş olduk. Uygulama sayesinde görme engelli kişiler günlük hayatta sık olarak kullandıkları nesneleri bulmada daha rahat edecek ve çeşitli yaralanmalara sebep olan kazaların bir miktarda olsa önüne geçmiş olacaklardır. Gelecek çalışmalarda daha fazla nesnenin olduğu, daha hassas konumlandırmanın yapıldığı bir mimari geliştirmeyi hedeflemekteyiz. Ayrıca görme engelli kişiler üzerinde uygulamanın kullanılabilirliği ile ilgili deneyler yapılacaktır. Teşekkür Bu çalışma, TÜBİTAK tarafından 1919B011703287 nolu proje ile desteklenmektedir. Desteklerinden dolayı TÜBİTAK a teşekkür ederiz.

Kaynaklar 1. Pixie anketi, https://getpixie.com/blogs/news/lostfoundsurvey (Erişim Tarihi, 14 Ağustos 2018) 2. M. Serter Uzer, N. Yılmaz, M. Bayrak: Görme Tabanlı Mobil Robot İle Farklı Renklerde Nesnelerin Gerçek Zamanlı Takibi, Gazi Üniv. Müh. Mim. Fak. Der., 25(4): 759 766, 2010. 3. S. Meltek, B. Çetişli: Gerçek Zamanlı Endüstriyel Nesne Tanımada Kameraların Kullanılması, Süleyman Demirel University Journal of Natural and Applied Sciences, 16(2): 212 217, 2012. 4. Ö. Altınkurt, M. Kahriman: Gerçek Zamanlı Olarak, Anfis İle Renk Tabanlı Nesne Tespit Ve Motorlu Sistem İle Takip Edilmesi, SDU Journal of Technical Sciences, 1(1): 1 5, 2011. 5. A. Köksal, F.E. Uzyıldırım, M. Özuysal: Üç Boyutlu Sahneler ve Nesne Tanıma için Gürbüz Anahtar Nokta Eşleştirilmesi, İzmir İleri teknoloji Enstitüsü, İzmir, 2017 6. R. Girshick, J. Donahue, T. Darrell, and J. Malik: Rich feature hierarchies for accurate object detection and semantic segmentation, arxiv:1311.2524, 22 Ekim 2014. 7. R. Girshick: Fast R CNN, Proceedings of the 2015 IEEE International Conference on Computer Vision (ICCV), 1440 1448, 2015. 8. S. Ren, K. He, R. Girshick, and J. Sun: Faster R CNN: Towards Real Time Object Detection with Region Proposal Networks, IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(6): 1137 1149, 2017. 9. K. He, G. Gkioxari, P. Dollár, and R. Girshick: Mask R CNN for object detection and instance segmentation on Keras and TensorFlow, arxiv:1703.06870, 24 Ocak 2018. 10. Redmon and A. Farhadi: YOLO9000: Better, Faster, Stronger, Proceedings of Conference on Computer Vision and Pattern Recognition, 7263 7271, 2017. 11. https://www.aipoly.com/ (Erişim Tarihi, 14 Ağustos 2018) 12. https://taptapseeapp.com/ (Erişim Tarihi, 14 Ağustos 2018)

13. Tensorflow Object Detection API, https://github.com/tensorflow/models/tree/master/research/object_detection (Erişim Tarihi, 14 Mayıs 2018) 14. Google Text to Speech, https://cloud.google.com/text to speech/ (Erişim Tarihi, 14 Mayıs 2018)