ÖZEL EGE LİSESİ ORTAÖĞRETİM ÖĞRENCİLERİNİN SINAV PERFORMANSI MODELLEMESİNDE YAPAY SİNİR AĞLARI KULLANIMI



Benzer belgeler
YAPAY SİNİR AĞLARI. Araş. Gör. Nesibe YALÇIN BİLECİK ÜNİVERSİTESİ

Yapay Sinir Ağları. (Artificial Neural Networks) DOÇ. DR. ERSAN KABALCI

Zeki Optimizasyon Teknikleri

Esnek Hesaplamaya Giriş

ÇİMENTO BASMA DAYANIMI TAHMİNİ İÇİN YAPAY SİNİR AĞI MODELİ

CBS ve Coğrafi Hesaplama

etme çabalarının en son ürünlerinden bir tanesi yapay sinir ağları (YSA) teknolojisidir.

İş Zekası. Hafta 6 Kestirimci Modelleme Teknikleri. Yrd. Doç. Dr. H. İbrahim CEBECİ

Yapay Sinir Ağları GİRİŞ

BKİ farkı Standart Sapması (kg/m 2 ) A B BKİ farkı Ortalaması (kg/m 2 )

2011 Third International Conference on Intelligent Human-Machine Systems and Cybernetics

Yapay Sinir Ağları (Artificial Neural Networks)

ROBOTLARIN YAPAY SİNİR AĞLARI KULLANILARAK DENETİMİ.

Yapay Sinir Ağları ve Uygulamaları (EE 505) Ders Detayları

CETP KOMPOZİTLERİN DELİNMELERİNDEKİ İTME KUVVETİNİN ANFIS İLE MODELLENMESİ MURAT KOYUNBAKAN ALİ ÜNÜVAR OKAN DEMİR

Karaciğerde Oluşan Hastalıkların Tespitinde Makine Öğrenmesi Yöntemlerinin Kullanılması

Yapay Sinir Ağları ve Uygulamaları (EE 423) Ders Detayları

YAPAY SİNİR AĞLARI YÖNTEMİ İLE PAFTALARININ SAYISALLAŞTIRILMASI ARTIFICIAL NEURAL NETWORKS METHOD FOR MAP DIGITIZATION

Büyük Veri İçin İstatistiksel Öğrenme (Statistical Learning for Big Data)

T.C. KIRIKKALE ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ YAPAY SİNİR AĞLARI. Doç.Dr. Necaattin BARIŞÇI FİNAL PROJESİ

TC. GAZİ ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ İŞLETME ANABİLİM DALI ÜRETİM YÖNETİMİ BİLİM DALI

ÖRNEK BULGULAR. Tablo 1: Tanımlayıcı özelliklerin dağılımı

TUĞLA VE KİREMİT FABRİKALARININ HAVA KİRLİLİĞİNE KATKILARININ YAPAY SİNİR AĞI MODELLEMESİ İLE ARAŞTIRILMASI

İlk Yapay Sinir Ağları. Dr. Hidayet Takçı

VERİ MADENCİLİĞİ (Kümeleme) Yrd.Doç.Dr. Kadriye ERGÜN

İSTANBUL TİCARET ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ BİLGİSAYAR SİSTEMLERİ LABORATUARI

WEB SAYFALARINA İLİŞKİN YAPAY SİNİR AĞLARI İLE SINIFLANDIRMA YÖNTEMİ

İnsan beyni, birbiri ile karmaşık ilişkiler içinde bulunan nöron hücreleri kitlesidir. Tüm aktivitelerimizi kontrol eder, yaradılışın en görkemli ve

Yapay Sinir Ağları. (Artificial Neural Networks) DOÇ. DR. ERSAN KABALCI E S N E K H E S A P L A M A Y Ö N T E M L E R İ - II

PSM 11 PEM YAKIT HÜCRELERİNİN YAPAY SİNİR AĞLARI İLE MODELLENMESİ

Koşullu Öngörümleme. Bu nedenle koşullu öngörümleme gerçekleştirilmelidir.

BĠYOLOJĠ EĞĠTĠMĠ LĠSANSÜSTÜ ÖĞRENCĠLERĠNĠN LĠSANSÜSTÜ YETERLĠKLERĠNE ĠLĠġKĠN GÖRÜġLERĠ

Özörgütlemeli Öğrenme (SOM) A. Cumhur KINACI

İstatistik ve Olasılık

Web Madenciliği (Web Mining)

Çok katmanlı ileri sürümlü YSA da standart geri yayıyım ve momentum geri yayılım algoritmalarının karşılaştırılması. (Eğitim/Hata geri yayılım)

Çok Katmanlı Algılayıcı (Multilayer Perceptron) DOÇ. DR. ERSAN KABALCI

İSTATİKSEL NORMALİZASYON TEKNİKLERİNİN YAPAY SİNİR AĞIN PERFORMANSINA ETKİSİ

NÖRAL SİSTEMLERE GİRİŞ. Ders Notu

VERİ MADENCİLİĞİ (Sınıflandırma Yöntemleri) Yrd.Doç.Dr. Kadriye ERGÜN

Suleyman TOSUN

OYUN TEORİSİ. Özlem AYDIN. Trakya Üniversitesi Bilgisayar Mühendisliği Bölümü

ÖZEL ŞİŞLİ TERAKKİ LİSESİ ÖZEL ŞİŞLİ TERAKKİ TEPEÖREN ANADOLU LİSESİ ÖZEL ŞİŞLİ TERAKKİ FEN LİSESİ BAŞARI BURSU YÖNETMELİĞİ

BAŞKENT ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ BENZER SÜREÇLERDE ÜRETİLEN ÜRÜNLER İÇİN YAPAY ZEKA İLE ZAMAN TAHMİNİ SONER ŞÜKRÜ ALTIN

2.1 Bir Sınıfı Örneklerinden Öğrenme Vapnik-Chervonenkis (VC) Boyutu Olası Yaklaşık Doğru Öğrenme... 21

YÖNEYLEM ARAŞTIRMASI - I

BÖLÜM 13 HİPOTEZ TESTİ

İÇİNDEKİLER. BÖLÜM 1 Değişkenler ve Grafikler 1. BÖLÜM 2 Frekans Dağılımları 37

Genetik Algoritmalar. Bölüm 1. Optimizasyon. Yrd. Doç. Dr. Adem Tuncer E-posta:

ÖZEL EGE LİSESİ FİBONACCİ DİZİLERİ YARDIMIYLA DEĞERİNİ HESAPLAYAN BİR FORMÜL

Dr.Eyyüp GÜLBANDILAR Dr.Eyyüp GÜLBANDILAR

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Ders 1- Yapay Zekâya Giriş. Erhan AKDOĞAN, Ph.D.

Örnek. Aşağıdaki veri setlerindeki X ve Y veri çiftlerini kullanarak herbir durumda X=1,5 için Y nin hangi değerleri alacağını hesaplayınız.

RASSAL DEĞİŞKENLER VE OLASILIK DAĞILIMLARI. Yrd. Doç. Dr. Emre ATILGAN

LİSE VE FEN LİSESİ BAŞARI BURSU YÖNETMELİĞİ

... ROBOTİK VE KODLAMA EĞİTİMİ ÇERÇEVESİNDE ÖĞRETİM YILI BİLİŞİM TEKNOLOJİLERİ DERSİ ÜNİTELENDİRİLMİŞ YILLIK DERS PLANI

Geriye Yayılım ve Levenberg Marquardt Algoritmalarının YSA Eğitimlerindeki Başarımlarının Dinamik Sistemler Üzerindeki Başarımı. Mehmet Ali Çavuşlu

SÜREKLİ DOĞAL GERİLİM VERİLERİNİN YAPAY SİNİR AĞLARI İLE DEĞERLENDİRİLMESİ, DEPREM ve YAĞIŞLARLA İLİŞKİSİ

2. REGRESYON ANALİZİNİN TEMEL KAVRAMLARI Tanım

Web Madenciliği (Web Mining)

Otomatik Doküman Sınıflandırma

Zeki Optimizasyon Teknikleri

SÜREKLİ RASSAL DEĞİŞKENLER

TEMEL BİLGİSAYAR BİLİMLERİ. Programcılık, problem çözme ve algoritma oluşturma

ÜSTEL DÜZLEŞTİRME YÖNTEMİ

DSK nın Ortaya Çıkışı ve Gelişimi

BULANIK MANTIK ile KONTROL

Mekatronik Mühendisliği Uygulamalarında Yapay Zekâ. Makine Öğrenmesi. Erhan AKDOĞAN, Ph.D.

Veri Madenciliği Yaklaşımı ile Mesleki Yönlendirme Sistemi

OTOMATİK KONTROL SİSTEMLERİ İŞARET AKIŞ DİYAGRAMLARI SIGNAL FLOW GRAPH

Halil ÖNAL*, Mehmet İNAN*, Sinan BOZKURT** Marmara Üniversitesi Atatürk Eğitim Fakültesi*, Spor Bilimleri Fakültesi**

Makine Öğrenmesi 8. hafta

BÖLÜM 6 MERKEZDEN DAĞILMA ÖLÇÜLERİ

Hava Kirliliğine Neden Olan PM10 ve SO 2 Maddesinin Yapay Sinir Ağı Kullanılarak Tahmininin Yapılması ve Hata Oranının Hesaplanması

Motivasyon Matrislerde Satır İşlemleri Eşelon Matris ve Uygulaması Satırca İndirgenmiş Eşelon Matris ve Uygulaması Matris Tersi ve Uygulaması Gauss


Hipotez Testlerine Giriş. Hipotez Testlerine Giriş

3.2. DP Modellerinin Simpleks Yöntem ile Çözümü Primal Simpleks Yöntem

MODELLEME VE BENZETİM

Analitik Hiyerarşi Prosesi (AHP) Yrd.Doç.Dr. Sabahattin Kerem AYTULUN

ÖZET...V ABSTRACT...VII TEŞEKKÜR... IX ŞEKİLLER DİZİNİ... XIV SÖZLÜK... XIX

Gazi Üniversitesi İktisadi ve İdari Bilimler Fakültesi Dergisi Gazi Akademi Genç Sosyal Bilimciler Sempozyumu 2017 Özel Sayısı ( )

Bu bölümde; Çok ölçütlü karar verme yöntemlerinden biri olan TOPSİS yöntemi anlatılacaktır.

Meslek lisesi ve devlet lisesine giden N tane öğrenci olduğu ve bunların yıllık okul harcamalarına ait verilerin olduğu varsayılsın.

Okut. Yüksel YURTAY. İletişim : (264) Sayısal Analiz. Giriş.

T.C. ADANA BİLİM VE TEKNOLOJİ ÜNİVERSİTESİ SINAV VE BAŞARI DEĞERLENDİRME YÖNERGESİ

YEŞİLIRMAK NEHRİ İÇİN TOPLAM ORGANİK KARBON ÖNGÖRÜ MODELLERİ

TEMEL İSTATİSTİKİ KAVRAMLAR YRD. DOÇ. DR. İBRAHİM ÇÜTCÜ

ISSN : Isparta-Turkey YAPAY SĠNĠR AĞLARI (YSA) YÖNTEMĠ ĠLE GLOBAL RADYASYON TAHMĠNĠ

EŞİTLİK KISITLI TÜREVLİ YÖNTEMLER

ÜNİT E ÜNİTE GİRİŞ. Algoritma Mantığı. Algoritma Özellikleri PROGRAMLAMA TEMELLERİ ÜNİTE 3 ALGORİTMA

SPSS E GİRİŞ SPSS TE TEMEL İŞLEMLER. Abdullah Can

Yapay Sinir Ağları İçin Net Platformunda Görsel Bir Eğitim Yazılımının Geliştirilmesi

İstatistik. Temel Kavramlar Dr. Seher Yalçın 1

BİLİŞSEL NÖROBİLİM BİLGİ İŞLEME SÜREÇ VE YAKLAŞIMLARI

OTOMATİK KONTROL SİSTEMLERİ. DİNAMİK SİSTEMLERİN MODELLENMESİ ve ANALİZİ

TEMEL EĞİTİMDEN ORTAÖĞRETİME GEÇİŞ ORTAK SINAV BAŞARISININ ÇEŞİTLİ DEĞİŞKENLER AÇISINDAN İNCELENMESİ

YAPAY SĠNĠR AĞLARI ĠLE KOCAELĠ ĠLĠNĠN PUANT YÜK TAHMĠNĠ. Oya DEMİRER Demet ÖZDEMİR Melih İNAL

Transkript:

ÖZEL EGE LİSESİ ORTAÖĞRETİM ÖĞRENCİLERİNİN SINAV PERFORMANSI MODELLEMESİNDE YAPAY SİNİR AĞLARI KULLANIMI HAZIRLAYAN ÖĞRENCİLER: Yaren DEMİRAĞ Ege Onat ÖZSÜER DANIŞMAN ÖĞRETMEN: Gülşah ARACIOĞLU İZMİR 2015

İÇİNDEKİLER 1. PROJENİN AMACI... 4 2. GİRİŞ...... 4 3. ÖN BİLGİLER.... 5 3.1 Yapay Zekanın Tanımı ve Tarihçesi.... 5 3.2 Yapay Sinir Ağlarının Tanımı ve Tarihçesi... 6 3.2.1 Yapay Sinir Ağlarının Genel Özellikleri..... 6 3.2.2 Yapay Sinir Ağlarının Yapısı ve Temel Bileşenleri... 7 3.2.2.1 Biyolojik Sinir Sistemi... 7 3.2.2.2 Yapay Sinir Hücresi... 8 3.2.2.3 Yapay Sinir Ağları Tabakaları.. 12 3.2.3 Yapay Sinir Ağlarının Sınıflandırılması..... 13 3.2.3.1 Yapay Sinir Ağlarının Yapılarına Göre Sınıflandırılması..... 13 3.2.3.2 Yapay Sinir Ağlarının Algoritmalarına Göre Sınıflandırılması. 14 3.2.4 Yapay Sinir Ağlarının Öğrenme Stratejileri.. 15 3.2.4.1 Yapay Sinir Ağlarında Öğrenme Kuralları. 15 3.2.5 Yapay Sinir Ağları Modelleri.... 16 3.2.6 Yapay Sinir Ağlarında Ağ Tasarımı.. 18 3.2.6.1 Öğrenme Algoritmasının Seçimi. 18 3.2.6.1.1 Geri Yayılım Algoritması 18 3.2.6.2 Ara Katman Sayısının Belirlenmesi 20 3.2.6.3 Nöron Sayısının Belirlenmesi.. 20 3.2.6.4 Verilerin Normalleştirilmesi.. 20 3.2.6.5 Yapay Sinir Ağlarının Eğitimi ve Testi 21 3.2.6.6 Yapay Sinir Ağlarının Performansının Belirlenmesi. 22 4. MATERYAL VE YÖNTEM... 24 4.1 Yapay Sinir Ağının Modellenmesi..... 24 2

4.2 Ağ Performansının Belirlenmesi.... 25 5. SONUÇLAR... 26 6. SONUÇLARIN DEĞERLENDİRİLMESİ... 1 28 TEŞEKKÜR. KAYNAKLAR.... 29 29.... 3

1. PROJENİN AMACI Bu projenin amacı, öğrencilerin ilk ve ortaöğretim düzeyi başarı notlarına, ortaöğretim sürecinde dahil oldukları ortak sınav puanlarına ve anne ile babalarının eğitim seviyelerine ilişkin bilgileri aracılığıyla öğrencilerin Seviye Belirleme Sınavı (SBS) puanlarını yapay sinir ağları yöntemi ile öngören bir model geliştirmektir. 2. GİRİŞ Bilgisayarlar, temele indirgendiğinde bir takım hesaplamalar yapabilen veri transfer cihazlarıdır. Ancak araştırmacılar zamanla, istenilen amaç doğrultusunda bilgisayarların verilere yorum getirebilmesini de sağlamışlardır. Verilerin filtrelenerek incelenmesi ile bilgisayarlar birçok alanda gelişmeye neden olmuştur. Karmaşık problemlerin çözümü için geliştirilen modelleri ve algoritmaları yorumlamada insan gücü yetersiz kalınca, bilgisayarların işlem gücünden faydalanılmak istenmiştir. Bilgisayarların bir takım üstün özellikleri arasında olan olaylar hakkında karar verebilme, olaylar arasındaki ilişkilerin değerlendirilmesi ve matematiksel olarak modellenmesi, güç problemlerin sezgisel yöntemlerle çözülmesi yapay zeka kavramını ortaya çıkarmıştır. Yapay zeka yardımı ile çözümlenen problemlerin asıl amacı, insanoğlunun doğuştan sahip olduğu zeka yapısının modellenebilmesi ve birtakım fonksiyonlarının bilgisayarlara ve bilgisayar denetimli makinelere kazandırılmasını sağlamaktır (Baş, 2006). Yapay zeka teknolojilerinde yer alan yapay sinir ağları tekniği beynin çalışma prensiplerini kendine baz alarak, beynin yapısını oluşturan sinir ağlarının işleyişini modellemeye çalışan bir tekniktir (Baş, 2006). Bu teknolojide amaç, incelenmek istenen sorunun veya araştırılmak istenen olayın bilgilerinin, örnekler üzerindeki eğitimi ile ortaya çıkan özellikler üzerinde genelleme yapabilmesi ve daha önce hiç karşılaşmadığı örnekler için de uygun çözümler üretmesinin sağlanmasıdır (Baş, 2006). Yapay sinir ağları günümüzde hemen hemen her bilim dalında oldukça yaygın bir kullanım sahasına sahiptir. Özellikle tıp ve haberleşme (Saraç, 2004), savunma sanayi ( Baş, 2006), otomasyon ve kontrol (Saraç, 2004), endüstriyel ve üretim (Yıldız, 2006), ekonomi (Zontul, 2004), turizm (Çuhadar ve Kayacan, 2005), veri madenciliği, beyin fonksiyonlarının modellenmesi, güvenlik sistemleri, konuşma ve parmak izi okuma gibi alanlarda oldukça etkili olarak kullanılmaktadır (Yıldız, 2006). Yapay sinir ağları eğitim alanında öğrenci başarılarının sınıflandırılması ve başarı tahmininde de etkili bir şekilde uygulanmaktadır (Çırak, 2013). Bülbül ve Ünsal (2010) tarafından geliştirilen yazılım ile mesleki alan seçim sürecinde bulunan bireylerden alınan verilere göre birey için en uygun mesleki alanın sistem tarafından önerilmesi amaçlanmıştır (Göker, 2012). Bozkur ve arkadaşları (2009) da, 2008 yılında üniversite sınavına girmiş olan öğrencilerin verileri üzerinde çalışarak öğrenci başarısını etkileyen faktörleri belirlemeye çalışmışlardır. (Bırtıl, 2011) de öğrencilerin başarısızlık anketine verdikleri cevaplar incelenmiş, kümeleme algoritması kullanılarak öğrencilerin başarısızlık nedenleri gruplandırılmış ve gruplandırılan başarısızlık nedenlerinin daha aza indirilmesi için gerekli önlemlerin alınarak öğrenci başarı düzeylerinin artırılabileceği sonucuna varılmıştır. (Gündoğdu, 2007) de ise genetik algoritma kullanılarak, öğrencilerin üniversite giriş sınavındaki başarıları ile derslerdeki başarı ortalamaları arasındaki kuralın çıkarılması ve yeni 4

gelecek öğrencilerin başarı durumlarının öngörülebileceği öğrenci başarı analizi için bir yazılım geliştirilmiştir (Göker 2012). Yükseköğretim Kurulu (YÖK) Tez Merkezi Veri Tabanı incelendiğinde MEB tarafından düzenlenen Seviye Belirleme Sınavı na (SBS) ilişkin bir tahminleme çalışmasına rastlanılmamıştır. Bu projede, buna dayanarak bir ortaokulun 2011-2013 yılları arasında mezun olan 334 öğrencisi üzerinde çalışılmıştır. Öğrencilerin ilk ve ortaöğretim düzeyi başarı notları, ortaöğretim sürecinde dahil oldukları ortak sınav puanları ile anne ve babalarının eğitim seviyelerinin, SBS puanı üzerine etkilerinin Levenberg-Marquardt eğitim algoritması aracılığı ile öngörülmesi amaçlanmıştır. 3. ÖN BİLGİLER 3.1 Yapay Zekanın Tanımı ve Tarihçesi Zeka, ilk defa karşılaşılan ya da beklenmedik bir anda meydana gelen bir olaya veya duruma ayak uydurabilme, anlama, öğrenme, analiz ve sentez yoluyla duygu ve düşüncelerin yoğunlaşması olarak tanımlanabilir (Elmas, 2003). Bütün bu tanımlardan hareketle yapay zeka, programlanmış bir bilgisayarın düşünme girişimi olarak düşünülebilir (Saraç, 2004). Yapay zeka alanında yapılan çalışmalarda hepsinde hedeflenen asıl amaç, İnsan beyninin fonksiyonlarını modeller aracılığı ile anlamaya ve çözmeye çalışmak, İnsan zihninin bilgi kazanma, öğrenme, icat etme gibi bir takım zihinsel fonksiyonlarını kullanırken uyguladıkları strateji ve yöntemleri araştırmak, Bu metotların formal bir hal almasını sağlayarak bilgisayarlarda uygulamak, Yapay zeka iş yardımcıları ve zeki robot gelişimini yapabilmek, Bilimsel araştırma ve buluşlar için araştırma yardımcıları geliştirmek şeklinde sıralamak mümkündür (Saraç, 2004). Yapay zeka alanındaki ilk gelişmeler ve araştırmalar, Turing makinesinin icadı ile başlamıştır. Bu gelişme insanlar tarafından gerçekleştirilen birçok işlemin daha kısa sürede, daha güvenilir bir şekilde yapılabileceği düşüncesinin de temellerini atmıştır. (Bayır, 2006). Yapay zeka konusunda ilk çalışma Mc Culloch ve Pitts tarafında önerilen, yapay sinir hücrelerinin baz alındığı hesaplama modeli önermeler mantığına, fizyolojisine ve Turing hesaplama kuramına dayalı olan çalışmadır (Saraç, 2004). Bu çalışma ile herhangi bir fonksiyonun, sinir hücrelerinden oluşturulan ağlarla hesaplanabileceği ve mantıksal önermeler ve ve veya kavramlarından oluşan hesaplamaların da yapılabileceği gösterilmiştir (Saraç, 2004). Shannon ve Turing (1950) tarafından, bilgisayarlar için satranç programları yazılmış, SNARC isimli ilk yapay sinir ağlarının temellerini oluşturan bilgisayar ise Milli İstihbarat Teşkilatında (MIT), Minsky ve Edmonds (1951) tarafından yapılmıştır. Yapay zeka adı 1956 yılında Dartmouth da düzenlenen toplantı sonucunca ilk kez konulmuş olup, ilk kuram ispatlayan program olan Logic Theorist (Mantık kuramı) da Newell ve Simon tarafından ilk kez 5

bu toplantıda tanıtılmıştır (Saraç, 2004). Bu programa, daha sonrasında insan gibi düşünme yaklaşımına göre uyarlanmış olan Problem Solver (Genel Sorun Çözücü) ın gelişmesi de eklenmiş ve bu alanda çalışan bilim adamlarını her alanda sorunu çözecek genel amaçlı program üretmek yerine, belli bir alandaki bilgiyle donatılmış olan programların üretilmesi gerektiğine sevk etmiştir (Saraç, 2004). 3.2 Yapay Sinir Ağlarının Tanımı ve Tarihçesi Yapay sinir ağlarının, bu alanda çalışan bilim adamları tarafından yapılmış tek bir tanımı mevcut bulunmamakla beraber literatürde farklı farklı tanımlarına rastlamak mümkündür (Küçükönder, 2011). Yapay sinir ağlarının basit anlamdaki tanımı, beyinde var olan sinirlerin çalışma prensiplerinden esinlenerek sistemlere öğrenme, bilgi edinme, bilgiler arası bağlantı ve ilişki kurma, hatırlama gibi yetenekleri kazandırmayı amaçlayan bilgi işleme sistemidir (Baş, 2006). Basit anlamdaki bir diğer tanımı ise, örnek kümesi yardımıyla, parametrelerin uyarlanabilmesi için yazılan, matematiksel formüller için oluşturulan bir bilgisayar yazılımı olduğudur (Yurtoğlu, 2005). Yapay sinir ağının işleyiş özelliklerine dayanan ikinci tür tanımı ise ilk ticari yapay sinir ağının geliştiricisi olan Dr. Robert HECHT-NIELSEN'e ait bir tanımdır: "Yapay sinir ağı dışarıdan gelen girdilere dinamik olarak yanıt oluşturma yoluyla bilgi işleyen, birbiriyle bağlantılı basit elemanlardan oluşan bilgi işlem sistemidir (Çanakçı ve Hosoz, 2006). Bu tanıma yakın bir tanımda yapay sinir ağı yazımında çok tanınan Teuvo KOHONEN'e ait bir tanımdır :" Yapay sinir ağları paralel olarak bağlantılı ve çok sayıdaki basit elemanın, gerçek dünyanın nesneleriyle biyolojik sinir sisteminin benzeri yolla etkileşim kuran, hiyerarşik bir organizasyonudur (Saraç, 2004). Yapay sinir ağlarının dayandığı ilk hesaplama modelinin temelleri 1940'ların başında araştırmalarına başlayan W.S. McCulloch ve W.A. Pitts'in, 1943 yılında yayınladıkları bir makaleyle atılmıştır. Daha sonra 1954 yılında B.G. Farley ve W.A. Clark tarafından bir ağ içerisinde uyarılara tepki veren, uyarılara adapte olabilen model oluşturulmuştur. 1960 yılı ise ilk neural bilgisayarın ortaya çıkış yılıdır. 1963 yılında basit modellerin ilk eksiklikleri fark edilmiş, 1985 yılı, yapay sinir ağlarının oldukça tanındığı, yoğun araştırmaların başladığı yıl olmuştur (Saraç, 2004). 3.2.1 Yapay Sinir Ağlarının Genel Özellikleri Yapay sinir ağları, insan beyninin fonksiyonel özelliklerine benzer şekilde aşağıdaki konularda yaygın olarak kullanılmaktadır: (Öztemel, 2003) Öğrenme Veri İlişkilendirme Veri Sınıflandırma Veri Sıklaştırma ve Filtreleme Genelleme Tahmin Özellik Belirleme Optimizasyon 6

Genel olarak yapay sinir ağları, Matematiksel olarak modellenmesi güç ve karmaşık olan problemleri rahatlıkla çözümleyebilme imkanına sahiptirler (Elmas,2003). Bir problem için bir ağ oluşturulurken herhangi bir bilgiye değil sadece örneğe ihtiyaç duyarlar. Örnekten yola çıkarak genelleme yapabilme yeteneğine sahiptirler. Bilgiyi bulmak zaman zaman zor olurken, örnek bulmak daha kolay mümkün olmaktadır. Diğer bir deyişle belli bir kural tabanı gerektirmezler. Bir uzmana ve programlamaya ihtiyaç hissetmeden çalışacak şekilde tasarlanırlar. Veri içinde yer alan deseni, kendisi tek başına örüntüyü tarayarak kendi başına öğrenir. Günlük hayatta olaylar ile olayların altında yatan değişik etkilerini ve ilişkilerini bilmek zordur fakat yapay sinir ağı ile bu durumun kendiliğinden ortaya çıkarılması mümkün olmaktadır. Yapay sinir ağının uygulanması oldukça pratik ve ekonomiktir. Sadece probleme ilişkin örneklere ihtiyaç duyulduğundan basit bir programlama ile problemin çözümü mümkün olabilmektedir. Yapay sinir ağı diğer sistemlere oranla zaman bakımından da verimli olup, örnek bulunduğunda, probleme uygun ağ oluşturularak, ağın öğrenmesi ve diğer örnekler içinde kullanılabilmesi çok kısa zamanda yapılabilmektedir. 3.2.2 Yapay Sinir Ağlarının Yapısı ve Temel Bileşenleri Yapay sinir ağları teknolojisinin biyolojik sinir sitemi ile aralarında benzer yapıları bulunmaktadır. 3.2.2.1 Biyolojik Sinir Sistemi Biyolojik sinir sistemi, merkezde sürekli olarak bilgiyi alan, yorumlayan ve uygun bir karar üreten beynin bulunduğu üç katmanlı bir sistem olarak açıklanır (Haykin, 1999). Bunlar; çevreden gelen girdileri elektriksel sinyallere dönüştürerek beyine ileten alıcı sinirler (receptor), beynin ürettiği elektriksel sinyalleri çıktı olarak uygun tepkilere dönüştüren tepki sinirleri, alıcı ve tepki sinirleri arasında ileri ve geri besleme yaparak uygun tepkiler üreten merkezi sinir ağıdır (Bose ve Liang, 1996). Uyarılar Alıcı Sinirler Merkezi Sinir Ağı (Beyin) Tepki Sinirleri Tepkiler Şekil 1: Sinir Sisteminin Blok Gösterimi (Saraç, 2014) Sinir Hücreleri (Nöronlar), sinir sisteminin temel işlem elemanıdır. Birbiriyle bağlantılı iki nöronun Akson, Dentrit, 7

Sinaps Hücre gövdesi (soma) olmak üzere dört önemli bölümü bulunmaktadır. Dentritler; diğer sinir hücrelerinden gelen elektrokimyasal sinyalleri alarak somaya (Nucleus) ulaştıran parçalardır. Bir sinir hücresinden yüzlerce dentrit çıkabilir (Tepehan, 2011). Soma (Nucleus); sinir hücresinin gövdesidir. Dentritlerle alınan bilgilerin, birleştirilip anlamlandırıldığı, kısaca işlendiği ve elde edilen çıktıların aksona gönderildiği mikro işlem birimidir (Tepehan, 2011 ). Şekil 2: Biyolojik Sinir Hücresi Akson; sinir hücresinin ürettiği elektrokimyasal sinyalleri diğer sinir hücreleri ve çıktı elemanlarına gönderen parçadır. Bir aksonun uç kısmında birçok sinaps bulunmaktadır (Tepehan, 2011). Sinapslar; parçası oldukları aksonun, diğer sinir hücrelerine ait dentritlere bağlanmasını sağlayan birleşme noktalarıdır (Öztemel, 2006; Yurtoğlu, 2005; Baş, 2006). 3.2.2.2 Yapay Sinir Hücresi Biyolojik sinir ağlarının, biyolojik sinir hücrelerinden oluşması gibi, yapay sinir ağları da yapay sinir hücrelerinden oluşmaktadır. Yapay sinir ağlarının temel işlem birimleri olan yapay sinir hücreleri, yukarıda anlatılan biyolojik sinir hücrelerinin dört temel elemanına benzerlik göstermektedir (Tepehan, 2011). Geliştirilen hücre modellerinde bazı farklılıklar olmakla birlikte genel özellikleri ile bir yapay hücre modeli beş bileşenden oluşmaktadır. Bunlar; Girdiler Ağırlıklar Birleştirme Fonksiyonu Aktivasyon Fonksiyonu Çıktı şeklindedir (Saraç, 2004). Şekil 3 de bir yapay sinir hücresi görülmektedir. Girdiler; bir yapay sinir hücresine, dış dünyadan, diğer sinir hücrelerinden veya kendi kendisinden gelen bilgilerin tamamıdır. Bu girdiler, sinir hücresinin öğrenmesi istenilen örneklerden oluşmaktadır (Öztemel, 2006; Yurtoğlu, 2005; Baş, 2006). 8

Ağırlıklar; bir yapay sinir hücresine gelen bilginin önem derecesini ve hücre üzerindeki etkisini belirleyen değerlerdir. Şekil 3 de görülen Ağırlık 1, Girdi 1 in yapay sinir hücresi üzerindeki etkisini ifade etmektedir. Gelen bilgiler, bağlantılar üzerindeki ağırlıkları ile yapay sinir hücresine girerler. Ağırlıkların negatif veya pozitif olması, büyük veya küçük olması; onların yapay sinir hücresi için önemli veya önemsiz olduğu anlamına gelmemektedir. Ayrıca ağırlığın değerinin sıfır olması da o ağ için en önemli olay olabilmektedir. Yapay sinir ağlarında öğrenme, bu ağırlıkların değiştirilmesi ile meydana gelmektedir (Öztemel, 2006; Yurtoğlu, 2005; Baş, 2006). Toplama Fonksiyonu Toplama Fonksiyonu Aktivasyon Fonksiyonu Çıktı Şekil 3: Yapay Sinir Hücresi (Gurney, 1996; Akt.:Baş, 2006) Toplama Fonksiyonu; yapay sinir hücresine gelen net girdiyi hesaplamak için kullanılan fonksiyondur. Toplama fonksiyonu olarak değişik fonksiyonlar kullanılabilmektedir. Ancak en yaygın olarak kullanılan fonksiyon, girdilerin kendi ağırlıkları ile çarpımının toplamını ifade eden ağırlıklı toplamdır. Bunun yanında toplama fonksiyonu olarak, maksimum, minimum, çarpım veya değişik normalizasyon işlemlerinden birisi de kullanılabilir. Oluşturulacak bir yapay sinir ağı için en uygun toplama fonksiyonunu belirlemek adına geliştirilmiş bir yöntem mevcut değildir. Genellikle deneme yapılarak en uygun toplama fonksiyonu seçilmektedir. Ayrıca oluşturulan bir yapay sinir ağında, tüm yapay sinir hücrelerinin aynı toplama fonksiyonunu kullanması gibi bir zorunluluk yoktur. Farklı yapay sinir hücreleri, farklı toplama fonksiyonları kullanabilirler (Öztemel, 2006; Yurtoğlu, 2005; Baş, 2006). Aktivasyon Fonksiyonu; yapay sinir hücresine toplama fonksiyonu vasıtasıyla gelen Net Girdi yi işleyerek üreteceği çıktıyı belirleyen fonksiyondur. Bu fonksiyonla elde edilen değer ya dış ortama ya da girdi olarak başka bir yapay sinir hücresine iletilir. Toplama fonksiyonunun seçiminde olduğu gibi, aktivasyon fonksiyonunun seçiminde de farklı denklemler kullanılabilir. Bunun yanında aynı ağ içindeki farklı yapay sinir hücreleri de, farklı aktivasyon fonksiyonlarına sahip olabilirler. En uygun aktivasyon fonksiyonunun seçimi için de henüz bir yöntem geliştirilmemiştir. Bu nedenle aktivasyon fonksiyonu seçiminde de deneme 9

yanılma yoluna gidilmektedir. Literatürde en çok kullanılan aktivasyon fonksiyonları Şekil 4 ve Şekil 5 de görülmektedir (Tepehan, 2011). Yapay Sinir Hücresinin Çıktısı; girdilere karşılık olarak aktivasyon fonksiyonu tarafından üretilen değerdir. Çıktı dış dünyaya, başka bir yapay sinir hücresine veya o çıktıyı üreten yapay sinir hücresinin kendisine gönderilebilir. Bir yapay sinir hücresi için çok sayıda girdi olmasına karşın, yalnızca bir çıktısı vardır (Öztemel, 2006). Adım (Step) Fonksiyon Eşik (Threshold) Fonksiyon Sigmoid Sigmoid Fonksiyon Fonksiyonu y = F(x) = 1 1 + e x Tanjant-Sigmoid Fonksiyonu Hiperbolik Tanjant Fonksiyon y = F(x) = ex e x e x + e x Şekil 4: Aktivasyon Fonksiyonları (Tepehan, 2011) Örneğin, Şekil 6 da belirlenen ve ağırlıklı toplam alınarak hücreye gelen net bilgi, şu şekilde hesaplanır; NET: 0.5 (0.1) + 0.6 ( 0.2) + 0.9 ( 0.1) + 0.5 (0.7) = 1.225 Hücrenin sigmoid fonksiyonuna göre çıktısı da olarak hesaplanır. Çıktı = 1/(1 + e 1.225 ) = 0.77 10

- Şekil 5: Aktivasyon Fonksiyonları (Küçükönder, 2011) NET: 1.225 F(NET) 1/1 + e 1.225 Şekil 6: Bir Yapay Sinir Hücresinin Çalışma Örneği (Saraç, 2004) 11

Tablo 1 de biyolojik sinir sistemi ile yapay sinir sistemi ilişkilendirilmektedir. BİYOLOJİK SİNİR SİSTEMİ YAPAY SİNİR AĞLARI Sinir Sistemi Sinirsel Hesaplama Sistemi Nöron (Sinir) İşlem Elemanı Dendrit Toplama Fonksiyonu Hücre Gövdesi Transfer Fonksiyonu Aksonlar Eleman Çıkışı Sinapslar Ağırlıklar Tablo 1: Biyolojik Sinir Sistemi ile Yapay Sinir sistemi Arasındaki Benzer Kavramlar (Tepehan, 2011 ) 3.2.2.3 Yapay Sinir Ağları Tabakaları Yapay sinir hücrelerinin bir araya gelmesiyle yapay sinir ağları oluşmakta olup bu bir araya geliş ve bağlantılar rastgele değildir (Baş, 2006). Nöronlar, aynı doğrultuda bir araya gelip tabakaları oluştururlar. Bu tabakalarda bazı nöronlar girdileri almak için bazıları ise çıktıları iletmek amacıyla dış ortamla bağlantı halindedir. Bu tabakalar sırasıyla; şeklindedir. Girdi Katmanı Ara Katman (Gizli Katman) Çıktı Katmanı Girdi tabakası (katmanı): Dış ortamdan alınan giriş bilgilerini gizli tabakalara transfer eden nöronlardan oluşmaktadır. Girdi nöronları, aldıkları giriş değerleri üzerinde herhangi bir işlem yapmaksızın bir sonraki tabakaya bu değerlerin iletimini sağlarlar (Çanakçı ve Hosoz, 2006). Gizli tabaka (katman): Girdi tabakasından gelen bilgilerin işlenerek çıktı tabakasına gönderilmesinin sağlandığı tabakadır. Bu işleyiş gerçekleştirilirken ara tabakalar (gizli tabaka) kullanılır ve ara tabakalarda bilgi işlenir. Gizli tabaka, tek tabaka halinde olabileceği gibi bazı durumlarda birden fazla tabakadan da oluşması mümkündür. Tabakada yer alan çok sayıda nöronlar ağ yapısı içerisinde diğer nöronlarla bağlantılı bir yapıya sahiptir. Bu nedenle, gizli tabakada bulunması gereken nöron sayısı seçimi oldukça önemli olup dikkatli bir şekilde yapılmalıdır (Öztemel, 2003). Çıktı tabakası: Çıktı tabakası, gizli tabakadan gelen bilgileri işleyip, ağın girdi tabakasına sunulan girdi seti için uygun çıktıyı üretir. Üretilen çıktı dış ortama açılır (Çanakçı ve Hosoz, 2006). 12

Şekil 3: Yapay Sinir Ağı Modeli Tek Yapay Sinir Hücresi Yapay Sinir Hücresinin Çıktısı Şekil 7: Yapay Sinir Ağının Genel Yapısı (Tepehan, 2011) 3.2.3 Yapay Sinir Ağlarının Sınıflandırılması Yapay sinir ağları, yapılarına göre ve algoritmalarına göre sınıflandırılırlar. 3.2.3.1 Yapay Sinir Ağlarının Yapılarına Göre Sınıflandırılması Yapay sinir ağları yapılarına göre bilgi akışının tek yönlü, ileriye doğru olduğu, nöronların ara katmanlarda bulunarak oluşturduğu bir yapıya sahip olan ileri beslemeli (feedforward) ağlar, en az bir hücrenin çıkışı, kendisine veya diğer hücrelere giriş verisi olarak verilen geri beslemeli ağlar olmak üzere iki şekilde sınıflandırılır (Küçükönder, 2011). 13

Geriye doğru hesaplamada, ağın ürettiği çıktı değeri, ağın beklenen çıktıları ile kıyaslanır. Bunların arasındaki fark, hata olarak kabul edilir. Amaç bu hatanın düşürülmesidir. Çıktı katmanında oluşan toplam hatayı bulmak için, bütün hataların toplanması gereklidir. Bazı hata değerleri negatif olacağından, toplamın sıfır olmasını önlemek amacıyla ağırlıkların kareleri hesaplanarak sonucun karekökü alınır (Saraç, 2004). x(t) F(Wx) y(t) Şekil 8: İleri Beslemeli Ağın Blok Gösterimi (Sağıroğlu ve ark., 2004). YSA x(0) F(Wy(t)) W y(t+d) y(t) Gecikme d Şekil 9: Geri Beslemeli Ağın Blok Gösterimi (Sağıroğlu ve ark., 2004). 3.2.3.2 Yapay Sinir Ağlarının Algoritmalarına Göre Sınıflandırılması Yapay sinir ağlarında öğrenme yeteneği oldukça önemli bir özellik olup, öğrenme örnekler yardımı ile gerçekleşmektedir. Öğrenmenin gerçekleştirildiği öğrenme metotlarını Geri Yayılım, Momentumlu Geri Yayılım, Esnek Geri Yayılım Delta-Bar-Delta sinir ağları şeklinde sınıflandırmak mümkündür (Küçükönder, 2011). Bunlar arasında en yaygın kullanılan ağlar ise Geri Yayılım, Momentumlu Geri Yayılım ve Delta-Bar-Delta sinir ağlarıdır (Özşahin, 2009). 14

3.2.4 Yapay Sinir Ağlarının Öğrenme Stratejileri Yapay sinir ağlarında öğrenmenin temel amacı, sinir ağının tahmin etme yeteneğindeki hata payının minimize edilmesi ve ağırlıkların elde edilmesi için ağın eğitiminin sağlanmasıdır. Bu amaç doğrultusunda yapay sinir ağlarını öğrenme stratejilerine göre danışmanlı, danışmansız ve takviyeli öğrenme yöntemi olarak incelemek mümkündür (Küçükönder, 2011). Danışmanlı Öğrenme: Yapay sinir ağlarında yaygın olarak kullanılan bir öğrenme yöntemi olan danışmanlı öğrenmede, ağa örnek bir çıktı verilir ve bu çıktılarla ağın ürettiği çıktı değerlerinin karşılaştırılması amaçlanır. Bu öğrenmede, ağırlıklar rastgele olarak verilir ve ağ tarafından hata miktarı minimize edilerek döngüsel işlemler gerçekleştirilir (Anderson ve McNeill, 1992). Bu öğrenme yönteminde, tahmin edilmek istenen durum gerçekleşene kadar döngü devam ettirilmeli, eğitim kümesi dışında oluşturulan bir test kümesi tarafından da ağın eğitiminin doğruluğu test edilerek kontrolü yapılmalıdır. Eğer ağın eğitilmesi başarı ile sonuçlanmamış ise test kümesinde de yanlış sonuçlar üretilmesi kuvvetle muhtemel olacaktır (Küçükönder, 2011). Danışmansız Öğrenme: Danışmansız öğrenme yöntemi, ağa yalnızca örnek girdi değerlerinin verilmesi ve ulaşılması hedeflenen çıktıların verilmediği durumun esas alındığı bir yöntemdir. Bu öğrenmede yapay sinir ağları, örnek verilere göre parametreler arası ilişkiyi ve bağlantı ağırlıklarından aynı özelliği gösteren örüntüleri kendisi belirleyerek, bunun için gerekli ayarlamaları da kendisi gerçekleştirilir (Küçükönder, 2011). Takviyeli (Karma) Öğrenme: Bu öğrenme yöntemi, herhangi bir ölçünün kıstas alınarak giriş değerlerinin ağa direkt verilebildiği öğrenme sistemlerindendir (Küçükönder, 2011). 3.2.4.1 Yapay Sinir Ağlarında Öğrenme Kuralları Öğrenme işlemi çok parametreli, karmaşık ve matematiksel olarak ifade edilmesi zor bir işlemdir. Bugün kullanılan öğrenme kuralları bu işlemin basitleştirilmiş veya farklı formatlarda ifade edilmiş biçimleridir. Literatürde mevcut olan öğrenme algoritmalarının bir çoğu aslında Hebb, Delta, Kohonen ve Hopfield olmak üzere dört farklı öğrenme kuralından esinlenilerek geliştirilmiştir (Kut, 2011) Hebb Kuralı Hebb'in 1949'da yayımladığı Davranış Organizasyonu (The Organization of Behaviour) isimli kitabında bu öğrenme kuralı açıklanmıştır. Bu kuralın temelinde, "bir nöron diğer bir nörondan giriş alıyorsa ve her iki nöron da aktif ise (matematiksel olarak aynı işarete sahip ise), nöronlar arasındaki ağırlık kuvvetlendirilir" (Dazsıve Enboy, 2001). Hopfield Kuralı Bu kural zayıflatma veya kuvvetlendirme büyüklüğü dışında Hebb kuralına benzerdir. Eğer istenilen çıkış ve girişin her ikisi aktif veya her ikisi de aktif değilse, öğrenme oranı tarafından bağlantı ağırlığı artırılır, diğer durumlarda ise azaltılır. Birçok öğrenme algoritmasında, öğrenme katsayısı, oranı veya sabiti vardır. Genellikle bu terim 0 ile 1 arasında değerler almaktadır (Sağıroğlu ve ark., 2003). 15

Delta Kuralı Delta kuralı Hebb kuralının değişik bir formudur ve en çok kullanılan öğrenme algoritmalarından birisidir. Bu kural, nöronun gerçek çıkışı ile istenilen çıkış değerleri arasındaki farkı azaltan, giriş bağlantılarını güçlendiren ve sürekli olarak değiştiren bir düşünceye dayanmaktadır. Ağın ürettiği çıktı ile üretilmesi gereken (beklenen) çıktı arasındaki hatanın karelerinin ortalamasını enazlamak hedeflenmektedir. Yani, bu kural, ortalama karesel hatayı bağlantı ağırlık değerlerinin değiştirilmesiyle (azaltıp veya arttırma) düşürme prensibine dayanır. Hata, aynı anda bir katmandan bir önceki katmanlara geri yayılarak azaltılır. Ağın hatalarının düşürülmesi işlemi, çıkış katmanından giriş katmanına ulaşıncaya kadar devam eder. Bu kural, geri yayılım, Widrow-Hoff veya en küçük ortalama karesel öğrenme kuralı olarak da bilinir (Kut, 2011). Kohonen Öğrenme Kuralı Bu kural, biyolojik sistemlerdeki öğrenmeden esinlenen Kohonen tarafından geliştirilmiştir. Kuralda, nöronlar öğrenmek için yarışırlar, kazanan nöronun ağırlıkları güncellenir. En büyük çıktıyı üreten hücre kazanan hücre olmakta ve bağlantı ağırlıkları değiştirilmektedir. Bu kural "kazanan tamamını alır (winner takes all)" olarak da bilinir. En büyük çıkışa sahip işlemci nöron kazanır, bu nöron komşularını uyarma ve yasaklama kapasitesine sahiptir. Kohonen kuralı hedef çıkışa gereksinim duymadığı için danışmansız bir öğrenme metodudur (Öztemel, 2006; Sağıroğlu ve ark., 2003). 3.2.5 Yapay Sinir Ağı Modelleri Literatürde tek ve çok katmanlı olmak üzere farklı yapay sinir ağı modelleri bulunmaktadır. Tek katmanlı yapay sinir ağları sadece girdi ve çıktı katmanından oluşurlar. Her ağın bir ya da daha fazla girdisi ve bir çıktısı vardır. Her girdi değeri bir ağırlık değeri ile çıktıya bağlanır. Tek katmanlı bir algılayıcı yapısının gösterimi Şekil 10 da yer almaktadır. Tek katmanlı algılayıcı modelinin yanı sıra ADALINE (Adaptif lineer eleman) ve MADALINE (Multiple Adaline) modelleri de tek katmanlı yapay sinir ağları modelleri olarak bilinmektedir. Tek katmanlı yapay sinir ağları modelleri sadece doğrusal nitelik taşıyan problemlerin çözümünde kullanılabilmekte, girdi ve çıktı arasındaki ilişkinin doğrusal olmayan nitelikte olduğu problemlerin çözümünde yetersiz kalmaktadırlar. Bu nedenle çok katmanlı algılayıcılar ortaya çıkmıştır (Nabiyev, 2012). Çıkış Giriş İşaretleri Şekil 10: Tek Katmanlı Algılayıcı Yapısı (Akpolat, 2009) 16

Tek katmanlı algılayıcı modellerinde bulunan yetersizlik yapay sinir ağlarına olan ilginin azalmasına neden olmuştur. Ancak 1970 li yıllarda çok katmanlı algılayıcıların keşfi ile yapay sinir ağları çalışmaları tekrar hız kazanmış ve pek çok başarılı uygulama gerçekleştirilmiştir. Çok katmanlı algılayıcı modeli bir giriş, bir veya daha fazla ara ve bir de çıkış katmanından oluşur. Katmanlardaki işlem elemanları paralel bağlantı yapısına sahiptirler yani katmanlardaki tüm işlem elemanları birbirlerine bağlıdırlar. Çok katmanlı algılayıcı modeli ileri beslemeli yapay sinir ağı modelidir. Dolayısı ile bilgi akışı ileri doğru gerçekleşir. Giriş ve çıkış katmanında yer alan işlem elemanı sayısı uygulanan problemin niteliğine bağlıdır. Ara katman sayısı ile ara katmanda bulunan işlem elemanı sayısı ise ayrıntılı literatür incelemesi ışığında deneme yanılma yoluna gidilerek bulunabilmektedir. Genelleştirilmiş delta öğrenme kuralını kullanan bu ağ modeli, özellikle sınıflandırma, tanıma ve genelleme yapmayı gerektiren problemler için çok önemli bir çözüm aracıdır (Öztemel 2006; Haykin 1999). Çok katmanlı algılayıcı ağı danışmanlı öğrenme stratejisine göre çalışmaktadır. Ağa hem örnekler hem de örneklerden elde edilmesi gereken çıktılar sunulur. Ağın görevi problemde yer alan girdiler için karşılık gelen çıktıyı veya çıktıları üretmektir. Veriler girdi katmanına sunulur, ara katmanlarda ileri hesaplamalar gerçekleştirilir ve çıkış katmanından da çıkışlar elde edilir. Kullanılan eğitme algoritmasına göre, ağın çıkışı ile arzu edilen çıkış arasındaki hata tekrar geriye doğru yayılarak hata minimuma düşünceye kadar ağın ağırlıkları değiştirilir. Şekil 11 de çok katmanlı algılayıcı modelinin genel görünümü yer almaktadır (Küçükönder, 2011; Öztemel, 2006). Yapay sinir ağları ile ilgili yapılan çalışmalar, karşılaşılan farklı problem yapılarına göre farklı ağ yapıları ortaya çıkmasını sağlamıştır. Literatürde en fazla kullanılan ağlar tek ve çok katmanlı algılayıcılar, vektör kuantizasyon modelleri (LVQ), kendi kendini organize eden model (SOM), adaptif rezonans teorisi modelleri (ART), Hopfield ağları, Elman ağı, radyal tabanlı ağlar olarak bilinmektedir (Öztemel, 2006). Bulunan hatayı yayma yönü (geri) Çıkış Çıkış Tabakası Gizli Tabaka x 1 x 2 Giriş Tabakası Giriş x m Çıkış hesaplama yönü (ileri) Şekil 11: Çok Katmanlı Algılayıcı (Küçükönder, 2011). 17

3.2.6 Yapay Sinir Ağlarında Ağ Tasarımı Yapay sinir ağlarında ağ yapıları tasarlanırken katman sayısı, bu katmanlarda yer alacak nöronların sayısının belirlenmesi, bu nöronların birbirleri ile olan bağlantılarının nasıl olması gerektiği ve bilginin akış yönleri önemli olup, bu hususlara dikkat edilerek ağın yapısı belirlenmelidir (Çanakçı ve Hosoz, 2006). 3.2.6.1 Öğrenme Algoritmasının Seçimi Yapay sinir ağlarında ağ mimarisinin seçimi açısından öğrenme algoritmasının doğru seçimi ağın başarılı sonuçlar üretmesini etkileyen önemli faktörlerden biridir. Uygulama alanlarına göre algoritmaları, öngörü tanıma, sınıflandırma, veri ilişkilendirme ve veri kavramlaştırması olmak üzere dört farklı kategoriye ayırmak mümkündür. Bu kullanım alanlarına göre kullanılan algoritmaları Tablo 2 deki gibi ayırmak mümkündür. Uygulama alanları Öngürü Tanıma Sınıflandırma Veri İlişkilendirme Veri Kavramlaştırma Yapay Sinir Ağları Geri Yayılım Delta bar Delte Genelleştirilmiş delta bar delta Yönlendirilmiş rastsal tarama LVQ Olasılıklı Yapay Sinir Ağları Counterpropagation Hopfield Bolztman ART SOM Tablo 2: Öğrenme Algoritmaları ve Kullanım Alanları (Saraç, 2004) 3.2.6.1.1 Geri Yayılım Algoritması (Saraç, 2011) Yapay sinir ağları belki de en çok tahmin amacıyla kullanılmaktadır. Tahmin için kullanılan yapay sinir ağları içinde de en yaygın olarak kullanılanı geri yayılım algoritmasıdır. Geri yayılım algoritması ileri beslemeli ve çok katmanlı bir ağ mimarisini gerektirmektedir. Geri yayılım algoritması, yapay sinir ağları açısından en önemli tarihsel gelişmelerden biridir. Geri yayılım algoritması veya bir başka adıyla Genelleştirilmiş Delta Algoritması uygulamada en çok kullanılan öğretme algoritmasıdır. Hata, ağdaki ağırlıkların bir fonksiyonu olarak görülür ve hataların kareleri ortalaması delta kuralında olduğu gibi dereceli azaltma (gradient descent) yöntemi kullanılarak, minimize edilmeye çalışılır. Bu algoritma, hataları çıkıştan girişe geriye doğru azaltmaya çalışmasından dolayı geri yayılım ismini almıştır. Geri yayılım algoritması, eğitmede en çok kullanılan temel bir öğrenme algoritmasıdır. Eğitme işlemi ve eğitimden sonraki test işlemi bu akışa göre gerçekleştirilir. 18

Geri yayılım algoritması, danışmalı öğrenme yöntemini kullanılır. Örnekler ağa öğretilir ve ağa hedef değeri verilir. Öğrenme, her örnek için ağın çıktı değeri ile hedef değerini karşılaştırılır. Hata değeri, ağa tekrar geri besleme şeklinde verilir. Örnek setindeki hata kareleri toplamını azaltmak için nöronlar arasındaki bağlantı ağırlıkları değiştirilir. Tipik çok katlı geri yayılım ağı, daima; bir giriş tabakası, bir çıkı tabakası ve en az bir gizli tabakaya sahiptir. Gizli tabakaların sayısında teorik olarak bir sınırlama yoktur. Fakat genel olarak bir veya iki tane bulunur. Desen sınıflandırma problemlerini çözmek için maksimum dört tabakaya (üç gizli ve bir çıkı tabakası) gereksinim duyulduğuna işaret eden bazı çalışmalar yapılmıştır. Bu algoritmanın akış şeması Şekil 12 de verilmiştir. Başlangıç ağırlıklarını rastgele seç Öğrenmeye başla Giriş setini giriş katına uygula İşlemci elemanlarının üzerinden çıkışı hesapla Hata? kabul edilebilir kabul edilemez Eğim (Gradient) azaltma ile ağırlıkları yeniden düzenle Test işlemine başla Öğretme veya test giriş setini yapay sinir ağının giriş katına uygula İşlemci elemanlarının üzerinden çıkışı hesapla Ağın gerçek çıkışı Dur evet Giriş set tamamlandı mı? Şekil 12: Geri Yayılım Algoritması Akış Şeması 19

3.2.6.2 Ara Katman Sayısının Belirlenmesi Aynı doğrultu üzerinde bulunan nöronların bir araya gelmesiyle oluşan katmanlar ağ mimarisinin oluşturulmasında önemli bir rol oynamaktadır. Katmanların sayısının belirlenmesinde önemli olan bir diğer husus da katmanların birbirleriyle olan durumlarını belirleyen bağlantı yapılarıdır. Çözümlenmek istenen problemde mevcut olan girdi ve çıktı katmanları farklılık göstermekte olup, katman sayısı belirlenirken araştırıcı deneme-yanılma yolu ile bir takım denemeler sonucunda en uygun olan katman sayısını ve en uygun olan ağ yapısını belirlemektedir (Kaastra and Boyd, 1994). 3.2.6.3 Nöron Sayısının (Gizli Nöron Sayısı) Belirlenmesi Ağ katman sayısının belirlenmesinde tercih edilen deneme - yanılma yöntemi nöron sayısının belirlenmesinde de kullanılan bir yöntemdir. Bu aşamada araştırıcının başlangıçta belirlediği nöron sayısını istenilen performansa ulaşana kadar sayıyı artırması veya aksi durumda istenilen performansın altında kalmaması için azaltması durumu söz konusudur. 3.2.6.4 Verilerin Normalleştirilmesi Yapay sinir ağlarının doğrusal olmama özelliğinden dolayı verilerin normalize edilmesi ağın başarılı sonuçlar üretmesi açısından oldukça önemlidir. Normalizasyon işlemi sırasında, ağın başarı performansını etkileyen verilerin birikimli (kümülatif) toplamlarının oluşturulacağı etkinin ortadan kaldırılması gerekmektedir. Bu nedenle, normalizasyon işleminde kullanılan işlemci elemanlar, verileri birikimli toplamlarla koruma özelliğine sahiptirler. Bu özellikleriyle, aşırı değerlenmiş toplamların yaratacağı olumsuz etkileri de elimine etmiş olurlar. Bu nedenle verilerin [ 0, 1 ] veya [ -1, 1 ] aralıklarından biriyle ölçeklendirilmesi, oluşturulan sinir ağında olası bir olumsuz etkiyi de ortadan kaldırmada etkili olacaktır. Böyle bir olumsuzluk aynı zamanda öğrenme fonksiyonunda da başarısızlık yaratabilmektedir (Hamzaçelebi, 2005). Veri normalizasyonun da yaygın olarak kullanılan formüller Tablo 3 deki gibidir. Normalizasyon Kullanılan Matematiksel Denklem [0,1] aralığında dönüşüm (x 0 x min )/(x max x min ) [a,b] aralığında dönüşüm (b a)(x 0 x min ) + a x max x min Basit normalizasyon x 0 /(x max x min ) İstatistiksel Normalizasyon (x 0 x )/S Tablo 3: Veri Normalizasyonunda Kullanılan Formüller (Hamzaçelebi, 2006) Burada x n : Normalleştiriliş Veri, x 0 : Orjinal Veri, x min : Veri matrisinde satır ve sütun boyunca minimum, x max : Veri matrisinde satır ve sütun boyunca maximum, x : Veri matrisinde satır ve sütun boyunca ortalama, S: Satır ve sütun boyunca standart sapma, değerlerini göstermektedir. 20

3.2.6.5 Yapay Sinir Ağlarının Eğitimi ve Testi (Küçükönder, 2011) İşlem elemanlarının bağlantı ağırlık değerlerinin belirlenmesi için yapılan işlemlere Ağın Eğitimi denir ( Öztemel, 2003). Yapay sinir ağlarının tahmin edicisi tasarlanırken eğitim ve test verisi olmak üzere veri seti iki parçaya ayrıştırılır. Bu veri setlerinin ayrımı içinde daha önceden belirlenmiş belli bir kriter mevcut olmamakla beraber çözüme ulaştırılmak istenen problemin karakteristik yapısı, veri tipi ve elde mevcut olan veri sayısı bu ayrımı yaparken araştırıcıların göz önünde bulundurması gereken önemli noktalardır. Literatürde bu ayrımı belirlemeye yönelik olarak araştırıcılara, yol göstermesi açısından yapılan birtakım tavsiyeler bulunmaktadır. Bunlar, veri sayısının % 90 ının eğitim veri seti, % 10 unun da test veri seti olarak kullanılması tavsiye edilirken, bu oranlar % 80 eğitim verisi, % 20 si test verisi ve % 70 i eğitim verisi, % 30 unun da test verisi olarak da ayrışımın yapılabileceği yönünde yapılan literatürde mevcut olan tavsiyelerdir (Zhang, 1997). Eğitim veri seti yapay sinir ağları modellerini geliştirmek amaçlı kullanılırken, test veri seti de geliştirilen modelin tahmin yeteneğinin belirlenmesine yönelik olarak kullanılmaktadır. Öğrenme sırasında, öğrenmeyi ifade etmekte olan ağırlıkların değişimi söz konusu olup, bu değişiklikler öğrenme yaklaşımına göre yapılmaktadır. Bu nedenle, başlangıçta bu ağırlık değerleri rastgele olarak atanırken, ağırlık değişimi bir noktadan sonra sabitlenip değişmiyor ise o zaman öğrenme işleminin durması olayı gerçekleşmiş olmaktadır. Bu olayın gerçekleşmesindeki amaç ise ağırlık değişimi ağın kendisine örnekler gösterildikçe değişmekte olduğundan dolayı, ağa gösterilen bu örnekler için doğru çıktıları üretecek olan ağırlık değerlerinin bulunmasıdır. Eğitim aşaması sonlandırıldığında ise sinir ağında hesaplanan hata miktarının kabul edilebilir bir hata oranına inmesi beklenir. Test işlemi içinde eğitim aşamasında kullanılmayan ağın daha önce görmediği verilerden hazırlanarak, girdi olarak ağın modeline verilir ve ağın ürettiği çıktı değerleri ile hedeflenen çıktı değerleri karşılaştırılarak ağın genelleme yapabilmek için yeterli olup olmadığının kontrolü yapılır. Eğitim ve test aşamalarında istenilen başarının yakalanması yapay sinir ağı modelinin kullanılabilirliğini yani uygunluğunu gösterir (Çanakçı ve Hosoz, 2006). Ağın eğitimi başarı ile tamamlandıktan sonra ağın uygunluk sınanması gerçekleştirilir. Bu sınamada, ağın eğitimi esnasında kullanılmayan veriler ağa giriş verisi olarak tanıtılıp, bu giriş değerlerine uygun ağın çıkış değerleri üretmesi istenir. Ağın ürettiği bu çıkış değerleri ile gerçek değerlerin karşılaştırılması yapılarak sinir ağının uygunluğu ve genelleme yeteneğini kazanması durumu değerlendirilir. Kullanıma hazır hale gelmiş bir ağ, önceden tanımadığı bir örneğin giriş değerlerinden de istenen çıkışları rahatlıkla üretebilir (Şen, 2004). Sonuç olarak araştırıcıların bir yapay sinir ağını modellerken Şekil 13 deki gibi süreci aşama aşama takip etmeleri gerekir (Haykin, 1999). 21

Daha çok ve daha iyi veri Tekrar Düzenle Yapıyı Tekrar Düzenle Veri Topla Eğitim ve Test Verilerini Ayır Ağ Yapısını Belirle Başka bir Algoritma Seç Tekrar Düzenle Öğrenme Algoritmasını Seç Parametreleri Ayarla, ilk Değerleri ve Ağırlıkları Gir Verileri Ağa Uygulanabilecek Şekilde Uyarla Tekrar Düzenle Eğitime Başla, Ağırlıkları Güncelle Eğitimi Durdur ve Test Et Ağ Yeni Koşula Hazırdır Şekil 13: Yapay Sinir Ağının Akış Şeması (Haykin, 1999) 3.2.6.6. Yapay Sinir Ağlarının Ağ Performanslarının Belirlenmesi Araştırıcılar ileriye dönük tahminleri yapabilmek için yaptıkları çalışmaların içeriğine yönelik olarak belirli bir hata payını araştırmanın başında belirleyerek birçok modelden yararlanabilir. Her modelin kendine has bir takım üstünlükleri ve bir takım eksikliklerinin bulunmasından dolayı kullanım amacına yönelik olarak bu yönler modelleri tercih etmede önem kazanmaktadır (Yıldız, 2006). Bir yapay sinir ağı tahmin edicisi için araştırıcıların dikkat etmesi gereken hususlardan biride performans ölçütüdür. Bu ölçüt tahminin doğru bir şekilde yapılıp yapılmadığını gösteren bir ölçüttür. Aynı zamanda ağın performansını ve öğrenme yeteneğinin başarısını gösteren bir ölçüttür. İleri beslemeli ağlar için yaygın olarak kullanılan performans fonksiyonlarının matematiksel açılımlarını Tablo 4 deki gibi sıralamak mümkündür (Küçükönder, 2011). 22

Performans Fonksiyonları Hata Kareler ortalaması (Mean Squared Error- MSE) Hata Kareler Ortalamasın Kare kökü (Root Mean Squared Error-RMSE) Matematiksel Açılımı n n HKO = 1 n (t i g i ) 2 = 1 2 e n j i=1 i=1 t i : i-inci birimin tahmin değeri, g i : i-inci birimin gerçek değeri, e j Tahmin hatası göstermektedir (Gujarate, 1999). n n HKOK = 1 n (t i g i ) 2 = 1 n e j 2 i=1 i=1 t i : i-inci birimin tahmin değeri, g i : i-inci birimin gerçek değeri, e j Tahmin hatası göstermektedir (Gujarate, 1999). n n Hata Kareler Toplamı (Sum Squared Error- SSE) HKT = (t i g i ) 2 2 = e j Ortalama Mutlak Hata Yüzdesi (Mean Absolute Percentage Error-MAPE) i=1 t i : i-inci birimin tahmin değeri, i=1 g i : i-inci birimin gerçek değeri, e j Tahmin hatası göstermektedir (Gujarate, 1999). n (t i g i ) 2 i=1 t OMHY = 100x i n t i : i-inci birimin tahmin değeri, g i : i-inci birimin gerçek değeri, e j Tahmin hatası göstermektedir (Chatfield, 2000). Tablo 4: Performans Fonksiyonları ve Matematiksel Olarak Açılımları (Küçükönder, 2011) 23

4. MATERYAL VE YÖNTEM Proje çalışmasında öğrencilerin SBS puanını öngörmek üzere yapay zeka yöntemlerinden birisi olan yapay sinir ağları kullanılmıştır. Bu amaçla, 2011-2013 yılları arasında bir ortaokulda kayıtlı olan 334 öğrenciye ait; dördüncü sınıf yıl sonu başarı puanları, beşinci sınıf yıl sonu başarı puanları, altıncı sınıf yıl sonu başarı puanları, yedinci sınıf yıl sonu başarı puanları sekizinci sınıf yıl sonu başarı puanları, anne eğitim düzeyleri, baba eğitim düzeyleri, öğrenim gördükleri kurum tarafından ve Türkçe, Matematik, Fen Bilgisi, Sosyal Bilgiler derslerinde düzenlenen 6., sınıf ortak sınav not ortalamaları, 7., sınıf ortak sınav not ortalamaları, 8., sınıf ortak sınav not ortalamaları, veri girdi değişkeni SBS puanları ise çıktı değişkeni olarak belirlenmiştir. Proje çalışmasının analizleri Matlab (R2011b) programı ile gerçekleştirilmiştir. 4.1 Yapay Sinir Ağının Modellenmesi Bu çalışmada çok katmanlı geri yayılımlı yapay sinir ağı modeli kullanılmıştır. Analizde geri yayılım algoritmalarından Levenberg-Marquardt algoritması ile aktivasyon fonksiyonlarından tanjant sigmoid fonksiyonu seçilmiştir. Kullanılan algoritma, Levenberg- Marquardt tarafından geliştirilen bir algoritma olup orta ölçekli ağlar için oldukça hızlı çalışır ve daha az hafıza gerektirir (Küçükönder, 2011). Tasarlanan yapay sinir ağında, katman sayısı bir ve katmanda yer alan ideal nöron sayısı deneme yanılma yolu ve ayrıntılı literatür taraması ile dokuz olarak belirlenmiştir. Çalışmada kullanılan yapay sinir ağı modeli çok katmanlı algılayıcı olarak belirlenmiştir. Çok katmanlı algılayıcı modeli danışmanlı öğrenme stratejisine göre çalışmakta olup bilginin akış yönü açısından ileri beslemeli bir yapıya sahiptir. Bu çalışmada tasarlanan çok katmanlı algılayıcı modelinde kullanılan öğrenme algoritması geri yayılım algoritması şeklindedir. Geri yayılım algoritmasının çalışması iki temel aşamada gerçekleşir. Birinci aşamada girdi değişkenlerine ait veriler yapay sinir ağına sunulur, sonraki aşamada verilerin işlenmesinin ardından elde edilen çıktılara ilişkin hata düzeyine göre her katmanda ağırlıklar güncellenir ve hatayı en aza indirgemek amacıyla çıktı katmanından geriye doğru hatanın yayılması sağlanır. Bunun için geri yayılım algoritmasının çalışmasında eğim iniş metodu kullanılır. 24

4.2 Ağ Performansının Belirlenmesi Proje çalışmasında analiz sonuçlarını değerlendirmek üzere kullanılan performans ölçütleri belirleme katsayısı (R 2 ), hata kareler ortalamasının karekökü (RMSE), ortalama mutlak sapma (MAD), ortalama mutlak yüzde hata (MAPE) olarak belirlenmiştir. Tahmin edilen değerler ve gerçek değerleri ile yapılan karşılaştırmalar sonucunda bu kriterlere göre yüksek değerli R 2 ile hata varyansını ifade eden RMSE, MAD ve MAPE istatistiklerinin düşük değerde olması, araştırmaya konu olan modelin uyumunun iyi olduğunu belirtilir. Eşitlik (1) de R 2, Eşitlik (2) de RMSE, Eşitlik (3) de MAD ve Eşitlik (4) de MAPE istatistiklerinin hesaplanışına ilişkin formüller yer almaktadır. Burada n: Kayıt sayısı, Y i: Gözlenen değer, Y i: Tahminlenen değer Y : Ortalama değer olmak üzere R 2 = n i=1 (Y i Y ) 2 n i=1(y i Y ) 2 (1) RMSE = n i=1 (Y i Y ) 2 n (2) MAD = n i=1 Y i Y i n (3) ifade etmektedir. MAPE = 100x n Yi Y i i=1 Y i n (4) Eğitim ve test verilerinin belirlenmesinin ardından yapay sinir ağının daha hızlı eğitilmesi amacıyla veriler Eşitlik 5 de yer alan formül yardımıyla normalizasyon işlemine tabi tutulmuştur (Xu ve ark, 2007; Jayalakshmi ve Santhakumaran, 2011). Bu çalışmada veriler [0.1-0.9] aralığında Eşitlik 5 de yer alan formül yardımıyla ölçeklendirilmiştir (Xu ve ark, 2007). P n = 0.1 + (0.9 0.1)x (P P min) (P maz P min ) (5) Burada P max P n veri setinde yer alan P gibi bir değerin normalleştirilmiş değerini ifade P min etmektedir. ve, ele alınan girdi veya çıktı değişkeni setinde yer alan verilerin içinde en yüksek ve en düşük değere sahip olan verileri belirtmektedir. Ağın eğitimi tamamlandıktan ve test çıkış verileri elde edildikten sonra çıktıların asıl ölçeğine dönüştürmek amacıyla Eşitlik 25

6 da yer alan formül kullanılmıştır. Sonraki aşamada tahmin edilen değerler ile gerçek değerler arasında bir karşılaştırma yapılmış ve performans kriterleri hesaplanmıştır. P = (P n 0.1)x (P max P min ) + P (0.9 0.1) min (6) Burada P, dönüşüme uğrayan verinin normalleştirme işlemi öncesine dönüştürülmüş değerini ifade etmektedir. Gerçekleştirilen analizde veri seti eğitim ve test olmak üzere ikiye ayrılmıştır. Eğitim setinde bulunan gözlem sayısı 300 ve test setinde bulunan gözlem sayısı 34 olarak belirlenmiştir. 5. SONUÇLAR Analize konu olan öğrencilerin dördüncü, beşinci, altıncı ve yedinci sınıf başarı puanları ile altıncı, yedinci ve sekizinci sınıf ortak sınav puanlarına ilişk-in tanımlayıcı istatistik değerleri Tablo 5 de yer almaktadır. Gözlem En Düşük En Yüksek Standart Ortalama Sayısı Değer Değer Sapma Sinif4 334 68.69 100.0 92.4663 7.02946 Sinif5 334 68.02 99.68 89.5636 5.75693 Sinif6 334 63.58 98.48 87.3196 6.30818 Sinif7 334 64.97 98.76 87.1413 6.57032 Sinif8 334 62.64 99.17 88.6567 7.21576 Ortak6 334 34.09 97.67 75.3174 11.58545 Ortak7 334 26.96 96.00 62.1941 20.35338 Ortak8 334 35.00 98.67 78.4642 13.80745 SBS_Puan 334 273.64 687.32 492.9011 84.63218 Tablo 5: Analiz Verilerine İlişkin Tanımlayıcı İstatistik Değerleri Öğrencilerin annelerinin (a) ve babalarının (b) öğrenim durumuna ilişkin frekans değerleri Tablo 3 de, şekilsel gösterimi Şekil 14 de yer almaktadır. Anne Öğrenim Durumu Frekans Baba Öğrenim Durumu Frekans İlköğretim 4 İlköğretim 4 Lise 87 Lise 80 Önlisans 7 Önlisans 2 Lisans 207 Lisans 214 Lisansüstü 29 Lisansüstü 34 Tablo 6: Anne ve Babaların Öğrenim Durumu Frekans Bilgileri 26

Anne Öğrenim Durumu Baba Öğrenim Durumu İlköğretim Lise Önlisans Lisans Lisansüstü İlköğretim Lise Önlisans Lisans Lisansüstü (a) (b) Şekil 14: Öğrencilerin Anne (a) ve Babalarının (b) Öğrenim Bilgileri Şekilsel Gösterimi Ortaöğretim öğrencilerinin SBS puanını çeşitli değişkenler yardımıyla öngörmek üzere gerçekleştirilen analizlerde yapay sinir ağı yönteminin oldukça başarılı olduğu tespit edilmiştir. Tasarlanan yapay sinir ağı modelinde farklı nöron sayıları ile yapılan analiz sonuçları Tablo 2 de yer almaktadır. Nöron Sayısı Belirleme Katsayısı (R 2 ) Ortalama Mutlak Sapma (MAD) Hata Kareler Ortalamasının Karekökü (RMSE) Ortalama Mutlak Yüzde Hata (MAPE) 4 0.658 37.44 46.83 7.51 5 0.593 39.43 51.17 7.82 6 0.726 25.29 38.77 5.61 7 0.781 22.59 33.32 4.82 8 0.788 25.89 33.06 5.46 9 0.856 20.71 28.35 4.38 10 0.790 27.69 32.71 5.69 Tablo 7: Analiz Sonucunda Elde Edilen Değerler Analiz sonuçları farklı sayıda nöronlar ile tasarlanan yedi farklı yapay sinir ağı modelinin öğrencilerin SBS sınavı puanını tahmin etmede yeterli olduğunu göstermektedir. Yapılan analizlerde ele alınan performans kriterlerinden belirleme katsayısı en yüksek değere sahip olan ile en düşük ortalama mutlak sapma, hata kareler ortalamasının karekökü ve ortalama mutlak yüzde hata değerine sahip yapay sinir modelinin dokuz nöron ile çalışan model olduğu tespit edilmiştir. Şekil 15 de farklı nöron sayıları ile tahmin edilen değerler ile gerçek değerlerin grafiksel gösterimi yer almaktadır. Şekil 16 da nöron sayısı dokuz olduğunda tahmin edilen değerler ile gerçek değerlerin grafiksel gösterimi yer almaktadır. 27

SBS PUANI SBS PUANI 800 700 600 500 400 300 200 100 0 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 ÖĞRENCİ Gerçek Değerler Nöron 4 Nöron 5 Nöron 6 Nöron 7 Nöron 8 Nöron 9 Nöron 10 Şekil 15: Farklı nöron sayıları ile tahmin edilen değerler ile gerçek değerlerin grafiksel gösterimi 700 600 500 400 300 200 Gerçek Değerler Nöron 9 100 0 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 ÖĞRENCİ Şekil 16: Nöron sayısı dokuz olduğunda tahmin edilen değerler ile gerçek değerlerin grafiksel gösterimi 6. SONUÇLARIN DEĞERLENDİRİLMESİ Analiz sonuçları, araştırmaya konu olan veri seti için öğrencilerin SBS başarı puanlarını öngörmede yapay sinir ağlarının oldukça başarılı olduğunu göstermektedir. Bu çalışmada inşa edilen model, ortaokuldan liseye geçiş sürecinde olan bir öğrenci için bir erken uyarı sistemi görevi görmektedir. Dolayısıyla, bireyin ortaöğretim hayatı boyunca doğru kararlar almasında önemli rol oynayacağı düşünülmektedir. Ortaokul öğrencilerinin olası SBS puanlarının belirlenmesinin geleceğe yönelik eğitim ve öğretim hayatlarını planlama sürecinde onlara büyük bir katkı sağlayacağı açıktır. Ayrıca, veri setlerinin farklı eğitim algoritmaları ile analiz edilmesi mümkündür. 28

TEŞEKKÜR Proje çalışmamızın her aşamasının yönlendirilmesinde ve sonuçlandırılmasında büyük emeği geçen, Ege Üniversitesi, Ziraat Fakültesi, Zootekni Bölümü, Biyometri ve Genetik Ana Bilim Dalı, Öğretim Üyesi, Prof. Dr. Hülya ATIL a, Ahi Evran Üniversitesi, Ziraat Fakültesi, Zootekni Bölümü, Biyometri ve Genetik Ana Bilim Dalı, Araştırma Görevlisi Aslı AKILLI ya, veri setlerinin elde edilmesi konusunda yardım ve desteklerini esirgemeyen Özel Ege Lisesi, Kurucu Temsilcisi Yansı Eraslan a, İlköğretim Okul Müdürü Sibel Zekiye Şenol a, Ortaokul Müdür Yardımcısı Perihan Betül Ernas a, proje danışmanımız Gülşah ARACIOĞLU na, Bilim Kurulu Eş Başkanı (Matematik) Dr. Gizem GÜNEL AÇIKSÖZ e, bugüne dek yetişmemizde katkısı olan değerli öğretmenlerimize, her zaman yanımızda olan ve bizi yüreklendiren ailelerimize teşekkür ederiz. KAYNAKLAR Anderson, D., McNeill, G., (1992), Artificial Neural Networks Technology, Kaman Sciences Corporation, New York. Baş, N., (2006), Yapay sinir ağları yaklaşımı ve bir uygulama, Yüksek Lisans Tezi, Mimar Sinan Güzel Sanatlar Üniversitesi, Fen Bilimleri Enstitüsü, İstanbul. Bayır, F., (2006), Yapay sinir ağları ve tahmin modellemesi üzerine bir uygulama, Yüksek Lisans Tezi, İstanbul Üniversitesi, Sosyal Bilimler Enstitüsü, İşletme Ana Bilim Dalı, İstanbul. Ankara. Baykal, N., Beyan, T. (2004), Bulanık Mantık İlke ve Temelleri. Bıçaklar Kitabevi, Bırtıl, F.S., (2011), Kız meslek lisesi öğrencilerinin akademik başarısızlık nedenlerinin veri madenciliği tekniği ile analizi, Yüksek Lisans Tezi, Afyon Kocatepe Üniversitesi Fen Bilimleri Enstitüsü, Afyon, 70-71. Bose N. K. ve Lıang P., (1996), Neural Network Fundamentals with Graphs, Algorithms and Applications, McGraw-Hill International Editions, 3. Bozkır, A.S., Sezer, E. ve Gök, B., (2009), Öğrenci seçme sınavında öğrenci başarısını etkileyen faktörlerin veri madenciliği yöntemleriyle tespiti, 5. Uluslararası İleri Teknolojiler Sempozyumu (IATS 09), Karabük, 1-7. Bülbül, H. İ., Ünsal, Ö., (2010), Determination of vocational fields with machine learning algorithm, The Ninth International Conference on Machine Learning and Applications (ICMLA 2010), IEEE Computer Society, Washington D:C:, 710-713. Chatfield C., (2000), Time Series Forecasting, Chapman&Hall / CRC. 29