Shannon Bilgi Kuramı



Benzer belgeler
İstatistik 1. Bölüm 5 Olasılık Teorisi ve Kesikli Olasılık Dağılımları. Ankara Üniversitesi SBF, GYY

Web Madenciliği (Web Mining)

BAYES KURAMI. Dr. Cahit Karakuş

Veri Ağlarında Gecikme Modeli

İSTANBUL TİCARET ÜNİVERSİTESİ BİLGİSAYAR MÜHENDİSLİĞİ BÖLÜMÜ BİLGİSAYAR SİSTEMLERİ LABORATUVARI

Ankara Üniversitesi, SBF İstatistik 2 Ders Notları Prof. Dr. Onur Özsoy 1

Makine Öğrenmesi 3. hafta

EME Sistem Simülasyonu. Giriş. Olasılık Dağılımı. Rassal Degiskenler

Tesadüfi Değişken. w ( )

Bekleme Hattı Teorisi

BÖLÜM 1 TEMEL KAVRAMLAR

Algoritma Geliştirme ve Veri Yapıları 9 Ağaç Veri Modeli ve Uygulaması. Mustafa Kemal Üniversitesi

YÖNEYLEM ARAŞTIRMASI-2 -Markov Zincirleri-

Olasılık Kuramı ve İstatistik. Konular Olasılık teorisi ile ilgili temel kavramlar Küme işlemleri Olasılık Aksiyomları

İMGE İŞLEME Ders-9. İmge Sıkıştırma. Dersin web sayfası: (Yrd. Doç. Dr. M.

ii) S 2LW 2WH 2LW 2WH S 2WH 2LW S 3( x 1) 5( x 2) 5 3x 3 5x x Maliye Bölümü EKON 103 Matematik I / Mart 2018 Proje 2 CEVAPLAR C.1) C.

VERİ MADENCİLİĞİ (Karar Ağaçları ile Sınıflandırma) Yrd.Doç.Dr. Kadriye ERGÜN

1. GRUPLAR. c (Birleşme özelliği) sağlanır. 2) a G için a e e a a olacak şekilde e G (e ye birim eleman denir) vardır.

28/04/2014 tarihli LYS-1 Matematik-Geometri Testi konu analizi SORU NO LYS 1 MATEMATİK TESTİ KAZANIM NO KAZANIMLAR 1 / 31

RASSAL DEĞİŞKENLER VE OLASILIK DAĞILIMLARI. Yrd. Doç. Dr. Emre ATILGAN

BİYOİSTATİSTİK Olasılıkta Temel Kavramlar Yrd. Doç. Dr. Aslı SUNER KARAKÜLAH

IE 303T Sistem Benzetimi L E C T U R E 6 : R A S S A L R A K A M Ü R E T I M I

Örnek Bir zar atıldığında zarın üstünde bulunan noktaların sayısı gözlensin. Çift sayı gelmesi olasılığı nedir? n(s) = 3 6 = 1 2

Ders 1: Markov Zincirleri YÖNEYLEM ARAŞTIRMASI III. Markov Süreçleri Ders 4. Stokastik Süreç Nedir? Stokastik Süreç Nedir?

SAYI VE KODLAMA SİSTEMLERİ. Teknoloji Fakültesi/Bilgisayar Mühendisliği

Şartlı Olasılık. Pr[A A ] Pr A A Pr[A ] Bir olayın (A 1 ) olma olsılığı, başka bir olayın (A 2 ) gerçekleştiğinin bilinmesine bağlıysa;

Ders Kodu Dersin Adı Yarıyıl Teori Uygulama Lab Kredisi AKTS IND 621 Stokastik Süreçler

Olasılık teorisi, matematiğin belirsizlik taşıyan olaylarla ilgilenen bir dalıdır. Bu bilim dalı rasgele değişkenleri inceler.

İstatistik, genel olarak, rassal bir olayı (ya da deneyi) matematiksel olarak modellemek ve bu model yardımıyla, anakütlenin bilinmeyen karakteristik

Yıldız Teknik Üniversitesi Endüstri Mühendisliği Bölümü KARAR TEORİSİ MARKOV SÜREÇLERİ. Markov Analizi

Belirteç Seçiminin Huffman Kodlaması Üzerine Etkisi

İleri Diferansiyel Denklemler

Olasılık, bir deneme sonrasında ilgilenilen olayın tüm olaylar içinde ortaya çıkma ya da gözlenme oranı olarak tanımlanabilir.

MMT 106 Teknik Fotoğrafçılık 3 Digital Görüntüleme

rasgele değişkeninin olasılık yoğunluk fonksiyonu,

ÖRNEKLEME DAĞILIŞLARI VE TAHMİNLEYİCİLERİN ÖZELLİKLERİ

İÇİNDEKİLER ÖNSÖZ Bölüm 1 SAYILAR 11 Bölüm 2 KÜMELER 31 Bölüm 3 FONKSİYONLAR

Kesikli ġans DeğiĢkenleri Ġçin; Olasılık Dağılımları Beklenen Değer ve Varyans Olasılık Hesaplamaları

Dosya Sıkıştırma (File Compression) Kütük Organizasyonu 1

Tanım: (1. Tip Üretken Fonksiyonlar) (a r ) = (a 1, a 2, a 3,,a r, ) sayı dizisi olmak üzere, (a r ) dizisinin 1. Tip üretken fonksiyonu

Rasgele Vektörler Çok Değişkenli Olasılık Dağılımları

Üstel ve Logaritmik Fonksiyonlar


Birden Fazla RDnin Bileşik Olasılık Fonksiyonları

Matris Cebiriyle Çoklu Regresyon Modeli

VEKTÖR UZAYLARI 1.GİRİŞ

OLASILIK PROBLEMLERİ I (BAĞIMSIZ OLAYLAR, KOLMOGOROV BELİTLERİ VE KOŞULLU OLASILIK)

KESİKLİ ŞANS DEĞİŞKENLERİNİN OLASILIK DAĞILIMLARI. Bernoulli Dağılımı Binom Dağılımı Poisson Dağılımı

İstatistik ve Olasılık

Leyla Bugay Doktora Nisan, 2011

K En Yakın Komşu Methodu (KNearest Neighborhood)

KODLAMA SİSTEMLERİ ve VERİLERİN BİLGİSAYARDA TEMSİLİ

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

Simetrik (Gizli) Kriptografik Sistemler Blok Şifreler Standartlaştırma. DES-Data Encryption Standard (Bilgi Şifreleme Standardı)

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

İstatistik ve Olasılık

Fonksiyon Optimizasyonunda Genetik Algoritmalar

Olasılık bir olayın meydana gelme şansının sayısal ifadesidir. Örnekler:

Kesikli Şans Değişkenleri İçin; Olasılık Dağılımları Beklenen Değer ve Varyans Olasılık Hesaplamaları

Ders 8: Konikler - Doğrularla kesişim

Temel Kavramlar. (r) Sıfırdan farklı kompleks sayılar kümesi: C. (i) Rasyonel sayılar kümesi: Q = { a b

Bu kısımda işlem adı verilen özel bir fonksiyon çeşidini ve işlemlerin önemli özelliklerini inceleyeceğiz.

fonksiyonu için in aralığındaki bütün değerleri için sürekli olsun. in bu aralıktaki olsun. Fonksiyonda meydana gelen artma miktarı

ÖZDEĞERLER- ÖZVEKTÖRLER

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

Çözüm: Siyah top çekilme olasılığı B olsun. Topların sayısı 12 olduğuna göre P(B)=8/12=2/3 tür.

PERGEL YAYINLARI LYS 1 DENEME-6 KONU ANALİZİ SORU NO LYS 1 MATEMATİK TESTİ KAZANIM NO KAZANIMLAR

SÜREKLİ RASSAL DEĞİŞKENLER

Yrd. Doç. Dr. Fatih TOSUNOĞLU Erzurum Teknik Üniversitesi Mühendislik Fakültesi İnşaat Mühendisliği Bölümü

İçindekiler. Ön Söz... xiii

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

TÜREV VE UYGULAMALARI

SAKARYA UNIVERSİTESİ ENDUSTRI MUHENDISLIĞI YÖNEYLEM ARAŞTIRMASI II MARKOV ZİNCİRLERİ DERS NOTLARI

Dr. Mehmet AKSARAYLI OLASILIK. Ders 3 / 1

MAT223 AYRIK MATEMATİK

AKT201 Matematiksel İstatistik I Yrd. Doç. Dr. Könül Bayramoğlu Kavlak

Polialfabetik Şifreleme (Vigenere)

Stokastik Süreçler (MATH495) Ders Detayları

BIP116-H14-1 BTP104-H014-1

İleri Diferansiyel Denklemler

Şimdi de [ ] vektörünün ile gösterilen boyu veya büyüklüğü Pisagor. teoreminini iki kere kullanarak

Rasgele Sayı Üretme. Rasgele Sayıların Özellikleri. İki önemli istaiksel özelliği var :

1.GRUPLAR. c (Birleşme özelliği) sağlanır. 2) a G için a e e a a olacak şekilde e G. vardır. 3) a G için denir) vardır.

Olasılık bir diğer ifadeyle bir olayın meydana gelme şansının sayısal ifadesidir. Örnekler:

Şartlı Olasılık. Yrd. Doç. Dr. Tijen ÖVER ÖZÇELİK

Simetrik Kriptografi

3.Ders Rasgele Değişkenler

Bilgi Güvenliği ve Kriptoloji Temel Kavramlar

ANADOLU ÜNİVERSİTESİ OLASILIĞA GİRİŞ

OLASILIĞA GİRİŞ P( )= =

Rassal Değişken. Yrd. Doç. Dr. Tijen ÖVER ÖZÇELİK

KUADRATİK FORM. Tanım: Kuadratik Form. Bir q(x 1,x 2,,x n ) fonksiyonu

12. SINIF. Ağırlık (%) SAYILAR VE CEBİR ÜSTEL VE LOGARİTMİK FONKSİYONLAR Üstel Fonksiyon 1 8 4

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

BÖLÜM III: Şebeke Modelleri. Şebeke Kavramları. Şebeke Kavramları. Şebeke Kavramları. Yönlü Şebeke (Directed Network) Dal / ok

İTÜ Bilgisayar Mühendisliği Bölümü, BLG433-Bilgisayar Haberleşmesi ders notları, Dr. Sema Oktuğ

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

DENİZ HARP OKULU ENDÜSTRİ MÜHENDİSLİĞİ BÖLÜM BAŞKANLIĞI DERS TANITIM BİLGİLERİ

ELK 318 İLETİŞİM KURAMI-II

Transkript:

Shannon Bilgi Kuramı Çağatay Yücel Yaşar Üniversitesi Bilgisayar Mühendisliği 08.03.2012 / Shannon Bilgi Kuramı Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 1 / 53

İçerik 1 Giriş 2 Bilgi Kuramının Tarihi Harry Nyquist, (1924) Ralph Hartley, (1928) Claude Elwood Shannon, (1948) 3 Temel Olasılık Bilgileri 4 Belirsizlik, Entropi ve Shannon ın Modeli Ortak, Koşullu ve Marjinal Entropi Karşılıklı Bilgi 5 Shannon - Weaver İletişim Modeli 6 Belleksiz kesikli bilgi kaynağı 7 Bellekli kesikli bilgi kaynağı 8 İletişim Kanalı Kapasitesi 9 Bilgi Kuramı Örnek Uygulama Alanları Veri sıkıştırma Kriptografi 10 Kolmogorov Karmaşası ve Shannon Entropisi Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 2 / 53

Giriş Bilgi Kuramı ve Kavramı Bilgi kavramı ile uğraşan, bilgiyi ölçmeye çalışan ve kullanım alanlarını inceleyen bilim alanına bilgi kuramı denilebilir. Genel bakış açısıyla, bilgi kavramı 3 e ayrılır: Sözdizimsel Bilgi: Mesajları oluşturan semboller ve bu sembollerin arasındaki ilişkileri ile alakalıdır. Örn: Gramer kurallarının tamamı, Büyük ünlü uyumu. Anlamsal Bilgi: Mesajların ne anlama geldiği ile ilgilenir. İşlevsel Bilgi: Mesajların nasıl kullanıldığı ve etkileri üzerinedir. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 3 / 53

Giriş Shannon Bilgi Kuramı Bilginin sözdizimsel olarak incelendiği ve modellendiği kuramdır. İstatistiksel Bilgi Kuramı veya İletişim Kuramı olarak da anılır. Claude E. Shannon ın 1948 de yayınladığı A Mathematical Theory of Communication makalesi ile temelleri atılmıştır. Bu kuramın oluşumundaki tarihsel sürece kısaca bir göz atalım. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 4 / 53

Bilgi Kuramının Tarihi Harry Nyquist, (1924) Harry Nyquist, (1924) Certain Factors Affecting Telegraph Speed (1924) adlı makalesi ile telgraf üzerinden maksimum hızda ve bozulma olmadan mesaj göndermenin yolunu açıkladı. Kullanılan devreye göre iletişim kanalının limitlerinin var olduğunu açıkladı. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 5 / 53

Bilgi Kuramının Tarihi Ralph Hartley, (1928) Ralph Hartley, (1928) Transmission of Information (1928) adlı makalesi ile ilk olarak bilgi ölçülmeye çalışılmıştır. s karakterlik bir alfabemiz olsun ve n uzunluğundaki bir mesajın içerisindeki bilgi miktarı olarak tanımlanmıştır. H H (s n )=log(s n )=n log(s) Bu durumda: H H (s n )=n H H (s 1 ) Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 6 / 53

Bilgi Kuramının Tarihi Claude Elwood Shannon, (1948) Claude Elwood Shannon, (1948) A Mathematical Theory of Communication (1948) Nyquist ve Hartley nin kuramlarını genişleterek günümüz bilgi kuramını oluşturmuştur. Bir mesajın içerisindeki belirsizliği olasılık kavramı ile ilişkilendirerek mesajın içerisindeki bilgi miktarını tanımlamıştır. Tüm karakterlerin oluşma olasılıklarının eşit olduğu varsayıldığında Hartley nin ölçüsüne dönülmektedir. Bu sebeple Hartley nin ölçüsü Shannon ölçüsünün özel bir durumudur denilebilir. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 7 / 53

Temel Olasılık Bilgileri Temel Olasılık Bilgileri Tanım X = x 1,x 2,...,x n - deneyini ele alalım. x i olası sonuçlar olsun. P = p 1,p 2,...,p n - örnek uzaydaki olayların ortaya çıkma olasılıkları olsun. Eğer aşağıdaki koşullar sağlanıyor ise P = p 1,p 2,...,p n bir olasılık dağılımıdır : 1 p i 0 2 p i = 1 Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 8 / 53

Temel Olasılık Bilgileri Ortak Olasılık Y = y 1,y 2,...,y m Q = q 1,q 2,...,q m (X,Y)=(x 1,y 1 ),...,(x n,y m ) olayını tek bir örnek uzay olarak tanımlayabiliriz. Tanım (x i,y i ) sonucunun ortaya çıkma olasılığına ortak olasılık denir ve r(x i,y i ) ile gösterilir. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 9 / 53

Temel Olasılık Bilgileri Marjinal Olasılık Ortak olasılık biliniyor ise, marjinal olasılıklar hesaplanabilir. Tanım r ij ortak olasılık dağılışı olsun. Bu durumda marjinal dağılışlar, p i,q j : p i = m j=1 r ij q j = n i=1 r ij Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 10 / 53

Temel Olasılık Bilgileri Koşullu - Marjinal- Ortak olasılık X olayının, bir diğer Y olayına koşullu olasılığı (veya Y biliniyorken X in olasılığı), P(X Y) olarak tanımlanır; Koşullu olasılık, ortak olasılık ve marjinal olasılıklar arasında aşağıdaki gibi bir ilişki vardır. r(x i,y j )=q(y j ) p(x i y j )=p(x i ) q(y j x i ) Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 11 / 53

Temel Olasılık Bilgileri Birbirinden Bağımsız Olaylar X, Y olaylarının birbirinden bağımsız olması durumunda: p(x i y j )=p(x i ) q(y j x i )=q(y j ) r(x i,y j )=p(x i ) q(y j ) formülleri geçerlidir. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 12 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Mesajdaki Belirsizlik ve Bilgi Miktarı Bir mesajdaki belirsizliğin o mesajdaki bilgi miktarına eşit olduğunu aşağıdaki örnekle açıklayalım. Bir torbaya her renkten toptan bir adet attığımızda, herhangi bir rengin gelme olasılığı 1/n olur. Çekilen bir topun hangi renk olacağı belirsizdir ve çekilişin ardıdan sonuç bize bir miktar bilgi vermektedir. Sadece tek bir renkten n adet top atılsa idi, çekilen topun rengini zaten biliyor olduğumuzdan bu çekilişin ardından herhangi bir şey öğrenmemiş olurduk. Böylelikle belirsizliğin bilgi miktarına eşit olduğunu düşünebiliriz. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 13 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Bilgi Miktarı Tanım X bir olasılık deneyi olsun. p(x i ) ise x i sonucunun ortaya çıkması durumunun olasılığı olarak verildiğinde, bu deneydeki ortalama bilgi miktarı: H(X)= n i=1 p(x i ) log(p(x i ))= n i=1 p i log(p i ) Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 14 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Bilgi Miktarı Logaritmanın tabanı 2 olarak seçildiğinde, bilgi miktarının birimi bit olmaktadır. log(1) = 0 olduğundan kesin olarak gerçekleşeceğini bildiğimiz bir olay bize 0 bitlik bilgi vermektedir. Tüm olasılıklar eşit olduğunda ise bilgi miktarı maksimum değerini almaktadır. Denklemdeki - işareti bilgi miktarı için H(X) 0 koşulunu yerine getirir. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 15 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Aksiyomlar H(X) süreklidir. H(X) simetriktir. H(X) için toplama özelliği vardır. H(X), X olayı uniform dağılış gösterdiğinde maksimum değerini alır. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 16 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Süreklilik H(X), p de süreklidir. p=(p,1 p) Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 17 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Simetri Olasılıkların sıralanışının bir önemi yoktur. Örneğin: X = (Kırmızı top çekilir, Mavi top çekilir) P x =(0.8,0.2) için H(X)= 0.8 log(0.8) 0.2 log(0.2) = 0.72 bit. Y = (Kar yağar, Kar yağmaz) P y =(0.2,0.8) için H(Y)= 0.2 log(0.2) 0.8 log(0.8) = 0.72 bit. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 18 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Toplama Özelliğinin Sağlanması Birbirinden bağımsız iki olay X,Y için: H(X,Y)=H(X)+H(Y) Örneğin: İki zar atıldığında, birbirinden bağımsız olaylar söz konusu olduğu için, beraber atılmaları ile birinin diğerinden sonra atılmasının bir farkı yoktur. H(X)=H(Y) H(p 1,q 1,...,p 6,q 1,...,p 6,q 6 )=H(p 1,p 2,...,p 6 )+H(q 1,q 2,...,q 6 ) Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 19 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Entropinin Maksimum ve Minimum Olma Durumları Teorem X =(x 1,...,x n ) örnek uzayımız olsun. P =(p 1,...,p n ) ise X örnek uzayına karşılık gelen olasılık dağılışımız olsun. 1 H(X) log(n), eşitlik durumu = p i = 1/n 2 H(X) 0, eşitlik durumu = p k = 1 değerini sağlayan bir k değeri mevcuttur. İspat için [1] Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 20 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Örnek: Taralı alanı tahmin etmek Tüm karelerin taralı olma olasılıklarının eşit olduğunu varsayarsak: Minimum 4 soru sorarak taralı alanı bulabiliriz. H(X)= 16 i=1 1 16 log( 1 16 )=4bit Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 21 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Ortak, Koşullu ve Marjinal Entropi Ortak, Koşullu ve Marjinal Entropi Tanım (X,Y) raslantısal iki boyutlu vektörel değişkenimiz olsun. r ij, x i ve y j sonuçlarının ortaya çıkma olasılığı ise, Ortak (joint ) Bilgi Miktarı H(X,Y)= n m i=1 j=1 r ij log(r ij ) Tanım (X,Y) raslantısal iki boyutlu vektörel değişkenimiz olsun. r ij, x i ve y j sonuçlarının ortaya çıkma olasılığı, q, Y nin marjinal olasılığı ise H(Y X), Y nin X olayına bağlı, yani Koşullu Bilgi Miktarı: H(Y X)= n m i=1 j=1 r ij log(q(y j x i )) Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 22 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Ortak, Koşullu ve Marjinal Entropi Ortak, Koşullu ve Marjinal Entropi Teorem H(Y X) koşullu bilgi miktarı olsun. H(Y X) 0 H(Y X) H(Y) ve eşitlik durumu ancak X ve Y bağımsız ise gerçekleşir. Teorem H(Y X) koşullu, H(X),H(Y) marjinal ve H(X,Y) ortak bilgi miktarları olsun. H(X,Y)=H(X)+H(Y X)=H(Y)+H(X Y) İspatları [1] de bulabilirsiniz. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 23 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Karşılıklı Bilgi Karşılıklı Bilgi Miktarı Tanım X ve Y ye bağlı karşılıklı bilgi miktarı aşağıdaki gibi tanımlanır. I(X : Y)=H(Y) H(Y X)= n m i=1 j=1 r ij r ij log( ) p i q j Y ve X arasındaki bağımlılık miktarının ölçütüdür. X,Y bağımsız değişkenler ise I(X : Y)=0 dır. Y, X e tamamen bağımlı ise; H(Y X)=0 ve I(X : Y)=H(Y). Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 24 / 53

Belirsizlik, Entropi ve Shannon ın Modeli Karşılıklı Bilgi Bilgi Miktarları Arasındaki İlişki Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 25 / 53

Shannon - Weaver İletişim Modeli Shannon - Weaver İletişim Modeli Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 26 / 53

Shannon - Weaver İletişim Modeli Detaylı İletişim Modeli Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 27 / 53

Belleksiz kesikli bilgi kaynağı Belleksiz Kesikli Bilgi Kaynağı Bir bilgi kaynağının alfabesini, sonlu sayıda sembolden oluşan bir küme olarak düşünebiliriz. U =(u 1,u 2,...,u n ) Mesaj veya kelime ardarda gelen bir grup sembolden oluşmaktadır. Alfabede n sembol varsa ve mesajımızın uzunluğu l sembol ise n l adet olası mesaj oluşturabiliriz. Bilgi kaynağımızın stokastik olması, alfabedeki her sembol ile ilintili bir oluşma olasılığının, p(u i )=p i, var olması anlamına gelmektedir. Bu durumda, bu bilgi kaynağı tarafından üretlien bilgi miktarı, aşağıdaki formül ile bulunabilir. H(U)= p i log(p i )bit/sembol Maksimum üretilebileceğimiz bilgi miktarı ise: max[h(u)] = log(n)bit/sembol Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 28 / 53

Belleksiz kesikli bilgi kaynağı Fazlalık (Redundancy) Kavramı Tanım Bir bilgi kaynağındaki fazlalık Red = 1 H(U) H(U) = 1 max[h(u)] log(n) ile gösterilir. Formüldeki n kaynak alfabedeki olası sembol sayısıdır. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 29 / 53

Belleksiz kesikli bilgi kaynağı Kaynak Kodlama U =(u 1,u 2,...,u n ) alfabesini kullanarak mesaj üreten bir kaynağımız olduğunu varsayalım ve mesajların bir iletişim kanalına yazıldığını düşünelim. Verimliliği sağlamak adına mesajların mümkün olduğunca fazlalıklardan kurtulması gerekir. Üretilen mesajın fazlalıklardan kurtulmasını sağlamak adına yeni bir alfabe ile kodlanmasına kaynak kodlama denir. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 30 / 53

Belleksiz kesikli bilgi kaynağı Kaynak Kodlama S =(s 1,s 2,...,s n ) kod alfabemiz olsun. U alfabesinde üretilen her bir mesajın S alfabesinde bir karşılığı mevcuttur, bu karşılığa kod kelimesi (code word) denir. Eğer olası tüm kod kelimeler birbirinden farklıysa, bu kodlama tekniğine (non - singular) tekil olmayan kodlama denir. Kodlamanın başarılı bir şekilde geriye çevrilebilmesi için, her bir kod kelimesinin tek bir karşılığı olması gerekmektedir. Aynı zamanda kod sembollerinin okunduğu anda orjinal mesajın alfabesine çevrilebilmesine ani kodlama (instantaneous code) denir. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 31 / 53

Belleksiz kesikli bilgi kaynağı Verimlilik Tanım Bir kodlama tekniğinin verimliliği, η, aşağıdaki şekilde tanımlanır. η = H(U) L log(r) H(U) mesajın kaynağının bilgi miktarı, L kod kelimelerinin ortalama uzunluğu ve r ise kod alfabesinin uzunluğudur. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 32 / 53

Belleksiz kesikli bilgi kaynağı Huffman Kodlaması - Örnek Kayıpsız (lossless) olarak veriyi sıkıştırıp tekrar açmak için kullanılır. Huffman Kodlamasının en büyük avantajlarından birisi kullanılan karakterlerin frekanslarına göre bir ikili ağaç (binary tree) yapısında tutulmasıdır. Sık kullanılan karakterler daha kısa kod kelimelerle ifade edilip ağacın üst düğümlerinde yer alır. Nadir kullanılanlar ise daha uzun kelimelerle ifade edilip daha aşağıdaki düğümlerde yer alır. Örnek: Türkçe dilinde yapılan Huffman Kodlaması çalışması... Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 33 / 53

Bellekli kesikli bilgi kaynağı Bellekli Kesikli Bilgi Kaynağı Belleksiz olma özelliği bir çok dil için geçerli değildir. Çoğu zaman önceki karakterlerden bir sonraki karakterin tahmini yapılabilmektedir. Örn: bilg harflerini gördüğümüzde bir sonraki harfin çok büyük olasılıkla i olacağını tahmin edebiliriz. Bilgi kaynağımızın bellekli olması demek, o ana kadar kaynaktan gelen sembollerin bir sonraki sembolün olasılıklarını etkilemesi anlamına gelmektedir. Bellekli bilgi kaynakların ürettiği diziler markov zincirleri ile gosterilebilir. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 34 / 53

Bellekli kesikli bilgi kaynağı Markov Zincirleri Tanım X n,(n= 0,1,2,...,) sonlu sayıda değerler alan bir stokastik proses olsun. X n = i notasyonu, prosesin n anında i değerinde olduğunu göstermektedir. Proses herhangi bir n anında i durumunda olduğunda, bir sonraki durumun j olma olasılığı sabittir. P{X n+1 = j X n 1 = i n 1,...,X 1 = i 1,X 0 = i 0 }=P ij i, j ve n 0. Bu özelliği sağlayan proseslere Markov Zinciri denir. Markov zincirleri durum geçiş matrisleri ile ifade edilir. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 35 / 53

Bellekli kesikli bilgi kaynağı Örn: Markov Zincirleri Alfabemiz U = 0,1,2 olsun. Durum geçiş matrisimiz ise şu şekilde olsun. Bir sonraki durum 0 1 2 0 0.65 0.28 0.07 Şu anki durum 1 0.15 0.65 0.18 2 0.12 0.36 0.52 Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 36 / 53

Bellekli kesikli bilgi kaynağı Örn: Markov Zincirleri Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 37 / 53

Bellekli kesikli bilgi kaynağı Örn: İletişim Sistemi Bir ağ üzerinden 1 ve 0 gönderen bir iletişim sistemi düşünelim. Her bir adımda bir sonraki sembolün değişme olasılığı p olsun. Bu durumda geçiş matrisimiz şu şekildedir. p 1 p 1 p p Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 38 / 53

Bellekli kesikli bilgi kaynağı Chapman - Kolmogorov Denklemleri Bir prosesin n adımdan sonra durum değiştirme olasılıklarını Chapman - Kolmogorov denklemleri vermektedir. Bu denklemler P n+m ij = k=0 tüm n,m 0 ve tüm i,j için sağlanır P n ik P m kj Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 39 / 53

Bellekli kesikli bilgi kaynağı N. dereceden Markov Zincirleri İletişim sistemini tekrardan değerlendirirsek, p = 0.7 iken, 2. bitin ve 3. bitin olasılıklarını hesaplamak için: P = 0.7 0.3 0.3 0.7 P 2 = P 1+1 = P P P 2 = 0.7 0.3 0.3 0.7 0.7 0.3 0.3 0.7 P 2 = 0.58 0.42 0.42 0.58 P 3 = P 2 P 1 P 3 = 0.58 0.42 0.42 0.58 0.7 0.3 0.3 0.7 P 3 = 0.532 0.468 0.468 0.532 Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 40 / 53

Bellekli kesikli bilgi kaynağı 1. Dereceden Markov Proseslerinin Bilgi Miktarı u i,i = 1,2,...,m alfabemizdeki semboller olsun. S i,i = 1,2,...,m prosesimizin durumları olsun. u 1i durumundan u 2j durumuna geçiş durumunu düşünelim. Bu olasılığı p(u 2j u 1i ) ile gösterirsek, bu geçişteki bilgi miktarı: H(U 2 U 1 )= m m i=1 j=1 p(u 2j u 1i ) log(p(u 2j u 1i )) (1) Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 41 / 53

Bellekli kesikli bilgi kaynağı N. Dereceden Markov Proseslerinin Bilgi Miktarı n 1 önceki sembollerin bilindiği durumda, N. sembolün koşullu entropisi aşağıdaki gibi hesaplanır. F n (U)=H(U n U n 1,U n 2,...,U 1 ) Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 42 / 53

İletişim Kanalı Kapasitesi İletişim Kanalı Kapasitesi Güvenilir bir şekilde bir iletişim kanalından gönderebileceğiniz maksimum bilgi miktarına Operasyonel iletişim kanalı kapasitesi denir. Bilgi Kanalı İletişim Kapasitesi ise şu şekilde tanımlanır. C = max {p(x)} (I(X : Y)) Shannon ın İletişim Kanalı Kodlama Teorisi ne göre: bilgi iletişim kapasitesi = operasyonel iletişim kapasitesi Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 43 / 53

Bilgi Kuramı Örnek Uygulama Alanları Veri sıkıştırma Veri Sıkıştırma Kayıpsız sıkıştırma algoritmaları Huffman Fano - Shannon Arithmetic Coding Kayıplı sıkıştırma algoritmaları JPEG, DJVU MPEG 1-2-4, MP2, MP3, WMA Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 44 / 53

Bilgi Kuramı Örnek Uygulama Alanları Kriptografi Simetrik Kriptosistemler Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 45 / 53

Bilgi Kuramı Örnek Uygulama Alanları Kriptografi Simetrik Kriptosistemler M i, H(M i )= n i=1 p(m i) log(p(m i )) C i, H(M i )= n i=1 p(c i) log(p(c i )) K i, H(K i )= n i=1 p(k i) log(p(k i )) H(K C), key equivocation H(K C)= l m h=1 j=1 p(k h,c j ) log(p(k h C j )) H(M C), message equivocation aynı şekilde hesaplanmaktadır. H(M C,K)=0 olmasını bekleriz. Kusursuz gizlilik için ideal olarak I(M : C)=0 olması gerekir. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 46 / 53

Kolmogorov Karmaşası ve Shannon Entropisi Kolmogorov Karmaşası 1111111111111111 1011010110101101 Hangisini daha karmaşık olarak nitelendirebiliriz? Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 47 / 53

Kolmogorov Karmaşası ve Shannon Entropisi Kolmogorov Karmaşası 1111111111111111 Yukarıdaki bit dizisi 16 adet 1 yazan Turing Makinesi ile ifade edilebilir. 1011010110101101 Rasgele bit dizisi olarak nitelendirildiğinden tanımlayıcı Turing Makinesi bit dizisini sıkıştırmadan içermelidir. Kolmogorov Karmaşası ile bu fikri formal hale getirebiliriz. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 48 / 53

Kolmogorov Karmaşası ve Shannon Entropisi Kolmogorov Karmaşası Tanım Bir x bit dizisinin Kolmogorov karmaşası, x bit dizisini üreten en küçük Turing Makinesi programının uzunluğuna eşittir. K f (x)=min p { p :f(p)=x} Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 49 / 53

Kolmogorov Karmaşası ve Shannon Entropisi Algorithmic information theory is the result of putting Shannon s information theory and Turing s computability theory into a cocktail shaker and shaking vigorously. G. J. Chaitin Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 50 / 53

Kolmogorov Karmaşası ve Shannon Entropisi Shannon Entropisi ve Kolmogorov Karmaşası Kolmogorov karmaşasının beklenen değeri bize Shannon Entropisini vermektedir. Kodlama teorisinie göre mesajımız fazlalıkları azaltacak şekilde kodlanmaktadır. Bu kodlamayı Kolmogorov Karmaşasının tanımındaki f olarak değerlendirebiliriz. Bu durumda kodlama sisteminin beklenen değeri ile Shannon Entropisi arasındaki bağlantı kurulmuş olur. Formal teoremler ve ispatlar için [4] Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 51 / 53

Kolmogorov Karmaşası ve Shannon Entropisi Teşekkürler... Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 52 / 53

Kolmogorov Karmaşası ve Shannon Entropisi References Jan C.A. van der Lubbe. Information Theory. Cambridge Press, 1997. Kaan Kurtel. Information theory lecture notes. Neil Conway. Kolmogorov complexity lecture notes. Grunwald p. Vitanyi, P. Shannon information and komogorov complexity. 2010. C. E. Shannon. A mathematical theory of communication. Bell system technical journal, 27, 1948. C. Shannon. Communication theory of secrecy systems. Bell System Technical Journal, 28, 1949. Thomas M. Cover and Joy A. Thomas. Elements of information theory. Wiley-Interscience, 1991. Sheldon M. Ross. Introduction to Probability Models. Academic Press, New York, 10th edition, 2003. Çağatay Yücel (Yaşar Üniversitesi) Shannon Bilgi Kuramı 08.03.2012 / Shannon Bilgi Kuramı 53 / 53