14.12 Oyun Teorisi Ders Notları



Benzer belgeler
14.12 Oyun Teorisi. Ders 13: Sonsuz Tekrarlı Oyunlar I. Yol haritası. 1. Tek-sapma prensibi. 2. Sonsuz tekrarlı Girişimden caydırma oyunu

14.12 Oyun Teorisi Ders Notları

14.12 Oyun Teorisi. Ders 11: Alt-oyun Mükemmel Dengesi Uygulamaları ve Tek-sapma Prensibi. Yol haritası. 2. Banka krizi. 3. Tek-sapma prensibi

Konu 10 Oyun Teorisi: Oligopol Piyasaların İç Mahiyeti

Final Sınavı. Güz 2005

14.12 Oyun Teorisi Ders Notları

14.12 Oyun Teorisi Ders Notları

14.12 Oyun Teorisi. 3. Geriye doğru tümevarım. Yol haritası. 1. Maliyetli aramalı Bertrand rekabeti. 2. Ufak sınav. 4.

2005 Final Sınavına Kısmi Yanıtlar. Güz 2007

14.12 Oyun Teorisi. Ders 16: Eksik Bilgi Statik Durum. Yol haritası. 1. Bayesyen nash Dengesi. 2. Örnekler. 3. Cournot Duopolü. 4.

14.12 Oyun Teorisi Ders Notları Seçim Teorisi

END. İKTİSADI VE OYUN TEORİSİ (BİRİNCİ ÖDEV)

14.12 Oyun Teorisi Ders Notları

sayıların kümesi N 1 = { 2i-1: i N } ve tüm çift doğal sayıların kümesi N 2 = { 2i: i N } şeklinde gösterilebilecektir. Hiç elemanı olmayan kümeye

VEKTÖR UZAYLARI 1.GİRİŞ

Şimdi de [ ] vektörünün ile gösterilen boyu veya büyüklüğü Pisagor. teoreminini iki kere kullanarak

Tam ve Karma Stratejili Oyunlar. İki Kişili Oyunlar için

DARÜŞŞAFAKA LİSESİ SALİH ZEKİ LİSE ÖĞRENCİLERİ ARASI MATEMATİK PROJELERİ YARIŞMASI

UYGULAMALARI. Dr. Sanlı ATEŞ

MasColell Ders Notları

İki kişili-sıfır toplamlı oyunlar. Tam ve Karma Stratejili Oyunlar. Varsayımlar. Sıfır toplamlı oyunlar

Dinamik Biçimde Oyunlar. Murat Donduran

Limit Oyunları. Ufuk Sevim 10 Ekim 2012

Saf Stratejilerde Evrimsel Kararlılık Bilgi Notu Ben Polak, Econ 159a/MGT 522a Ekim 9, 2007

14.12 Oyun Teorisi. Ders 18-20: Eksik Bilgi Dinamik Oyunlar. Yol haritası. 2. Ardaşık Rasyonelite. 3. Mükemmel Bayesyen Nash Dengesi

ANADOLU ÜNİVERSİTESİ AÇIKÖĞRETİM FAKÜLTESİ İLKÖĞRETİM ÖĞRETMENLİĞİ LİSANS TAMAMLAMA PROGRAMI. Lineer. Cebir. Ünite

Yöneylem Araştırması Dersi OYUN TEORİSİ. Oyuncusu Stratejisi. Stratejileri. Oyuncusu Stratejisi Stratejisi Cı Cı (3 4

10. DİREKT ÇARPIMLAR

CEBİRDEN SEÇME KONULAR

FAZ (FArklı Zar) Temmuz Umut & Yeşim Uludağ FAZ V Kişi Sayısı: 3 Yaş grubu: 8 yaş ve üstü Oyun Türü: Taş hareketi, strateji, olasılık

Oyun Teorisine (Kuramına) Giriş

KARAR TEORİSİ VE ANALİZİ. OYUN TEORİSİ Prof. Dr. İbrahim Çil

OYUN TEORİSİ. Özlem AYDIN. Trakya Üniversitesi Bilgisayar Mühendisliği Bölümü

2 şeklindeki bütün sayılar. 2 irrasyonel sayısı. 2 irrasyonel sayısından elde etmekteyiz. Benzer şekilde 3 irrasyonel sayısı

OYUNLAR TEORİSİNİN MADEN ARAMALARINA UYGULANMASI

13. Karakteristik kökler ve özvektörler

Tanım 2.1. X boş olmayan bir küme olmak üzere X den X üzerine bire-bir fonksiyona permütasyon denir.

14.12 Oyun Teorisi. Bob A M E Alice P a b c G b a c

Bu optimal reklam-satış oranının reklam etkinliğini (reklam esnekliği) fiyat esnekliğine bölerek de hesaplarız anlamına gelir.

NİM Ali Nesin. 1 d2 d4 müydü bu hamle acaba?

Lineer Dönüşümler ÜNİTE. Amaçlar. İçindekiler. Yazar Öğr. Grv.Dr. Nevin ORHUN

Blöfün Matematiği Ali Nesin

Özet: Oyun Teorisi ve Rekabetçi Strateji I

OYUN TEORİSİ 2 1. GİRİŞ 2 2. NORMAL BİÇİMDE OYUNLAR

6. Ders. Mahir Bilen Can. Mayıs 16, 2016

2. Cournot Modeli: iki firma aynı anda homojen bir ürünün çıktı miktrı üzerine rekabet ediyorsa ne olur

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

yaz -tura at yor. Yaz gelirse birinci oyuncu, tura gelirse ikinci oyuncu kazanacak. Birinci oyuncu oyunun bafl nda ortaya 1 lira koyuyor.

sonlu altörtüsü varsa bu topolojik uzaya tıkız diyoruz.

HESAP. (kesiklik var; süreklilik örnekleniyor) Hesap sürecinin zaman ekseninde geçtiği durumlar

YATIRIM. Ders 19: Menkul Kıymet Analizi. Bahar 2003

14.Konu Reel sayılarının topolojisi. 1.Tanım:, verilsin. açık aralığına noktasının -komşuluğu denir. { } kümesine nın delinmiş -komşuluğu denir.

Bulanık Küme Kavramı BULANIK KÜME. Sonlu ve Sonsuz Bulanık Kümeler. Sonlu ve Sonsuz Bulanık Kümeler

Yoksulun Kazanabildiği Bir Oyun Ali Nesin

için doğrudur. olmak üzere tüm r mertebeli gruplar için lemma nın doğru olduğunu kabul edelim. G grubunun mertebesi n olsun. ve olsun.

Bu tanım aralığı pozitif tam sayılar olan f(n) fonksiyonunun değişim aralığı n= 1, 2, 3,, n,

Bu yaz girifle gereksinmiyor. Do rudan, kan tlayaca m z

7. Ders. Mahir Bilen Can. Mayıs 17, 2016

ÇOCUK HÜKÜMLÜLERE AİT MÜDDETNAME DÜZENLENMESİ:

Sloan Yönetim Okulu / Massachusetts Teknoloji Enstitüsü Güzl 2004 Professors Berndt, Chapman, Doyle ve Stoker

köşe (vertex) kenar (edg d e)

Statik Biçimde Oyunlar. Murat Donduran

14.12 Oyun Teorisi. Ders 2: Seçim Teorisi. Yol haritası. 1. Temel konseptler (alternatifler, tercihler,..) 2. Tercihlerin ordinal temsiliyeti

MIT Açık Ders Malzemeleri Bu materyallerden alıntı yapmak veya Kullanım Koşulları hakkında bilgi almak için

EK : DIŞSAL TASARRUFLAR ( EKONOMİLER )

OYUN TEORİSİNE DOĞRU Yard.Doç.Dr.Deniz Giz

4.3. Türev ile İlgili Teoremler

BLM-431 YAPAY ZEKA. Ders-3 Durum Uzayında Arama. Yrd. Doç. Dr. Ümit ATİLA

SAĞLIK KURUMLARINDA OPERASYON YÖNETİMİ

İÇİNDEKİLER. Önsöz...2. Önermeler ve İspat Yöntemleri...3. Küme Teorisi Bağıntı Fonksiyon İşlem...48

Oyun Teorisi IENG 456 Karar Vermede Analitik Yaklaşımlar

2.BÖLÜM ÇOKTAN SEÇMELİ

8. HOMOMORFİZMALAR VE İZOMORFİZMALAR

Oyun teorisi: Ders 21 Transkript. 26 Kasım 2007

T E M E L B Ü Y Ü M E İ

DEDELER İLKOKULU

Ç.Ü Fen ve Mühendislik Bilimleri Dergisi Yıl:2012 Cilt:28-2

ZEKA Oyunları Turnuvaları

OYUN TEORİSİ ÇERÇEVESİNDE EKONOMİNİN DİNAMİK OYUN MODELLERİNE UYGULANMASI

MIT OpenCourseWare Ekonomide İstatistiksel Yöntemlere Giriş Bahar 2009

3 Altuzaylar, altuzaylar için toplama ve direkt toplama 4 Span, lineer bağımsızlık, taban

MARKOV ZİNCİRLERİNDE DURUMLARIN SINIFLANDIRILMASI

Ara Sınav Yanıtları Econ 159a/MGT 522a Ben Polak Güz 2007

7. BÖLÜM İÇ ÇARPIM UZAYLARI İÇ ÇARPIM UZAYLARI İÇ ÇARPIM UZAYLARI İÇ ÇARPIM UZAYLARI .= Genel: Vektörler bölümünde vektörel iç çarpım;

SORU 1: X bir sonsuz küme ve A da X kümesinin tüm sonlu alt kümelerinin. A := {B P (X) : B sonlu} SORU 2: X sayılamayan bir küme

8. HOMOMORFİZMALAR VE İZOMORFİZMALAR

MIT Açık Ders Malzemeleri Bu materyallerden alıntı yapmak veya Kullanım Koşulları hakkında bilgi almak için

İleri Diferansiyel Denklemler

Appendix B: Olasılık ve Dağılım Teorisi

ECZACI İSKONTOSU UYGULAMASI

YTÜ İktisat Bölümü EKONOMETRİ I Ders Notları

YTÜ İktisat Bölümü EKONOMETRİ I Ders Notları

TEKELC REKABET VE OLİGOPOL PİYASALAR

T I M U R K A R A Ç AY - H AY D A R E Ş C A L C U L U S S E Ç K I N YAY I N C I L I K A N K A R A

KOŞUL UYGULAMALARINDA GRUP DESTEĞİ

IKTI 101 (Yaz Okulu) 04 Ağustos, 2010 Gazi Üniversitesi İktisat Bölümü DERS NOTU 05 ÜRETİCİ TEORİSİ

İleri Diferansiyel Denklemler

ÖDEV 5 ÇÖZÜMLERİ. 1. A, B, C Ω olmak üzere A B ve A B C olaylarını ayrık olayların birleşimi olarak yazınız.

Ders 10: Düzlemde cebirsel eğriler

Transkript:

4.2 Oyun Teorisi Ders Notları Muhamet Yıldız Ders 2-3 Tekrarlı Oyunlar Bu ders notlarında, daha küçük bir oyunun tekrarlandığı ve bu tekrarlanan küçük oyunun statik oyun adını aldığı oyunları tartışacağız. Statik oyun önceki tekrarlarda ne oynandığın-dan bağımsız olarak tekrarlanır. Yapacağımız analizde, statik oyunun sonlu mu yoksa sonsuz defa mı tekrarlandığı ve oyuncuların önceki oyunlarda diğer oyuncuların ne oynadıklarını gözlemleyip gözlemlememeleri oldukça önemlidir.. Gözlemlenebilir eylemli sonlu tekrarlı oyunlar Öncelikle statik oyunun sonlu defa tekrarlandığı ve her bir tekrarın başında her oyuncunun diğer oyuncuların önceki tekrarlarda ne oynadıklarını hatırladığı oyunları düşüneceğiz. Şimdi, bir girişimcinin () bir piyasaya girip girmeme kararı verdiği ve hakim firmanın da (2) girişimciyle savaşma ya da onu barındırma kararı verdği, girişimden caydırma oyununu düşünelim. Gir 2 (,) (0,2)

Bu girişimden caydırma oyununun iki defa tekrarlandığı ve tüm geçmiş eylemlerin gözlemlendiği oyunu düşünelim. Varsayalım ki, oyuncular sadece statik oyunlardaki kazanç-larının toplamına bakıyor olsunlar. Oyun alttaki resimde çizilmiştir. Gir 2 Gir 2 (,3) 2 Gir (0,4) Gir 2 (0,0) (-2,-2) İlk oyunun herbir sonucundan sonra, girişimden caydırma oyunu bir kez daha oynanıyor-ilk oyundan gelen kazanç herbir sonuca eklenmiştir. Bir oyuncunun lotaryalar üzerine olan tercihleri, fayda fonksiyonuna bir sayı eklediğimizde değişmeyeceğinden, ikinci gün oynanan herbir oyun statik oyunla (girişimden caydırma oyunuyla) aynıdır. Statik oyunun, hakim firmanın girişimciyi barındırdığı ve girişimcinin de bunu öngörüp piyasaya girdiği, tek bir alt-oyun mükemmel dengesi vardır. Gir 2 (,) (0,2) 2

Bu durumda, ikinci gün oynanan her bir oyunun alt-oyun mükemmel dengesi bu dengedir. Bu altta çizilmiştir. Gir 2 Gir 2 (,3) 2 Gir (0,4) Gir 2 (0,0) (-2,-2) Geriye doğru tümevarım kullanarak, oyunu alttaki oyuna indirgiyoruz. Gir 2 Dikkat edilirse ikinci günden gelen ve bir tek olan alt-oyun mükemmel denge kazancı olan i statik oyundaki her kazanca ekledik. Tekrarlarsak, bir oyuncunun kazançlarına sabit bir sayı eklemek oyunu değiştirmez, bu yüzden de, indirgenmiş oyunun tek alt-oyun mükemmel dengesi statik oyundaki aynı alt-oyun mükemmel dengesidir. Dolayısıyla,tek alt-oyun mükemmel denge alttaki şekilde çizilmiştir. 3

Gir 2 Gir 2 (,3) 2 Gir (0,4) Gir 2 (0,0) (-2,-2) Bu genellenebilir. Başka bir deyişle, herhangi bir gözlemlenebilir eylemli ve sonlu defa tekrarlanan oyun aldığımızda, eğer statik oyunun tek bir alt-oyun mükemmel dengesi varsa, o zaman tekrarlanan oyunun da tek bir alt-oyun mükemmel dengesi vardır, ve bu dengede statik oyunun alt-oyun mükemmel dengesi herbir tekrarda oynanır. Eğer statik oyunun birden fazla dengesi varsa, o zaman tekrarlı oyunda, oyuncuların statik oyunun alt-oyun mükemmel dengesinde oynanmayan bazı eylemleri bazı tekrarlarda oynadıkları bazı alt-oyun mükemmel dengeleri olabilir. İkinci gün oynanacak denge ilk gün ne oynanacağına koşullanabilir ve bu durumda ilk güne indirgenmiş oyun artık statik oyunla aynı değildir ve dolayısıyla başka dengeler içerebilir. Bunu görmek için Gibbons a bakınız..2 Gözlemlenebilir eylemli sonsuz tekrarlı oyunlar Şimdi, her tekrarın başlangıcında geçmişteki tüm eylemlerin ortak bilgi olduğu sonsuz tekrarlı oyunları düşünelim. Sonsuz tekrarlı bir oyunda, toplam sonsuz olduğu için, her bir tekrardan gelen kazançları olduğu gibi toplayamayız. Bu oyunlar için, oyuncuların her tekrardan aldıkları kazançların iskontolu toplamını maksimize ettikleri durumlara odaklanacağız. π = (π 0, π,..., π t,...) gibi bir kazanç akşının bugünkü değeri P V (π; δ) = δ t π t = π 0 + δπ + + δ t π t +, t=0 şeklinde hesaplanır, öyle ki, δ (0, ) iskonto faktörüdür. Ortalama değerden kasıt ise 4

( δ) P V (π; δ) ( δ) δ t π t. idir. Farkedelim ki, sabit bir kazanç akışımız varsa (yani, π 0 = π = = π t = ), ortalama değer statik kazançtır (yani, π 0 ). Bugünkü ve ortalama değerler şu anki güne göre hesaplanabilirler. Başka bir deyişle, herhangi bir t de, t deki bugünkü değer t=0 şeklindedir. Açıktır ki, P V t (π; δ) = δ s t π s = π t + δπ t+ + + δ k π t+k +. s=t P V (π; δ) = π 0 + δπ + + δ t π t + δ t P V t (π; δ). Dolayısıyla, analiz P V veya P V t kullanmamıza göre değişmez, ama P V t kullanımı daha kolaydır. Sonsuz tekrarlı oyunların en temel özelliği, oyuncular daha sabırlı oldukça, yani δ, denge kümesi çok büyük hale gelir. Her oyuncuya statik oyunun herhangi bir Nash dengesinden daha fazla veren herhangi bir kazanç vektörü için, yeteri kadar yüksek δ lar için, eldeki kazanç vektörünü kazanç akşının ortalama değeri olarak veren bir alt-oyun mükemmel dengesi vardır. Bu, folk teoremi olarak bilinir. Detaylar için Gibbons a bakınız. Bu oyunlarda, bir strateji vektörünün, s = (s, s 2,..., s n ) alt-oyun mükemmel dengesi olup olmadığını kontrol etmek için, tek-sapma prensibini kullanıyoruz. Tanımı şöyledir. Oyuncu i nin oynayacağı ve s stateji vektörüne göre statik oyunun a stratejisini oynayacağı herhangi bir bilgi kümesi alalım. Varsayalım ki, bu bilgi kümesi ulaşılsın, her j i oyunun geri kalanında kendi s j stratejisine sadık kalsın ve oyuncu i oyunun geri kalanında s i stratejisine eldeki bilgi kümesi dışında sadık kalsın. Tüm bunların ışığında, oyuncunun bu bilgi kümesinde başka bir a eylemine (a dan vazgeçerek) sapma isteğinin olup olmadığını kontrol ediyoruz. [Dikkat Bir strateji vektörü s i, statik oyunun önceki tekrarlarında her oyuncunun hangi eylemi yaptığına bağlı olarak t de statik oyunun hangi stratejisinin oynanacağını belirleyen a t fonksiyonlarının s i = (a 0, a,..., a t,...) şeklinde bir sonsuz dizisidir. 5

edilirse, tüm oyuncuların, i de dahil, oyunun geri kalanında bu strateji vektörüne sadık kalacaklarını varsayıyoruz.] Tek-sapma prensibi der ki, oyuncunun bu anlamda sapacağı hiçbir bilgi kümesi yoksa, o zaman strateji vektörü bir alt-oyun mükemmel dengesidir. Girişimden caydırma oyununun sonsuz tekrarlı versiyonunu analiz edelim. Şöyle bir strateji vektörü düşünelim. Herhangi bir tekrarda, girişimci piyasaya girer ancak ve ancak hakim firma girişimciyi geçmişte bir zaman barındırmıştır. (Bu, başlarda hakim firmanın girişimci ile piyasaya girdiği durumlarda savaşacağı ve girişimcinin de piyasaya girmediği, bir geçiş stratejisidir. Eğer hakim firma girişimciyi barındıracak olursa, girişimcinin piyasaya girdiği ve hakim firmanın da her zaman girişimciyi barındırdığı yeni bir rejime geçiş yaparlar.) Büyük δ değerleri için, bu bir dengedir. Bunun denge olup olmadığını kontrol etmek için, tek-sapma prensibini kullanıyoruz. Öncelikle bir t zamanı ve hakim firmanın girişimciyi barındırageldiği bir (t de) bir geçmiş alıyoruz. Hakim firma, kendi stratejisine göre, oyunun geri kalan kısmında girişimciyi her zaman barındıracaktır ve girişimci de her zaman piyasaya girecektir (yine kendi stratejisine göre). Dolayısıyla, hakim firmanın t + den itibaren kazanacağı devam değeri (yani, dengedeki kazanç akşının hakim firma için bugünkü değeri) V A = + δ + δ 2 + = / ( δ). şeklindedir. Eğer hakim firma t de barındırırsa, bugünkü değeri (t de) +δv A olacaktır. Eğer savaşırsa, o zaman bugünkü değeri + δv A olacaktır. Dolayısıyla, hakim firmanın stratejisindeki barındırmak yerine savaşmaya hiç niyeti yoktur. Girişimcinin t + den itibaren alacağıdevam değeri yine t de ne olduğundan bağımsızdır, dolayısıyla girişimci, sapmak (o halde, 0 + δ kazanacaktır [t + deki bugünkü değeri]) yerine piyasaya girecektir (o halde, + δ kazanacaktır [t + deki bugünkü değeri]) Şimdi, t zamanında bir geçmiş düşünelim, öyle ki, hakim firma daha önce girişimciyi hiç barındırmamış olsun. Hakim firmanın bilgi kümesini düşünelim. Eğer, girişimciyi barındırırsa, t + den itibaren alacağı devam değeri V A = /( δ) olacaktır, ve t den itibaren alacağı devam değeriyse + δv A = + δ/( δ) olacaktır. Eğer, savaşırsa, strateji vektörüne göre, ileride hiçbir girişimi barındırmayacaktır ve girişimci hiçbir zaman piyasaya girmeyecektir, ki bu durumda, hakim firma sabit kazanç 6

akışı olarak 2 kazanacaktır ve bunun t+ deki bugünkü değeri 2/( δ) dır. Dolayısıyla, bu durumda, t den itibaren devam değeri +δ 2/( δ) olacaktır. Dolayısıyla, hakim firmanın sapma (ve girişimciyi barındırma) eğilimi yoktur ancak ve ancak ancak ve ancak, + δ 2/( δ) + δ/( δ) δ 2/3 Bu koşul sağlandığında, hakim firmanın bu tip geçmişlerde stratejisinden sapma eğilimi yoktur. Şimdi, eğer girişimci piyasaya girerse, hakim firma savaşacaktır ve girişimci gelecekte hiçbir zaman piyasaya girmeyecektir, ki bu durumda devam değeri olacaktır. Eğer piyasaya girmezse, devam değeri 0 olacaktır. Dolayısıyla, o da piyasaya girmek istemeyecektir. Tüm muhtemel geçmişlere baktığımızdan dolayı, tek-sapma prensibine dayanarak, bu strateji vektörü bir alt-oyun mükemmel dengesidir ancak ve ancak δ 2/3. Şimdi, tutuklular ikileminde işbirliğini, Cournot duopolisinde dolaylı kartel ve Gibbons daki diğer örnekleri çalışın. 7