EKONOMETRİ. GRETL Uygulamaları. Prof. Dr. Bülent Miran



Benzer belgeler
Data View ve Variable View

Excel dosyasından verileri aktarmak için Proc/Import/Read Text-Lotus-Excel menüsüne tıklanır.

TABLO I: Bağımlı değişken; Tüketim,- bağımsız değişkenler; gelir ve fiyat olmak üzere değişkenlere ait veriler verilmiştir.

3. BÖLÜM: EN KÜÇÜK KARELER

Bu örnekte kullanılan veri 200 gözleme sahiptir ve örnek için özel olarak oluşturulmuştur.

EVIEWS KULLANIMI (EVIEWS 8)

Koşullu Öngörümleme. Bu nedenle koşullu öngörümleme gerçekleştirilmelidir.

Normal Dağılımlılık. EKK tahmincilerinin ihtimal dağılımları u i nin ihtimal dağılımı hakkında yapılan varsayıma bağlıdır.

A. Regresyon Katsayılarında Yapısal Kırılma Testleri

Dependent Variable: Y Method: Least Squares Date: 03/23/11 Time: 16:51 Sample: Included observations: 20

İÇİNDEKİLER 1. GİRİŞ...

Normal Dağılımlılık. EKK tahmincilerinin ihtimal dağılımları u i nin ihtimal dağılımı hakkında yapılan varsayıma bağlıdır.

KUKLA DEĞİŞKENLİ MODELLER

BİRDEN ÇOK BAĞIMLI DEĞİŞKENİ OLAN MODELLER

Örnek. Aşağıdaki veri setlerindeki X ve Y veri çiftlerini kullanarak herbir durumda X=1,5 için Y nin hangi değerleri alacağını hesaplayınız.

Statistical Package for the Social Sciences

Meslek lisesi ve devlet lisesine giden N tane öğrenci olduğu ve bunların yıllık okul harcamalarına ait verilerin olduğu varsayılsın.

Ch. 12: Zaman Serisi Regresyonlarında Ardışık Bağıntı (Serial Correlation) ve Değişen Varyans

3.SUNUM. Yrd. Doç. Dr. Sedat Şen

Kukla Değişken Nedir?

ADMIT: Öğrencinin yüksek lisans programına kabul edilip edilmediğini göstermektedir. Eğer kabul edildi ise 1, edilmedi ise 0 değerini almaktadır.

4. BÖLÜM: REGRESYON ANALİZİNİ KULLANMAYI ÖĞRENME

Hipotezlerin test edilip onaylanması için çeşitli istatistiksel testler kullanılmaktadır. Fakat...

7. BÖLÜM: ARDIŞIK BAĞIMLILIK

İÇİNDEKİLER. BÖLÜM 1 Değişkenler ve Grafikler 1. BÖLÜM 2 Frekans Dağılımları 37

3. TAHMİN En Küçük Kareler (EKK) Yöntemi 1

0, model 3 doğruysa a3. Variable Coefficient Std. Error t-statistic Prob.

Yeni Adrese Tebligat Gönderim İşlemleri

8. BÖLÜM: DEĞİŞEN VARYANS

MODEL KURMA HATALARI ve VERİ SORUNLARI

BAĞIMLI KUKLA DEĞİŞKENLİ MODELLER A- KADININ İŞGÜCÜNE KATILIM MODELİ NİN DOM İLE E-VIEWS DA ÇÖZÜMÜ

TOBB Ekonomi ve Teknoloji Üniversitesi İKT351 Ekonometri I, Ara Sınavı

2. BÖLÜM: REGRESYON ANALİZİ

1. YAPISAL KIRILMA TESTLERİ

UYGULAMA 2 TABLO YAPIMI

Yeni İşyeri Aktarma. Örnek Excel dosyası aşağıdaki gibi olmalıdır.

H.Ü. Bilgi ve Belge Yönetimi Bölümü BBY 208 Sosyal Bilimlerde Araştırma Yöntemleri II (Bahar 2012) SPSS Ders Notları II (19 Nisan 2012)

ÜSTEL DÜZLEŞTİRME YÖNTEMİ


SPSS E GİRİŞ SPSS TE TEMEL İŞLEMLER. Abdullah Can

REGRESYON ANALİZİ VE UYGULAMA. Yrd. Doç. Dr. Hidayet Takcı

Mühendislikte Veri Tabanları Dersi Uygulamaları (ArcGIS-SQL)

KUKLA DEĞİŞKENLİ MODELLER. Kukla değişkenlerin diğer kantitatif değişkenlerle alındığı modeller (Kovaryans Analizi Modeller)

14 Ekim Ders Kitabı: Introductory Econometrics: A Modern Approach (2nd ed.) J. Wooldridge. 1 Yıldız Teknik Üniversitesi

9. BÖLÜM: MODEL KURMA: BAĞIMSIZ DEĞİŞKEN SEÇİMİ

EVIEWS KULLANIMI (EVIEWS 7.1)

YARI LOGARİTMİK MODELLERDE KUKLA DECİşKENLERİN KA TSA YıLARıNIN YORUMU

UYAP VERİ AKTARMA İŞLEMLERİ

Kullanıcı Giriş Ekranı

SPPS. Verileri Düzenleme ve Değiştirme 3 - Data Menüsü. Y. Doç. Dr. İbrahim Turan Nisan 2011

UYGULAMA 4 TANIMLAYICI İSTATİSTİK DEĞERLERİNİN HESAPLANMASI

NB Macro Kullanımı Hakkında Genel Bilgiler

DÖNEM İÇİ NOT GİRİŞİ KULLANMA KILAVUZU

1. Basitlik 2. Belirlenmişlik Y t = b 1 (1-r)+b 2 X t -rb 2 X t-1 +ry t-1 +e t 3. R 2 ölçüsü 4. Teorik tutarlılık 5. Doğru Fonksiyonel Biçim

10. BÖLÜM: MODEL KURMA: FONKSİYONEL FORM SEÇİMİ

Eviews ve Veri Girişi

Çalıştığı kurumun prestij kaynağı olup olmaması KIZ 2,85 ERKEK 4,18

İyi Bir Modelin Özellikleri

Bilgisayarlı Muhasebe 3. Hafta

KUKLA DEĞİŞKENLİ MODELLER

Bağımsız Örneklemler İçin Tek Faktörlü ANOVA

KONULAR. 14 Ekim Ders Kitabı: Introductory Econometrics: A Modern Approach (2nd ed.) J. Wooldridge. 1 Yıldız Teknik Üniversitesi

Barkod, Tebligat ve Tebliğ Masrafı Yönetimi

Açılan programın pencere görünümü aşağıdaki gibidir. 2. Araç Çubuğundan kaydet düğmesi ile

OTOKORELASYON OTOKORELASYON


İstatistik ve Olasılık

5.HAFTA. Yrd. Doç. Dr. Sedat ŞEN Harran Üniversitesi

BİLGİSAYAR PROGRAMLAMA. Yrd. Doç. Dr. Beytullah EREN

OPERATÖR SERVİSLERİ. Kullanıcı Kılavuzu

EŞANLI DENKLEM MODELLERİ

KUKLA DEĞİŞKENLİ MODELLERDE KANTİTATİF DEĞİŞKEN SAYISININ İKİ SINIF İÇİN FARKLI OLMASI DURUMU

19. BÖLÜM BİRBİRİYLE İLİŞKİLİ OLAN İKİ DEĞİŞKENDEN BİRİSİNDEKİ DEĞİŞİME GÖRE DİĞERİNİN ALACAĞI DEĞERİ YORDAMA (KESTİRME) UYGULAMA-I

T.C. TRAKYA ÜNİVERSİTESİ İKTİSADİ VE İDARİ BİLİMLER FAKÜLTESİ İKTİSAT BÖLÜMÜ GENEL EKONOMİK SORUNLAR TÜFE NİN İŞSİZLİK ÜZERİNE ETKİSİ HAZIRLAYANLAR:

TOBB Ekonomi ve Teknoloji Üniversitesi İKT352 Ekonometri II, Dönem Sonu Sınavı

BASİT REGRESYON MODELİ

Hukuk Parter ile SMS Yönetimi

LOGO PARTNER MEETING

Bağımlı Kukla Değişkenler

Kategorik Veri Analizi

Matris Cebiriyle Çoklu Regresyon Modeli

Uyapı Veri Aktarma İşlemleri

Basit ve Çoklu Doğrusal Regresyon

Teknik Resim Çıkartılması

Course Online. Güncelleme: Haziran 24, 2013

1. GİRİŞ Kılavuzun amacı. Bu bölümde;

2. REGRESYON ANALİZİNİN TEMEL KAVRAMLARI Tanım

Excel de çalışma alanı satır ve sütunlardan oluşur. Satırları rakamlar, sütunları ise harfler temsil eder. Excel çalışma sayfası üzerinde toplam

İşletme Fakültesi Bil. Kullanımı Ders notları 2

11. BÖLÜM: EŞANLI DENKLEM SİSTEMLERİ

İÇİNDEKİLER. Birim Modülü

NAZMİYE DEMİREL ORTAOKULU BİLİŞİM TEKNOLOJİLERİ DERSİ 1. DÖNEM 6. SINIFLAR DERS NOTU EXCEL 2007 DERS NOTLARI


LUCA BİLGİSAYARLI MUHASEBE PROGRAMI DERS NOTLARI

MS WORD 4.BÖLÜM. Bölüm Adı: NESNE EKLEME Bölümün Amacı: Belgeye nesne ekleme işlemlerini gerçekleştirmek.

NAMIK KEMAL ÜNİVERSİTESİ

LOJİSTİK REGRESYON ANALİZİ

ÖNGÖRÜ TEKNĐKLERĐ ÖDEV 5 (KEY)

Tekrarlı Ölçümler ANOVA

Transkript:

EKONOMETRİ GRETL Uygulamaları Prof. Dr. Bülent Miran Bornova-2015

İÇİNDEKİLER 1. Gretl da veri dosyasını çağırma:... 3 2. Gretl da Excel veri dosyasını açma:... 4 3. Excel den alınmış verilerin Gretl dosyası olarak saklanması:... 9 4. Gretl da EKK tahminlemesi:... 10 5. Menü yardımıyla bir değişkenin logaritmasının alınması:... 19 6. Yeni değişken tanımlama yoluyla bir değişkenin logaritmasının alınması:... 21 7. EKK Modelinin saklanması... 22 8. EKK modelleri ve verilerin Gretl oturumu olarak saklanması... 23 9. Gretl oturumunun açılması... 24 10. Adım adım EKK modellemesi:... 25 11. İhmal edilen değişken testi:... 26 12. Değişkenleri kategorilere ayırma:... 27 13. Gereksiz değişken belirleme:... 29 14. Ters fonksiyon tahminlemesi:... 32 15. Gretl ile Lin-log Tahmini... 33 16. Gretl ile Ters Fonksiyon Tahmini... 35 17. Gretl ile Log-log model tahmini:... 36 18. İkinci dereceden (kuadratik) fonksiyon tahminlemesi:... 37 19. Ramsey Reset testi... 41 20. Kukla değişken tanımlama:... 44 21. Otokorelasyon (Durbin Watson testi:... 50 22. Otokorelasyon testi (LM)... 52 23. Logit Model... 54 24. Trend modeli tahminleme... 55 Doğrusal trend denklemi:... 56 Kuadratik trend denklemi:... 60

1. Gretl da veri dosyasını çağırma: Open data/user file.. 1. Gretl veri dosyasının bulunduğu klasörü bul 2. Dosya tipi olarak Excel files (*.gdt) seç 3. Open düğmesine bas

2. Gretl da Excel veri dosyasını açma:

Open data/user file..

4. Excel dosyanın bulunduğu klasörü bul 5. Dosya tipi olarak Excel files (*.xlsx) seç 6. Open düğmesine bas 1 3 2

Çalışmak istediğiniz Excel dosyanın üzerine çift tıklayın:

Eğer yatay kesit verisi ise: Excel deki verileriniz Gretl a aktarıldığında aşağıdaki ekran görüntüsü elde edilir: Eğer zaman serisi ise:

1996-2015 yılları arasındaki veriler 3. Excel den alınmış verilerin Gretl dosyası olarak saklanması:

4. Gretl da EKK tahminlemesi:

Bağımlı değişkenin (dependent variable) seçilmesi: 1 2

Bağımsız değişken(ler)in (Regressors) seçilmesi: 1 2 3

Gözlem aralığı (1-20) Bağımlı değişken: Talep Tahminci (Katsayı) St Hata t istatistiği p değeri Sabit * α=0.10 için önemli ** α=0.05 için önemli *** α=0.01 için önemli Bağımlı değişken ortalaması 12.90300 Bağımlı değişken st sapması. 6.743453 Hata kareleri toplamı 616.6878 Regresyon st hatası 5.853241 R-kare 0.286248 Düzeltilmiş R-kare 0.246596 F(1, 18) 7.218860 P-değeri (F) 0,015068 Log-olabilirlik 62.66508 Akaike ölçütü a 129.3302 Schwarz ölçütü a 131.3216 Hannan-Quinn a 129.7189 aschwarz ölçütü, Akaike ölçütü ve Hannan-Quinn değerleri ne kadar küçükse, model o kadar iyidir.

p-değeri < 0.10 veya p-değeri < 0.05 veya p-değeri < 0.01 ise H 0 hipotezi reddedilir (Tahminci veya katsayı istatistiki açıdan anlamlıdır). p-değeri < 0.10 veya p-değeri < 0.05 veya p-değeri < 0.01 ise H 0 hipotezi reddedilir (Model istatistiki açıdan anlamlıdır).

Gerçek (actual), tahmin (fitted) ve hata (residual) değerlerinin gösterilmesi:

İstatistik (İngilizce) İstatistik (Türkçe) Anlamı Mean Error Ortalama hata Sıfır olmalı Mean Squared Error Ortalama hata kareleri Ne kadar küçükse o kadar iyi Root Mean Squared Error Ortalama hata kareleri kökü Ne kadar küçükse o kadar iyi Mean Absolute Error Ortalama mutlak hata Ne kadar küçükse o kadar iyi Mean Percentage Error Ortalama yüzde hata Ne kadar küçükse o kadar iyi Mean Absolute Percentage Error Ortalama yüzde mutlak hata Ne kadar küçükse o kadar iyi Theil U nun yorumu Theil s U Yorum 1 den küçükse Regresyon analizi, rastgele konuşmaktan daha iyidir 1 Regresyon analizi, rastgele konuşmakla aynıdır More than 1 Rastgele konuşmak, regresyon analizinden daha iyidir Tahmin değerlerinin değişken olarak elde edilmesi: Hata değerlerinin değişken olarak elde edilmesi:

5. Menü yardımıyla bir değişkenin logaritmasının alınması:

6. Yeni değişken tanımlama yoluyla bir değişkenin logaritmasının alınması:

7. EKK Modelinin saklanması Tahmin edilen EKK modeli, daha sonra ulaşmak üzere saklanabilir. Bunun için File/Save as icon and close menüsünden yararlanılabilir. Tahmin edilen modellerin her birini bu şekilde saklayıp, daha sonra session icon view i tıklayarak ulaşmak mümkündür. Tahmin ettiğimiz EKK modeli, Model 2 (tahmin edilen model numarası) olarak saklanmıştır. Tıklandığında sakladığınız EKK modelini tekrar sunacaktır.

8. EKK modelleri ve verilerin Gretl oturumu olarak saklanması Gretl da üzerinde çalıştığınız verileri ve modelleri saklayıp daha sonra kullanabilirsiniz. Oturum saklandığında hem veriler hem de modeller saklanacağından ayrıca verileri saklamaya ihtiyaç duyulmaz.

9. Gretl oturumunun açılması

10. Adım adım EKK modellemesi: Başlangıç modelimizin EKK tahmini:

11. İhmal edilen değişken testi: İhmal edilen değişken testi, Tests/Add variables menüsünden yapılır. İhmal edilen değişkenimizi işaretleyip Add -> düğmesini tıklayarak seçelim. İhmal edilen değişkenin EKK tahminindeki katsayısı istatistiki açıdan anlamlıdır. Başlangıç modeli (Model 1) ve gelir değişkeninin eklendiği Model 2 karşılaştırması, F testi ile yapılmaktadır. Sıfır hipotezi, eklenen değişken(ler)in katsayı(sı/ları)nın sıfır olduğunu kabul eder. Örneğimizde üç model seçim kriterinden üçü iyileşmiştir mesajıylala birlikte, F testi, sıfır hipotezini reddetmektedir. O halde Gelir ihmal edilen değişkendir. Bir başka ifadeyle, Gelir mutlaka modelde yer almalıdır.

12. Değişkenleri kategorilere ayırma: Gelir değişkeni bazen kategorik olarak modele girebilir. Özellikle bağımlı değişkenin gelir kategorilerine göre değişimi incelemek gerektiğinde, gelir değişkeni belli kıstaslar kullanılarak kategorize edilebilir. Biz burada gelir kategorilerinin daha önceden belirlendiğini varsayacağız. Buna göre gelir 0 ile 1000 arasında ise 1. kategori, 1001 ile 1500 arasında ise 2. kategori, 1500 den büyükse 3. kategori olarak tanımlanmış olsun. Gretl bu işlemi basit bir komutla gerçekleştirebilir. Bunun için önce Add/Define new variable seçeği tıklanır:

Ardından gelir kategorisi değişkenini temsil eden gelkat değişkeni aşağıdaki formülle tanımlanır: gelkat = (gelir>=0) + (gelir >= 1001) + (gelir >= 1501) Kategori 1 Kategori 2 Kategori 3

13. Gereksiz değişken belirleme:

EKK tahminimiz SEF değişkeninin gereksiz olduğunu doğrulamaktadır. SEF değişkeninin gereksiz olup olmadığı Tests/Omit variables menüsünden test edilir.

SEF değişkeni gereksiz değişken olarak seçilir. Başlangıç modeli (Model 1) ve SEF değişkeninin çıkarıldığı Model 2 karşılaştırması, F testi ile yapılmaktadır. Sıfır hipotezi, çıkarılan değişken(ler)in katsayı(sı/ları)nın sıfır olduğunu kabul eder. Örneğimizde üç model seçim kriterinden üçü iyileşmiştir mesajıylala birlikte, F testi, sıfır hipotezini reddetmemektedir. O halde SEF sıfırdır; yani gereksiz değişkendir. Bir başka ifadeyle, SEF modelden çıkarılmalıdır.

14. Ters fonksiyon tahminlemesi: Açılan metin kutusuna aşağıdaki formül yazılır:

XT1= 1 / X XT1, X değişkeninin çarpmaya göre tersini temsil eden değişkendir. Son duruma göre Gretl değişken listemize XT1 değişkenini eklemiş olduk: 15. Gretl ile Lin-log Tahmini Lin-log fonksiyonu Gretl yardımıyla tahmin etmek için X değişkeninin logaritmasını almamız gerekir. Bunun için, X değişkeni işaretliylen Add menüsü açılır ve Logs of selected variables seçeneği tıklanır.

Bu işlemde, X değişkeninin e tabanına göre logaritması alınır ve l_x değişkenine atanır.

Elde edilen l_x değişkeni lin-log modelin tahmin edilmesi sırasında bağımsız değişken olarak kullanılır. 16. Gretl ile Ters Fonksiyon Tahmini Log-lin fonksiyonu Gretl yardımıyla tahmin edebilmek için bu kez Y değişkeninin logaritmasını almamız gerekir. Bunun için, Y değişkeni işaretliyken Add menüsü açılır ve Logs of selected variables seçeneği tıklanır. Bu işlemde, Y değişkeninin e tabanına göre logaritması alınır ve l_y değişkenine atanır.

17. Gretl ile Log-log model tahmini: Log-log fonksiyonu Gretl yardımıyla tahmin edebilmek için bu kez hem Y hem de X değişkeninin logaritmasını almamız gerekir. Bunun için, Y ve X değişkenleri aynı anda işaretliyken Add menüsü açılır ve Logs of selected variables seçeneği tıklanır. Bu işlemde, gerek Y gerekse X değişkeninin e tabanına göre logaritması alınır ve sırasıyla l_y ve l_x değişkenlerine atanır.

18. İkinci dereceden (kuadratik) fonksiyon tahminlemesi: Tüm bunları Gretl yardımıyla yapmamız mümkündür. Değişkenlerimiz sadece y ve x tir. x'in karesini menü yardımıyla yapabiliriz:

x'in küpünü Define new variable yardımıyla alabiliriz:

Önce kuadratik fonksiyonu tahmin edelim:

Üçüncü dereceden (kübik) fonksiyon tahminlemesi Şimdi de kübik fonksiyonu tahmin edelim:

19. Ramsey Reset testi Model değişkenlerimiz sadece Y ve X tir. Bağımlı değişken olarak Y yi bağımsız değişken olarak X i atıyoruz.

Doğrusal modelimizin EKK tahmin sonuçları: Ramsey RESET testi için, Tests/Ramsey s RESET menü dizisini kullanmamız gerekiyor.

Ramsey RESET testi; kareli ve küplü (squares and cubes), sadece kareli terim (squares only), sadece küplü terim (cubes only) ve tüm kombinasyonlar (all variants) seçenekleri için yapılabilir. Biz şimdi sadece kareli terimi seçeceğiz: Sıfır hipotezi, kareli terimin sıfır olduğunu, yani kareli terimin modele dahil edilmemesi gerektiğini savunur. Buna göre F testi, sıfır hipotezinin reddedilmesini önerir. Bir başkka ifadeyle, kareli terim modele dahil edilmelidir. Şimdi de kareli ve küplü terimlerin birlikte modele alınması durumunu test edeceğiz.

Sıfır hiptezi, kareli ve küplü terimin her ikisinin birden sıfır olduğunu savunur. F testi, sıfır hipotezinin reddedilmesini önerir. O halde, ikinci ve üçüncü dereceden terimlerden en az birinin modele alınması gerekmektedir. Örneğimizde her ikisinin birden modele alınması gerektiğini, yhat^2 ve yhat^3 terimlerinin istatistiki açıdan anlamlı olmasından anlıyoruz. 20. Kukla değişken tanımlama: Gretl daki işlem süreci, Add/Define new variable ile başlar:

Amacımız gelirin 1035.1 e eşit veya daha büyük olduğu durum için 1, daha küçük olduğu durum için 0 olarak temsil edildiği kukla değişkeni hazırlamaksa: gelkuk = gelir>=1035.1 şeklinde tanımlamamız gerekir: Bu tanımlamadaki gelir>=1035.1 mantıksal bir ifadedir; o nedenle, ifade doğru ise 1, yanlış ise 1 sonucu ortaya çıkacaktır: Eğer elimizdeki veri setinde kategorik değişken varsa, Gretl her kategori için bir kukla değişken tanımı yapabilir. Örneğin daha once gelir değişkenini; 0 ile 1000 arasında ise 1. kategori, 1001 ile 1500 arasında ise 2. kategori, 1500 den büyükse 3. kategori olarak tanımlamış ve bu değişkene gelkat adını vermiştik.

İzleyen adımda, Gretl ın gelkat değişkenini kesikli değişken olarak tanımasını sağlamamız gerekiyor. Bunun için, gelkat değişkeni üzerindeyden sağ kliği tıkladığımızda açılan menüden Edit attributes seçeneğini tıklamalıyız: Sağ klik Aşağıda görülen Edit attributes ekranında Treat this variable as discrete seçeneğine onay işareti koyup, OK düğmesine basmamız gerekiyor.

Artık gelkat değişkeninden kukla değişkenler elde etmeye hazırız. gelkat değişkeni işaretli iken Add/Dummies for selected variables menü dizisi izlenir. Bunun üzerine karşımıza: çıkacaktır. Encode all values seçeneğini işaretleyip OK düğmesine basarsak, 3 farklı gelir kategorisinin herbiri için birer kukla değişken hazırlanacak ve bu değişkenlere sırasıyla Dgelkat_1, Dgelkat_2 ve Dgelkat_3 adları verilecektir.

Skip the lowest value seçeneğini işaretleyip OK düğmesine basarsak, ilk kategori hariç diğer 2 gelir kategorisinin herbiri için birer kukla değişken hazırlanacak ve bu değişkenlere sırasıyla Dgelkat_2 ve Dgelkat_3 adları verilecektir. Skip the highest value seçeneğini işaretleyip OK düğmesine basarsak, son kategori hariç diğer 2 gelir kategorisinin herbiri için birer kukla değişken hazırlanacak ve bu değişkenlere sırasıyla Dgelkat_1 ve Dgelkat_2 adları verilecektir..

Farklı varyans (White testi)

21. Otokorelasyon (Durbin Watson testi:

22. Otokorelasyon testi (LM)

23. Logit Model

24. Trend modeli tahminleme Önce trend değişkenini oluşturalım: Trend değişkeni, time adıyla değişken listesine kaydedilmiş olmalıdır:

Doğrusal trend denklemi: Y t =b o +b ı t

Şimdi 1992-2001 yılları arasındaki veri setimizi, 2005 yılına kadar genişletelim:

Kuadratik trend denklemi: Y t =b o +b ı t+b 2 t 2 Önce trend değişkeninin karesini alalım:

Kuadratik trend denklemini tahmin edelim:

t Tablosu Sd Tek Yanlı 0.40 0.25 0.10 0.05 0.025 0.01 0.005 0.0005 Çift Yanlı 0.80 0.50 0.20 0.10 0.05 0.02 0.01 0.001 1 0.324920 1.000000 3.077684 6.313752 12.70620 31.82052 63.65674 636.6192 2 0.288675 0.816497 1.885618 2.919986 4.30265 6.96456 9.92484 31.5991 3 0.276671 0.764892 1.637744 2.353363 3.18245 4.54070 5.84091 12.9240 4 0.270722 0.740697 1.533206 2.131847 2.77645 3.74695 4.60409 8.6103 5 0.267181 0.726687 1.475884 2.015048 2.57058 3.36493 4.03214 6.8688 6 0.264835 0.717558 1.439756 1.943180 2.44691 3.14267 3.70743 5.9588 7 0.263167 0.711142 1.414924 1.894579 2.36462 2.99795 3.49948 5.4079 8 0.261921 0.706387 1.396815 1.859548 2.30600 2.89646 3.35539 5.0413 9 0.260955 0.702722 1.383029 1.833113 2.26216 2.82144 3.24984 4.7809 10 0.260185 0.699812 1.372184 1.812461 2.22814 2.76377 3.16927 4.5869 11 0.259556 0.697445 1.363430 1.795885 2.20099 2.71808 3.10581 4.4370 12 0.259033 0.695483 1.356217 1.782288 2.17881 2.68100 3.05454 4.3178 13 0.258591 0.693829 1.350171 1.770933 2.16037 2.65031 3.01228 4.2208 14 0.258213 0.692417 1.345030 1.761310 2.14479 2.62449 2.97684 4.1405 15 0.257885 0.691197 1.340606 1.753050 2.13145 2.60248 2.94671 4.0728 16 0.257599 0.690132 1.336757 1.745884 2.11991 2.58349 2.92078 4.0150 17 0.257347 0.689195 1.333379 1.739607 2.10982 2.56693 2.89823 3.9651 18 0.257123 0.688364 1.330391 1.734064 2.10092 2.55238 2.87844 3.9216 19 0.256923 0.687621 1.327728 1.729133 2.09302 2.53948 2.86093 3.8834 20 0.256743 0.686954 1.325341 1.724718 2.08596 2.52798 2.84534 3.8495 21 0.256580 0.686352 1.323188 1.720743 2.07961 2.51765 2.83136 3.8193 22 0.256432 0.685805 1.321237 1.717144 2.07387 2.50832 2.81876 3.7921 23 0.256297 0.685306 1.319460 1.713872 2.06866 2.49987 2.80734 3.7676 24 0.256173 0.684850 1.317836 1.710882 2.06390 2.49216 2.79694 3.7454 25 0.256060 0.684430 1.316345 1.708141 2.05954 2.48511 2.78744 3.7251 26 0.255955 0.684043 1.314972 1.705618 2.05553 2.47863 2.77871 3.7066 27 0.255858 0.683685 1.313703 1.703288 2.05183 2.47266 2.77068 3.6896 28 0.255768 0.683353 1.312527 1.701131 2.04841 2.46714 2.76326 3.6739 29 0.255684 0.683044 1.311434 1.699127 2.04523 2.46202 2.75639 3.6594 30 0.255605 0.682756 1.310415 1.697261 2.04227 2.45726 2.75000 3.6460 0.253347 0.674490 1.281552 1.644854 1.95996 2.32635 2.57583 3.2905

Ki Kare Tablosu Sd\ 0.995 0.99 0.975 0.95 0.9 0.75 0.5 0.25 0.1 0.05 0.025 0.01 0.005 1 0.00004 0.00016 0.00098 0.00393 0.01579 0.10153 0.45494 1.3233 2.70554 3.84146 5.02389 6.6349 7.87944 2 0.01003 0.0201 0.05064 0.10259 0.21072 0.57536 1.38629 2.77259 4.60517 5.99146 7.37776 9.21034 10.59663 3 0.07172 0.11483 0.2158 0.35185 0.58437 1.21253 2.36597 4.10834 6.25139 7.81473 9.3484 11.34487 12.83816 4 0.20699 0.29711 0.48442 0.71072 1.06362 1.92256 3.35669 5.38527 7.77944 9.48773 11.14329 13.2767 14.86026 5 0.41174 0.5543 0.83121 1.14548 1.61031 2.6746 4.35146 6.62568 9.23636 11.0705 12.8325 15.08627 16.7496 6 0.67573 0.87209 1.23734 1.63538 2.20413 3.4546 5.34812 7.8408 10.64464 12.59159 14.44938 16.81189 18.54758 7 0.98926 1.23904 1.68987 2.16735 2.83311 4.25485 6.34581 9.03715 12.01704 14.06714 16.01276 18.47531 20.27774 8 1.34441 1.6465 2.17973 2.73264 3.48954 5.07064 7.34412 10.21885 13.36157 15.50731 17.53455 20.09024 21.95495 9 1.73493 2.0879 2.70039 3.32511 4.16816 5.89883 8.34283 11.38875 14.68366 16.91898 19.02277 21.66599 23.58935 10 2.15586 2.55821 3.24697 3.9403 4.86518 6.7372 9.34182 12.54886 15.98718 18.30704 20.48318 23.20925 25.18818 11 2.60322 3.05348 3.81575 4.57481 5.57778 7.58414 10.341 13.70069 17.27501 19.67514 21.92005 24.72497 26.75685 12 3.07382 3.57057 4.40379 5.22603 6.3038 8.43842 11.34032 14.8454 18.54935 21.02607 23.33666 26.21697 28.29952 13 3.56503 4.10692 5.00875 5.89186 7.0415 9.29907 12.33976 15.98391 19.81193 22.36203 24.7356 27.68825 29.81947 14 4.07467 4.66043 5.62873 6.57063 7.78953 10.16531 13.33927 17.11693 21.06414 23.68479 26.11895 29.14124 31.31935 15 4.60092 5.22935 6.26214 7.26094 8.54676 11.03654 14.33886 18.24509 22.30713 24.99579 27.48839 30.57791 32.80132 16 5.14221 5.81221 6.90766 7.96165 9.31224 11.91222 15.3385 19.36886 23.54183 26.29623 28.84535 31.99993 34.26719 17 5.69722 6.40776 7.56419 8.67176 10.08519 12.79193 16.33818 20.48868 24.76904 27.58711 30.19101 33.40866 35.71847 18 6.2648 7.01491 8.23075 9.39046 10.86494 13.67529 17.3379 21.60489 25.98942 28.8693 31.52638 34.80531 37.15645 19 6.84397 7.63273 8.90652 10.11701 11.65091 14.562 18.33765 22.71781 27.20357 30.14353 32.85233 36.19087 38.58226 20 7.43384 8.2604 9.59078 10.85081 12.44261 15.45177 19.33743 23.82769 28.41198 31.41043 34.16961 37.56623 39.99685 21 8.03365 8.8972 10.2829 11.59131 13.2396 16.34438 20.33723 24.93478 29.61509 32.67057 35.47888 38.93217 41.40106 22 8.64272 9.54249 10.98232 12.33801 14.04149 17.23962 21.33704 26.03927 30.81328 33.92444 36.78071 40.28936 42.79565 23 9.26042 10.19572 11.68855 13.09051 14.84796 18.1373 22.33688 27.14134 32.0069 35.17246 38.07563 41.6384 44.18128 24 9.88623 10.85636 12.40115 13.84843 15.65868 19.03725 23.33673 28.24115 33.19624 36.41503 39.36408 42.97982 45.55851 25 10.51965 11.52398 13.11972 14.61141 16.47341 19.93934 24.33659 29.33885 34.38159 37.65248 40.64647 44.3141 46.92789 26 11.16024 12.19815 13.8439 15.37916 17.29188 20.84343 25.33646 30.43457 35.56317 38.88514 41.92317 45.64168 48.28988 27 11.80759 12.8785 14.57338 16.1514 18.1139 21.7494 26.33634 31.52841 36.74122 40.11327 43.19451 46.96294 49.64492 28 12.46134 13.56471 15.30786 16.92788 18.93924 22.65716 27.33623 32.62049 37.91592 41.33714 44.46079 48.27824 50.99338 29 13.12115 14.25645 16.04707 17.70837 19.76774 23.56659 28.33613 33.71091 39.08747 42.55697 45.72229 49.58788 52.33562 30 13.78672 14.95346 16.79077 18.49266 20.59923 24.47761 29.33603 34.79974 40.25602 43.77297 46.97924 50.89218 53.67196

F Tablosu =0.10 v 1 v 2 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 1 39.86 49.5 53.59 55.83 57.24 58.2 58.91 59.44 59.86 60.19 60.71 61.22 61.74 62 62.26 62.53 62.79 63.06 63.33 2 8.53 9 9.16 9.24 9.29 9.33 9.35 9.37 9.38 9.39 9.41 9.42 9.44 9.45 9.46 9.47 9.47 9.48 9.49 3 5.54 5.46 5.39 5.34 5.31 5.28 5.27 5.25 5.24 5.23 5.22 5.2 5.18 5.18 5.17 5.16 5.15 5.14 5.13 4 4.54 4.32 4.19 4.11 4.05 4.01 3.98 3.95 3.94 3.92 3.9 3.87 3.84 3.83 3.82 3.8 3.79 3.78 3.76 5 4.06 3.78 3.62 3.52 3.45 3.4 3.37 3.34 3.32 3.3 3.27 3.24 3.21 3.19 3.17 3.16 3.14 3.12 3.11 6 3.78 3.46 3.29 3.18 3.11 3.05 3.01 2.98 2.96 2.94 2.9 2.87 2.84 2.82 2.8 2.78 2.76 2.74 2.72 7 3.59 3.26 3.07 2.96 2.88 2.83 2.78 2.75 2.72 2.7 2.67 2.63 2.59 2.58 2.56 2.54 2.51 2.49 2.47 8 3.46 3.11 2.92 2.81 2.73 2.67 2.62 2.59 2.56 2.54 2.5 2.46 2.42 2.4 2.38 2.36 2.34 2.32 2.29 9 3.36 3.01 2.81 2.69 2.61 2.55 2.51 2.47 2.44 2.42 2.38 2.34 2.3 2.28 2.25 2.23 2.21 2.18 2.16 10 3.29 2.92 2.73 2.61 2.52 2.46 2.41 2.38 2.35 2.32 2.28 2.24 2.2 2.18 2.16 2.13 2.11 2.08 2.06 11 3.23 2.86 2.66 2.54 2.45 2.39 2.34 2.3 2.27 2.25 2.21 2.17 2.12 2.1 2.08 2.05 2.03 2 1.97 12 3.18 2.81 2.61 2.48 2.39 2.33 2.28 2.24 2.21 2.19 2.15 2.1 2.06 2.04 2.01 1.99 1.96 1.93 1.9 13 3.14 2.76 2.56 2.43 2.35 2.28 2.23 2.2 2.16 2.14 2.1 2.05 2.01 1.98 1.96 1.93 1.9 1.88 1.85 14 3.1 2.73 2.52 2.39 2.31 2.24 2.19 2.15 2.12 2.1 2.05 2.01 1.96 1.94 1.91 1.89 1.86 1.83 1.8 15 3.07 2.7 2.49 2.36 2.27 2.21 2.16 2.12 2.09 2.06 2.02 1.97 1.92 1.9 1.87 1.85 1.82 1.79 1.76 16 3.05 2.67 2.46 2.33 2.24 2.18 2.13 2.09 2.06 2.03 1.99 1.94 1.89 1.87 1.84 1.81 1.78 1.75 1.72 17 3.03 2.64 2.44 2.31 2.22 2.15 2.1 2.06 2.03 2 1.96 1.91 1.86 1.84 1.81 1.78 1.75 1.72 1.69 18 3.01 2.62 2.42 2.29 2.2 2.13 2.08 2.04 2 1.98 1.93 1.89 1.84 1.81 1.78 1.75 1.72 1.69 1.66 19 2.99 2.61 2.4 2.27 2.18 2.11 2.06 2.02 1.98 1.96 1.91 1.86 1.81 1.79 1.76 1.73 1.7 1.67 1.63 20 2.97 2.59 2.38 2.25 2.16 2.09 2.04 2 1.96 1.94 1.89 1.84 1.79 1.77 1.74 1.71 1.68 1.64 1.61 21 2.96 2.57 2.36 2.23 2.14 2.08 2.02 1.98 1.95 1.92 1.87 1.83 1.78 1.75 1.72 1.69 1.66 1.62 1.59 22 2.95 2.56 2.35 2.22 2.13 2.06 2.01 1.97 1.93 1.9 1.86 1.81 1.76 1.73 1.7 1.67 1.64 1.6 1.57 23 2.94 2.55 2.34 2.21 2.11 2.05 1.99 1.95 1.92 1.89 1.84 1.8 1.74 1.72 1.69 1.66 1.62 1.59 1.55 24 2.93 2.54 2.33 2.19 2.1 2.04 1.98 1.94 1.91 1.88 1.83 1.78 1.73 1.7 1.67 1.64 1.61 1.57 1.53 25 2.92 2.53 2.32 2.18 2.09 2.02 1.97 1.93 1.89 1.87 1.82 1.77 1.72 1.69 1.66 1.63 1.59 1.56 1.52 26 2.91 2.52 2.31 2.17 2.08 2.01 1.96 1.92 1.88 1.86 1.81 1.76 1.71 1.68 1.65 1.61 1.58 1.54 1.5 27 2.9 2.51 2.3 2.17 2.07 2 1.95 1.91 1.87 1.85 1.8 1.75 1.7 1.67 1.64 1.6 1.57 1.53 1.49 28 2.89 2.5 2.29 2.16 2.06 2 1.94 1.9 1.87 1.84 1.79 1.74 1.69 1.66 1.63 1.59 1.56 1.52 1.48 29 2.89 2.5 2.28 2.15 2.06 1.99 1.93 1.89 1.86 1.83 1.78 1.73 1.68 1.65 1.62 1.58 1.55 1.51 1.47 30 2.88 2.49 2.28 2.14 2.05 1.98 1.93 1.88 1.85 1.82 1.77 1.72 1.67 1.64 1.61 1.57 1.54 1.5 1.46 40 2.84 2.44 2.23 2.09 2 1.93 1.87 1.83 1.79 1.76 1.71 1.66 1.61 1.57 1.54 1.51 1.47 1.42 1.38 60 2.79 2.39 2.18 2.04 1.95 1.87 1.82 1.77 1.74 1.71 1.66 1.6 1.54 1.51 1.48 1.44 1.4 1.35 1.29 120 2.75 2.35 2.13 1.99 1.9 1.82 1.77 1.72 1.68 1.65 1.6 1.55 1.48 1.45 1.41 1.37 1.32 1.26 1.19 2.71 2.3 2.08 1.94 1.85 1.77 1.72 1.67 1.63 1.6 1.55 1.49 1.42 1.38 1.34 1.3 1.24 1.17 1

=0.05 için F Tablosu v 1 v 2 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 1 161 199 215 224 230 234 236 239 240 241 243 245 248 249 250 251 252 253 254 2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4 19.41 19.43 19.45 19.45 19.46 19.47 19.48 19.49 19.5 3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79 8.74 8.7 8.66 8.64 8.62 8.59 8.57 8.55 8.53 4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96 5.91 5.86 5.8 5.77 5.75 5.72 5.69 5.66 5.63 5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74 4.68 4.62 4.56 4.53 4.5 4.46 4.43 4.4 4.37 6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06 4 3.94 3.87 3.84 3.81 3.77 3.74 3.7 3.67 7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64 3.57 3.51 3.44 3.41 3.38 3.34 3.3 3.27 3.23 8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35 3.28 3.22 3.15 3.12 3.08 3.04 3.01 2.97 2.93 9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14 3.07 3.01 2.94 2.9 2.86 2.83 2.79 2.75 2.71 10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98 2.91 2.85 2.77 2.74 2.7 2.66 2.62 2.58 2.54 11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85 2.79 2.72 2.65 2.61 2.57 2.53 2.49 2.45 2.4 12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75 2.69 2.62 2.54 2.51 2.47 2.43 2.38 2.34 2.3 13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67 2.6 2.53 2.46 2.42 2.38 2.34 2.3 2.25 2.21 14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6 2.53 2.46 2.39 2.35 2.31 2.27 2.22 2.18 2.13 15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54 2.48 2.4 2.33 2.29 2.25 2.2 2.16 2.11 2.07 16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49 2.42 2.35 2.28 2.24 2.19 2.15 2.11 2.06 2.01 17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45 2.38 2.31 2.23 2.19 2.15 2.1 2.06 2.01 1.96 18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41 2.34 2.27 2.19 2.15 2.11 2.06 2.02 1.97 1.92 19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38 2.31 2.23 2.16 2.11 2.07 2.03 1.98 1.93 1.88 20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35 2.28 2.2 2.12 2.08 2.04 1.99 1.95 1.9 1.84 21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32 2.25 2.18 2.1 2.05 2.01 1.96 1.92 1.87 1.81 22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3 2.23 2.15 2.07 2.03 1.98 1.94 1.89 1.84 1.78 23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27 2.2 2.13 2.05 2.01 1.96 1.91 1.86 1.81 1.76 24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25 2.18 2.11 2.03 1.98 1.94 1.89 1.84 1.79 1.73 25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24 2.16 2.09 2.01 1.96 1.92 1.87 1.82 1.77 1.71 26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22 2.15 2.07 1.99 1.95 1.9 1.85 1.8 1.75 1.69 27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2 2.13 2.06 1.97 1.93 1.88 1.84 1.79 1.73 1.67 28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19 2.12 2.04 1.96 1.91 1.87 1.82 1.77 1.71 1.65 29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18 2.1 2.03 1.94 1.9 1.85 1.81 1.75 1.7 1.64 30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16 2.09 2.01 1.93 1.89 1.84 1.79 1.74 1.68 1.62 40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08 2 1.92 1.84 1.79 1.74 1.69 1.64 1.58 1.51 60 4 3.15 2.76 2.53 2.37 2.25 2.17 2.1 2.04 1.99 1.92 1.84 1.75 1.7 1.65 1.59 1.53 1.47 1.39 120 3.92 3.07 2.68 2.45 2.29 2.18 2.09 2.02 1.96 1.91 1.83 1.75 1.66 1.61 1.55 1.5 1.43 1.35 1.25 3.84 3 2.6 2.37 2.21 2.1 2.01 1.94 1.88 1.83 1.75 1.67 1.57 1.52 1.46 1.39 1.32 1.22 1

=0.01 için F Tablosu v 2/v 1 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 1 4052 5000 5403 5625 5764 5859 5928 5981 6022 6056 6106 6157 6209 6235 6261 6287 6313 6339 6366 2 98.5 99.0 99.2 99.2 99.3 99.3 99.4 99.4 99.4 99.4 99.4 99.4 99.4 99.5 99.5 99.5 99.5 99.5 99.5 3 34.1 30.8 29.5 28.7 28.2 27.9 27.7 27.5 27.3 27.2 27.1 26.9 26.7 26.6 26.5 26.4 26.3 26.2 26.1 4 21.2 18.0 16.7 16.0 15.5 15.2 15.0 14.8 14.7 14.5 14.4 14.2 14.0 13.9 13.8 13.7 13.7 13.6 13.5 5 16.3 13.3 12.1 11.4 11.0 10.7 10.5 10.3 10.2 10.1 9.9 9.7 9.6 9.5 9.4 9.3 9.2 9.1 9.0 6 13.7 10.9 9.8 9.1 8.7 8.5 8.3 8.1 8.0 7.9 7.7 7.6 7.4 7.3 7.2 7.1 7.1 7.0 6.9 7 12.2 9.5 8.5 7.8 7.5 7.2 7.0 6.8 6.7 6.6 6.5 6.3 6.2 6.1 6.0 5.9 5.8 5.7 5.7 8 11.3 8.6 7.6 7.0 6.6 6.4 6.2 6.0 5.9 5.8 5.7 5.5 5.4 5.3 5.2 5.1 5.0 4.9 4.9 9 10.6 8.0 7.0 6.4 6.1 5.8 5.6 5.5 5.4 5.3 5.1 5.0 4.8 4.7 4.6 4.6 4.5 4.4 4.3 10 10.0 7.6 6.6 6.0 5.6 5.4 5.2 5.1 4.9 4.8 4.7 4.6 4.4 4.3 4.2 4.2 4.1 4.0 3.9 11 9.6 7.2 6.2 5.7 5.3 5.1 4.9 4.7 4.6 4.5 4.4 4.3 4.1 4.0 3.9 3.9 3.8 3.7 3.6 12 9.3 6.9 6.0 5.4 5.1 4.8 4.6 4.5 4.4 4.3 4.2 4.0 3.9 3.8 3.7 3.6 3.5 3.4 3.4 13 9.1 6.7 5.7 5.2 4.9 4.6 4.4 4.3 4.2 4.1 4.0 3.8 3.7 3.6 3.5 3.4 3.3 3.3 3.2 14 8.9 6.5 5.6 5.0 4.7 4.5 4.3 4.1 4.0 3.9 3.8 3.7 3.5 3.4 3.3 3.3 3.2 3.1 3.0 15 8.7 6.4 5.4 4.9 4.6 4.3 4.1 4.0 3.9 3.8 3.7 3.5 3.4 3.3 3.2 3.1 3.0 3.0 2.9 16 8.5 6.2 5.3 4.8 4.4 4.2 4.0 3.9 3.8 3.7 3.6 3.4 3.3 3.2 3.1 3.0 2.9 2.8 2.8 17 8.4 6.1 5.2 4.7 4.3 4.1 3.9 3.8 3.7 3.6 3.5 3.3 3.2 3.1 3.0 2.9 2.8 2.7 2.7 18 8.3 6.0 5.1 4.6 4.2 4.0 3.8 3.7 3.6 3.5 3.4 3.2 3.1 3.0 2.9 2.8 2.7 2.7 2.6 19 8.2 5.9 5.0 4.5 4.2 3.9 3.8 3.6 3.5 3.4 3.3 3.2 3.0 2.9 2.8 2.8 2.7 2.6 2.5 20 8.1 5.8 4.9 4.4 4.1 3.9 3.7 3.6 3.5 3.4 3.2 3.1 2.9 2.9 2.8 2.7 2.6 2.5 2.4 21 8.0 5.8 4.9 4.4 4.0 3.8 3.6 3.5 3.4 3.3 3.2 3.0 2.9 2.8 2.7 2.6 2.5 2.5 2.4 22 7.9 5.7 4.8 4.3 4.0 3.8 3.6 3.5 3.3 3.3 3.1 3.0 2.8 2.7 2.7 2.6 2.5 2.4 2.3 23 7.9 5.7 4.8 4.3 3.9 3.7 3.5 3.4 3.3 3.2 3.1 2.9 2.8 2.7 2.6 2.5 2.4 2.4 2.3 24 7.8 5.6 4.7 4.2 3.9 3.7 3.5 3.4 3.3 3.2 3.0 2.9 2.7 2.7 2.6 2.5 2.4 2.3 2.2 25 7.8 5.6 4.7 4.2 3.9 3.6 3.5 3.3 3.2 3.1 3.0 2.9 2.7 2.6 2.5 2.5 2.4 2.3 2.2 26 7.7 5.5 4.6 4.1 3.8 3.6 3.4 3.3 3.2 3.1 3.0 2.8 2.7 2.6 2.5 2.4 2.3 2.2 2.1 27 7.7 5.5 4.6 4.1 3.8 3.6 3.4 3.3 3.1 3.1 2.9 2.8 2.6 2.6 2.5 2.4 2.3 2.2 2.1 28 7.6 5.5 4.6 4.1 3.8 3.5 3.4 3.2 3.1 3.0 2.9 2.8 2.6 2.5 2.4 2.4 2.3 2.2 2.1 29 7.6 5.4 4.5 4.0 3.7 3.5 3.3 3.2 3.1 3.0 2.9 2.7 2.6 2.5 2.4 2.3 2.2 2.1 2.0 30 7.6 5.4 4.5 4.0 3.7 3.5 3.3 3.2 3.1 3.0 2.8 2.7 2.5 2.5 2.4 2.3 2.2 2.1 2.0 40 7.3 5.2 4.3 3.8 3.5 3.3 3.1 3.0 2.9 2.8 2.7 2.5 2.4 2.3 2.2 2.1 2.0 1.9 1.8 60 7.1 5.0 4.1 3.6 3.3 3.1 3.0 2.8 2.7 2.6 2.5 2.4 2.2 2.1 2.0 1.9 1.8 1.7 1.6 120 6.9 4.8 3.9 3.5 3.2 3.0 2.8 2.7 2.6 2.5 2.3 2.2 2.0 2.0 1.9 1.8 1.7 1.5 1.4 6.6 4.6 3.8 3.3 3.0 2.8 2.6 2.5 2.4 2.3 2.2 2.0 1.9 1.8 1.7 1.6 1.5 1.3 1.0

Durbin-Watson d istatistiği (α=0.05) N: Dönem, k: Bağımsız değişken sayısı (Sabit hariç) obs. k'=1 k'=2 k'=3 k'=4 k'=5 k'=6 k'=7 k'=8 N dl du dl du dl du dl du dl du dl du dl du dl du 6 0.610 1.400 - - - - - - - - - - - - - - 7 0.700 1.356 0.467 1.896 - - - - - - - - - - - - 8 0.763 1.332 0.559 1.777 0.368 2.287 - - - - - - - - - - 9 0.724 1.320 0.629 1.699 0.455 2.128 0.296 2.588 - - - - - - - - 10 0.879 1.320 0.697 1.641 0.525 2.016 0.376 1.414 0.243 2.822 - - - - - - 11 0.927 1.324 0.658 1.604 0.595 1.928 0.444 2.283 0.316 2.645 0.203 3.005 - - - - 12 0.971 1.331 0.812 1.579 0.658 1.864 0.512 2.177 0.379 2.506 0.268 2.832 0.171 3.149 - - 13 1.010 1.340 0.861 1.562 0.715 1.816 0.574 1.094 0.445 2.390 0.328 1.692 0.230 2.985 0.147 3.266 14 1.045 1.350 0.905 1.551 0.767 1.779 0.632 2.030 0.505 2.296 0.389 1.572 0.286 1.848 0.200 3.111 15 1.077 1.361 0.946 1.543 0.814 1.750 0.685 1.977 0.562 2.220 0.447 2.472 0.343 2.727 0.251 2.979 16 1.106 1.371 0.982 1.539 0.857 1.728 0.734 1.935 0.615 2.157 0.502 2.388 0.396 2.624 0.304 2.860 17 1.133 1.381 1.015 1.536 0.897 1.710 0.779 1.900 0.664 2.104 0.554 2.318 0.451 2.537 0.358 2.757 18 1.158 1.391 1.046 1.535 0.933 1.696 0.820 1.872 0.710 2.060 0.603 2.257 0.502 2.461 0.407 2.667 19 1.180 1.401 1.074 1.536 0.967 1.685 0.859 1.848 0.752 2.023 0.649 2.206 0.549 2.396 0.456 2.589 20 1.201 1.411 1.100 1.537 0.998 1.676 0.894 1.828 0.792 1.991 0.692 2.162 0.595 2.339 0.502 2.521 21 1.221 1.420 1.125 1.538 1.026 1.669 0.927 1.812 0.829 1.964 0.732 2.124 0.637 2.290 0.547 2.460 22 1.239 1.429 1.147 1.541 1.053 1.664 0.958 1.797 0.863 1.940 0.769 2.090 0.677 2.246 0.588 2.407 23 1.257 1.437 1.168 1.543 1.078 1.660 0.986 1.785 0.895 1.920 0.804 2.061 0.715 2.208 0.628 2.360 24 1.273 1.446 1.188 1.546 1.101 1.656 1.013 1.775 0.925 1.902 0.837 2.035 0.751 2.174 0.666 2.318 25 1.288 1.454 1.206 1.550 1.123 1.654 1.038 1.767 0.953 1.886 0.868 2.012 0.784 2.144 0.702 2.280 26 1.302 1.461 1.224 1.553 1.143 1.652 1.062 1.759 0.979 1.873 0.897 1.992 0.816 2.117 0.735 2.246 27 1.316 1.469 1.240 1.556 1.162 1.651 1.084 1.753 1.004 1.861 0.925 1.974 0.845 2.093 0.767 2.216 28 1.328 1.476 1.255 1.560 1.181 1.650 1.104 1.747 1.028 1.850 0.951 1.958 0.874 2.071 0.798 2.188 29 1.341 1.483 1.270 1.563 1.198 1.650 1.124 1.743 1.050 1.841 0.975 1.944 0.900 2.052 0.826 2.164 30 1.352 1.489 1.284 1.567 1.214 1.650 1.143 1.739 1.071 1.833 0.998 1.931 0.926 2.034 0.854 2.141 31 1.363 1.496 1.297 1.570 1.229 1.650 1.160 1.735 1.090 1.825 1.020 1.920 0.950 2.018 0.879 2.120 32 1.373 1.502 1.309 1.574 1.244 1.650 1.177 1.732 1.109 1.819 1.041 1.909 0.972 2.004 0.904 2.102 33 1.383 1.508 1.321 1.577 1.258 1.651 1.193 1.730 1.127 1.813 1.061 1.900 0.994 1.991 0.927 2.085 34 1.993 1.514 1.333 1.580 1.271 1.652 1.208 1.728 1.144 1.808 1.080 1.891 1.015 1.979 0.950 2.069 35 1.402 1.519 1.343 1.584 1.283 1.653 1.222 1.726 1.160 1.803 1.097 1.884 1.034 1.967 0.971 2.054 36 1.411 1.525 1.354 1.587 1.295 1.654 1.236 1.724 1.175 1.799 1.114 1.877 1.053 1.957 0.991 2.041 37 1.419 1.530 1.364 1.590 1.307 1.655 1.249 1.723 1.190 1.795 1.131 1.870 1.071 1.948 1.011 2.029 38 1.427 1.535 1.373 1.594 1.318 1.656 1.261 1.722 1.204 1.792 1.146 1.864 1.088 1.939 1.029 2.017 39 1.435 1.540 1.382 1.597 1.328 1.658 1.273 1.722 1.218 1.789 1.161 1.859 1.104 1.932 1.047 2.007 40 1.442 1.544 1.391 1.600 1.338 1.659 1.285 1.721 1.230 1.786 1.175 1.854 1.120 1.924 1.064 1.997 45 1.475 1.566 1.430 1.615 1.383 1.666 1.336 1.720 1.287 1.776 1.238 1.835 1.189 1.895 1.139 1.958 69

50 1.503 1.585 1.462 1.628 1.421 1.674 1.378 1.721 1.335 1.771 1.291 1.822 1.246 1.875 1.201 1.930 55 1.528 1.601 1.490 1.641 1.452 1.681 1.414 1.724 1.374 1.768 1.334 1.814 1.294 1.861 1.253 1.909 60 1.549 1.616 1.514 1.652 1.480 1.689 1.444 1.727 1.408 1.767 1.372 1.808 1.335 1.850 1.298 1.894 65 1.567 1.629 1.536 1.662 1.503 1.696 1.471 1.731 1.438 1.767 1.404 1.806 1.370 1.843 1.336 1.882 70 1.583 1.641 1.554 1.672 1.525 1.703 1.494 1.735 1.464 1.768 1.433 1.802 1.401 1.837 1.369 1.873 75 1.598 1.652 1.571 1.680 1.543 1.709 1.515 1.739 1.487 1.770 1.458 1.801 1.428 1.834 1.399 1.867 80 1.611 1.662 1.586 1.688 1.560 1.715 1.534 1.743 1.507 1.772 1.480 1.801 1.453 1.831 1.425 1.861 85 1.624 1.671 1.600 1.696 1.575 1.721 1.550 1.747 1.525 1.774 1.500 1.801 1.474 1.829 1.448 1.857 90 1.635 1.679 1.612 1.703 1.589 1.726 1.566 1.751 1.542 1.776 1.518 1.801 1.494 1.827 1.469 1.854 95 1.645 1.687 1.623 1.709 1.602 1.732 1.579 1.755 1.557 1.778 1.536 1.802 1.512 1.827 1.489 1.852 100 1.654 1.694 1.634 1.715 1.613 1.736 1.592 1.758 1.571 1.780 1.550 1.803 1.528 1.826 1.506 1.850 150 1.720 1.746 1.706 1.760 1.693 1.774 1.679 1.788 1.665 1.802 1.651 1.817 1.637 1.832 1.622 1.847 200 1.758 1.778 1.748 1.789 1.738 1.799 1.728 1.810 1.718 1.820 1.707 1.831 1.697 1.841 1.686 1.852 70